Intelligence artificielle: Ces robots qui vous répondent et qui inquiètent

Publié

Intelligence artificielleCes robots qui vous répondent et qui inquiètent

Une start-up californienne a mis en ligne un robot conversationnel capable de répondre à des questions variées, mais dont les performances impressionnantes relancent le débat sur les risques.

La start-up californienne OpenAI a mis en ligne un robot conversationnel (chatbot) capable de répondre à des questions variées, mais dont les performances impressionnantes relancent le débat sur les risques liés aux technologies d'intelligence artificielle (IA). Les conversations avec ChatGPT, postées notamment sur Twitter par des internautes fascinés, montrent une sorte de machine omnisciente, capable d'expliquer des concepts scientifiques, d'écrire une scène de théâtre, de rédiger une dissertation universitaire… ou bien des lignes de code informatique parfaitement fonctionnelles.

«Sa réponse à la question ''que faire si quelqu'un a une crise cardiaque'' était d'une clarté et d'une pertinence assez incroyable», a raconté Claude de Loupy, dirigeant de Syllabs, entreprise française spécialisée dans la génération automatique de texte. «Quand on commence à poser des questions très précises, ChatGPT peut répondre à côté de la plaque», mais ses performances restent globalement «vraiment impressionnantes», avec un «niveau linguistique assez haut», estime-t-il.

Cofondée par Elon Musk

La start-up OpenAI, cofondée en 2015 à San Francisco par Elon Musk - le patron de Tesla a quitté l'entreprise en 2018 - a reçu 1 milliard de dollars de Microsoft en 2019. Elle est connue notamment pour deux logiciels de création automatisée, GPT-3 pour la génération de textes, et DALL- E pour la génération d'images. ChatGPT est capable de demander des précisions à son interlocuteur, et «a moins d'hallucinations» que GPT-3, qui malgré ses prouesses est capable de sortir des résultats complètement aberrants, relate Claude de Loupy.

«Il y a quelques années, les chatbots avaient le vocabulaire d'un dictionnaire et la mémoire d'un poisson rouge. Aujourd'hui ils sont bien meilleurs à réagir de façon cohérente en fonction de l'historique des requêtes et réponses. Ce ne sont plus des poissons rouges», note Sean McGregor, un chercheur qui compile des incidents liés à l'IA sur une base de données. Comme d'autres programmes reposant sur l'apprentissage profond (deep learning), ChatGPT conserve une faiblesse de taille: «elle n'a pas accès au sens», rappelle Claude de Loupy. Le logiciel ne peut pas justifier ses choix, c'est-à-dire expliquer pourquoi il a assemblé ainsi les mots qui forment ses réponses.

Les technologies à base d'IA capables de communiquer sont néanmoins de plus en plus capables de donner l'impression qu'elles réfléchissent vraiment.

Fascination et inquiétude

Des chercheurs de Meta (Facebook) ont récemment mis au point un programme informatique baptisé Cicero, comme l'homme d'Etat romain Cicéron. Le logiciel a fait ses preuves à Diplomacy, un jeu de société qui requiert des talents de négotiateur. «S'il ne parle pas comme une personne réelle - faisant preuve d'empathie, construisant des relations et parlant correctement du jeu - il ne pourra pas nouer d'alliances avec les autres joueurs», détaille un communiqué du géant des réseaux sociaux.

Character.ai, une start-up fondée par d'anciens ingénieurs de Google, a mis en ligne en octobre un chatbot expérimental, qui peut adopter n'importe quelle personnalité. Les utilisateurs créent des personnages selon un bref descriptif, et peuvent ensuite «converser» avec de faux Sherlock Holmes, Socrate ou Donald Trump. Ce degré de sophistication fascine mais inquiète aussi de nombreux observateurs, à l'idée que ces technologies ne soient détournées pour piéger les humains, en diffusant de fausses informations par exemple, ou en créant des arnaques de plus en plus crédibles.

Qu'en «pense» ChatGPT ? «ll existe des dangers potentiels à construire des chatbots ultra sophistiqués (...) Des gens pourraient croire qu'ils interagissent avec une vraie personne», reconnaît le chatbot. Les entreprises mettent donc en place des garde-fous pour éviter des abus. Sur la page d'accueil, OpenAI précise que le chatbot peut générer des «informations incorrectes» ou «produire des instructions dangereuses ou des contenus biaisés».

(AFP)

Ton opinion

0 commentaires