Recherche scientifique

12 juin 2018 14:12; Act: 12.06.2018 14:17 Print

L'intelligence artificielle a créé un psychopathe

Il voit la mort partout: Norman a été mis au point pour expliquer au grand public comment sont confectionnés les algorithmes et le sensibiliser aux dangers possibles de l'IA.

storybild

L'«esprit» de Norman a été complètement conditionné.

Sur ce sujet

«Quand les gens disent que les algorithmes d'intelligence artificielle sont biaisés ou injustes, le coupable est souvent non pas l'algorithme lui-même mais les données biaisées qui ont été utilisées (pour le mettre au point). Cette idée est bien connue des scientifiques mais beaucoup moins du grand public», ont expliqué lundi, Pinar Yanardag, Manuel Cebrian et Iyad Rahwan, du prestigieux Massachusetts Institute of Technology (MIT).

D'où l'idée de créer Norman, prénom choisi d'après le personnage du tueur psychopathe Norman Bates, dans le film «Psychose» (1960), d'Alfred Hitchcock. Concrètement, Norman a été «nourri» uniquement avec de courtes légendes décrivant des images «de personnes en train de mourir» trouvées sur la plateforme Internet Reddit, expliquent les trois chercheurs, qui ont créé un site Internet dédié http://norman-ai.mit.edu/.

Réponses macabres

Les chercheurs lui ont ensuite soumis des images de taches d'encre, comme dans le test psychologique de Rorschach, pour savoir ce que Norman voyait et comparer ses réponses à celles d'une autre IA, entraînée de façon traditionnelle. Et les résultats sont pour le moins effrayants: quand l'IA traditionnelle voit «deux personnes debout l'une près de l'autre», Norman voit dans la même tache d'encre «un homme qui saute d'une fenêtre».

Et quand Norman distingue «un homme tué par balle devant sa femme qui hurle», l'autre IA décèle «une personne en train de tenir un parapluie». Le site Internet montre ainsi dix exemples de taches d'encre accompagnées des réponses des deux systèmes, avec toujours une réponse macabre provenant de Norman. Le site propose aux internautes de faire eux aussi le test des taches d'encre et d'envoyer leurs réponses «pour aider Norman à se réparer».

Plus qu'une expérience réellement scientifique, Norman illustre «les dangers de l'intelligence artificielle quand elle tourne mal parce que des données biaisées ont été utilisées» pour l'entraîner, disent les chercheurs, qui «espèrent susciter une prise de conscience du public et le débat sur ces sujets».

(L'essentiel/afp)

Vous venez de publier un commentaire sur notre site et nous vous en remercions. Les messages sont vérifiés avant publication. Afin de s’assurer de la publication de votre message, vous devez cependant respecter certains points.

«Mon commentaire n’a pas été publié, pourquoi?»

Notre équipe doit traiter plusieurs milliers de commentaires chaque jour. Il peut y avoir un certain délai entre le moment où vous l’envoyez et le moment où notre équipe le valide. Si votre message n’a pas été publié après plus de 72h d’attente, il peut avoir été jugé inapproprié. L’essentiel se réserve le droit de ne pas publier un message sans préavis ni justification. A l’inverse, vous pouvez nous contacter pour supprimer un message que vous avez envoyé.

«Comment s’assurer de la validation de mon message?»

Votre message doit respecter la législation en vigueur et ne pas contenir d’incitation à la haine ou de discrimination, d’insultes, de messages racistes ou haineux, homophobes ou stigmatisants. Vous devez aussi respecter le droit d’auteur et le copyright. Les commentaires doivent être rédigés en français, luxembourgeois, allemand ou anglais, et d’une façon compréhensible par tous. Les messages avec des abus de ponctuation, majuscules ou langages SMS sont interdits. Les messages hors-sujet avec l’article seront également supprimés.

Je ne suis pas d’accord avec votre modération, que dois-je faire?

Dans votre commentaire, toute référence à une décision de modération ou question à l’équipe sera supprimée. De plus, les commentateurs doivent respecter les autres internautes tout comme les journalistes de la rédaction. Tout message agressif ou attaque personnelle envers un membre de la communauté sera donc supprimé. Si malgré tout, vous estimez que votre commentaire a été injustement supprimé, vous pouvez nous contacter sur Facebook ou par mail sur feedback@lessentiel.lu Enfin, si vous estimez qu’un message publié est contraire à cette charte, utilisez le bouton d’alerte associé au message litigieux.

«Ai-je le droit de faire de la promotion pour mes activités ou mes croyances?»

Les liens commerciaux et messages publicitaires seront supprimés des commentaires. L’équipe de modération ne tolérera aucun message de prosélytisme, que ce soit pour un parti politique, une religion ou une croyance. Enfin, ne communiquez pas d’informations personnelles dans vos pseudos ou messages (numéro de téléphone, nom de famille, email etc).

L'espace commentaires a été désactivé
L'espace commentaires des articles de plus de 48 heures a été désactivé en raison du très grand nombre de commentaires que nous devons valider sur des sujets plus récents. Merci de votre compréhension.

Les commentaires les plus populaires

  • ScienceFiction le 12.06.2018 14:29 Report dénoncer ce commentaire

    effectivement, il y a des risques mais les dangers de l'intelligence humaine existe. Nous tuons la planète et tout s'accélere... c'est pas de la science fiction.

  • Apocalypse le 12.06.2018 14:28 Report dénoncer ce commentaire

    L'humain se fera exterminer d'une façon ou de l'autre...soit par sa main, soit par la main d'autrui...

  • On y est! le 12.06.2018 14:35 Report dénoncer ce commentaire

    et quand on sait la multitude de données biaisées et de fake news qui sont échangées sur le net, ça fait vraiment peur

Les derniers commentaires

  • Une IA biologique le 13.06.2018 07:02 Report dénoncer ce commentaire

    N'est-ce pas le même résultat pour l'homme ? Si l'on éduque une entité (homme/machine) avec des informations sélectionnées, l'entité verra cette sélection comme naturele. Ne sommes nous donc pas tous succeptible de devenir psychopathe en raison de l'abondance des images "catastrophes" dans les journaux et l'absence de fait divers pour compenser/équilibrer.

  • Neostradamus le 12.06.2018 23:29 Report dénoncer ce commentaire

    À l'ere des ia et des robots nous aurons fait notre temps.

  • Marina le 12.06.2018 22:55 Report dénoncer ce commentaire

    Mais quelle tête aura donc la singularité ?

  • has6 le 12.06.2018 20:20 via via Mobile Report dénoncer ce commentaire

    Recherche intéressante pour démontrer les dangers de l’IA... à suivre! les lois de la robotique seront elles suffisantes pour une IA qui aura été programmée à s’éduquer sur des bases « sorties du droit chemin »?

  • torolkozo le 12.06.2018 17:05 Report dénoncer ce commentaire

    Certains ne savent plus comment occuper leur temps de façon utile alors ils font n'importe quoi mais bon pourquoi pas finalement si on les paie pour ça ...