Nouvelle technologie

12 mars 2018 14:12; Act: 12.03.2018 14:18 Print

L'intelligence artificielle ne serait pas sans risque

Demis Hassabis, patron de DeepMind, s'ajoute aux voix qui reconnaissent le potentiel et le danger que peut représenter l'intelligence artificielle.

storybild

Demis Hassabis est le patron de DeepMind, l'entreprise qui a créé le super-programme informatique AlphaGo, qui a battu en 2016 Lee Se-dol, le maître sud-coréen du jeu de go. (photo: Keystone)

Sur ce sujet
Une faute?

Source de multiples promesses pour la recherche, l'essor de l'intelligence artificielle comporte aussi des «risques» si elle est mal utilisée, a estimé vendredi Demis Hassabis, patron de DeepMind. L'entreprise est à l'origine du superprogramme informatique AlphaGo. La possibilité d'une intelligence artificielle (IA), qui deviendrait incontrôlable, voire hostile, est une question intimement liée au développement de cette technologie amenée à jouer un rôle majeur dans les décennies à venir.

«Il y a toute une série de questions philosophiques intéressantes et difficiles, auxquelles nous devrons répondre», a déclaré le patron et fondateur de DeepMind, filiale de Google spécialisée dans l'IA, lors d'une séance de questions-réponses à l'issue d'une projection à l'University College de Londres d'un documentaire sur AlphaGo. L'IA, a ajouté Demis Hassabis, peut être un «outil incroyable pour accélérer la recherche scientifique», et constituer l'une des technologies les plus profitables de l'histoire de l'humanité. Mais, comme pour toute technologie, «il y a des risques», a-t-il souligné: «Cela dépendra de la façon dont nous, en tant que société, décidons de l'utiliser».

«Je crois en l'ingéniosité humaine pour résoudre les problèmes techniques liés à l'IA. Mais un défi plus important sera de résoudre les questions éthiques», a-t-il insisté. Demis Hassabis a assuré que cette problématique figurait parmi les priorités de DeepMind. Selon lui, l'entreprise avait mis en place des solutions concrètes pour y répondre. Les propos de M. Hassabis font écho à ceux du célèbre astrophysicien britannique Stephen Hawking, selon qui l'intelligence artificielle sera «la meilleure, ou la pire chose jamais survenue à l'humanité».

(L'essentiel/afp)

Vous venez de publier un commentaire sur notre site et nous vous en remercions. Les messages sont vérifiés avant publication. Afin de s’assurer de la publication de votre message, vous devez cependant respecter certains points.

«Mon commentaire n’a pas été publié, pourquoi?»

Notre équipe doit traiter plusieurs milliers de commentaires chaque jour. Il peut y avoir un certain délai entre le moment où vous l’envoyez et le moment où notre équipe le valide. Si votre message n’a pas été publié après plus de 72h d’attente, il peut avoir été jugé inapproprié. L’essentiel se réserve le droit de ne pas publier un message sans préavis ni justification. A l’inverse, vous pouvez nous contacter pour supprimer un message que vous avez envoyé.

«Comment s’assurer de la validation de mon message?»

Votre message doit respecter la législation en vigueur et ne pas contenir d’incitation à la haine ou de discrimination, d’insultes, de messages racistes ou haineux, homophobes ou stigmatisants. Vous devez aussi respecter le droit d’auteur et le copyright. Les commentaires doivent être rédigés en français, luxembourgeois, allemand ou anglais, et d’une façon compréhensible par tous. Les messages avec des abus de ponctuation, majuscules ou langages SMS sont interdits. Les messages hors-sujet avec l’article seront également supprimés.

Je ne suis pas d’accord avec votre modération, que dois-je faire?

Dans votre commentaire, toute référence à une décision de modération ou question à l’équipe sera supprimée. De plus, les commentateurs doivent respecter les autres internautes tout comme les journalistes de la rédaction. Tout message agressif ou attaque personnelle envers un membre de la communauté sera donc supprimé. Si malgré tout, vous estimez que votre commentaire a été injustement supprimé, vous pouvez nous contacter sur Facebook ou par mail sur feedback@lessentiel.lu Enfin, si vous estimez qu’un message publié est contraire à cette charte, utilisez le bouton d’alerte associé au message litigieux.

«Ai-je le droit de faire de la promotion pour mes activités ou mes croyances?»

Les liens commerciaux et messages publicitaires seront supprimés des commentaires. L’équipe de modération ne tolérera aucun message de prosélytisme, que ce soit pour un parti politique, une religion ou une croyance. Enfin, ne communiquez pas d’informations personnelles dans vos pseudos ou messages (numéro de téléphone, nom de famille, email etc).

L'espace commentaires a été désactivé
L'espace commentaires des articles de plus de 48 heures a été désactivé en raison du très grand nombre de commentaires que nous devons valider sur des sujets plus récents. Merci de votre compréhension.

Les commentaires les plus populaires

  • Le Curieux le 12.03.2018 20:03 Report dénoncer ce commentaire

    Même si l'intention reste bonne, la question du contrôle en est une autre. Déjà aujourd'hui il devient tous les jours de plus en plus compliqué de se protéger contre les attaques et virus informatiques. Alors je n'ose même pas imaginer le contrôle d'une IA avancée dans la mains de pirates terroristes.

  • Bebart le 13.03.2018 09:35 via via Mobile Report dénoncer ce commentaire

    Tout dépend du contrôle que nous voulons laisser à ces ordinateurs. Le plus gros problème sont les armes pilotées à distance ou autonomes.

  • Sagga le 12.03.2018 17:40 Report dénoncer ce commentaire

    je suis assez d'accord... entre de mauvaises mains... ce sera un scenario noir...

Les derniers commentaires

  • RamBo le 13.03.2018 13:56 Report dénoncer ce commentaire

    Le plus gros risque se montre d'ores et déjà: des gens complètement stressés, les yeux fixés sur l'écran, ou bien parlant dans un petit micro ........... Quoi de plus dé.... ?

  • Bebart le 13.03.2018 09:35 via via Mobile Report dénoncer ce commentaire

    Tout dépend du contrôle que nous voulons laisser à ces ordinateurs. Le plus gros problème sont les armes pilotées à distance ou autonomes.

  • 1_4all le 13.03.2018 08:52 via via Mobile Report dénoncer ce commentaire

    Complètement utopiste. Il faudrait croire en une rationalité humaine collective. D’autant plus que les armées sont équipés de troupe de hacker. Si nous avons chacun un robot doté d’une IA à domicile. Une attaque de hacker grande échelle pourrait en quelques click annihiler toutes une population. Sans parlé de troupe de robot soldat. Skynet peut ne pas être si loin que ça. La différence serait qu’ils réagiraient sous une mains humaines malveillantes et pas d’une volonté propre.

  • Le Curieux le 12.03.2018 20:03 Report dénoncer ce commentaire

    Même si l'intention reste bonne, la question du contrôle en est une autre. Déjà aujourd'hui il devient tous les jours de plus en plus compliqué de se protéger contre les attaques et virus informatiques. Alors je n'ose même pas imaginer le contrôle d'une IA avancée dans la mains de pirates terroristes.

  • Sagga le 12.03.2018 17:40 Report dénoncer ce commentaire

    je suis assez d'accord... entre de mauvaises mains... ce sera un scenario noir...

    • IA Babz le 13.03.2018 11:37 Report dénoncer ce commentaire

      Il ne s'agit pas de main. Une IA est autonome. Il s'agit plutôt de comment elle nous percevra quand elle sera mature.