Les progrès de l'intelligence artificielle sont fulgurants, mais peu de recherches sont effectuées sur les conséquences de cette révolution technologique. C’est l’avertissement émis dans une lettre ouverte par un groupe de chercheurs et d'entrepreneurs. Parmi eux, Stephen Hawking et Elon Musk.
« Le financement de Skynet est voté. Le système se met en place le 4 août 1997, la décision humaine est éliminée de la Défense Stratégique. Skynet commence à apprendre à vitesse géométrique. il devient autonome le 29 août 1997 à 2h14 du matin, heure de Greenwich ». Terminator 2, 1991.
Et si la réalité rattrapait la fiction ? Sept-cent personnalités du monde des sciences et de la technologie appellent, dans une lettre ouverte publiée le 10 janvier, à plus de prudence face à l'essor de l’intelligence artificielle, dont les récents progrès ont été fulgurants. À leur tête, l’astrophysicien britannique Stephen Hawking, mondialement connu pour ses recherches conduites sur les trous noirs et la gravité quantique, malgré une paralysie physique quasi totale. La lettre a été publiée par le Future of Life Institute (FLI), un think tank créé par Jaan Tallinn, cofondateur de Skype, et dédié à « protéger l’humanité des risques existentiels ». Parmi ses autres célèbres signataires, Elon Musk, fondateur de SpaceX et de Tesla Motors ou encore Morgan Freeman, qui occupe l'affiche du film Transcendance (2014), justement consacré aux dangers de l'intelligence artificielle.
PROGRÈS EXPONENTIELS
« Il existe désormais un large consensus selon lequel les recherches sur l'intelligence artificielle avancent à un rythme soutenu, et leur impact sur la société va probablement aller en augmentant », affirment les 700 signataires. Ces effets s'observent déjà autour de nous : reconnaissance vocale, interprétation d’images, traduction automatique et bientôt pilotage des véhicules par eux mêmes. Autant d'innovations qui ont entrainé un cycle vertueux d’investissements massifs, de progrès technologiques et de compétition effrénée entre les entreprises. La question, estiment les signataires, n’est plus de savoir « si », mais « quand » et « qui » aura le premier créé une intelligence artificielle véritable.
Les bénéfices d'une telle révolution seraient colossaux, reconnaissent les auteurs, qui entrevoient déjà « l’éradication des maladies et de la pauvreté ». Mais ses risques sont tout aussi grands. Et imprévisibles. Que pourrait créer une intelligence différente ou supérieure à la notre ? Pourrait-elle s’auto-améliorer et dépasser notre compréhension ? Et à quelle vitesse ? Et nous considéra-t-elle comme une menace ? En bref, comment appréhender la singularité ? Ce concept a été développé dans les années 1990 par l'écrivain et mathématicien Vernor Vinge. Selon lui, l’apparition d’une intelligence artificielle (vers 2035) créerait un point de rupture tel dans l’histoire de l’humanité et de la recherche scientifique qu’il est simplement impossible d’en supposer les conséquences. L’intelligence artificielle pourrait ainsi être la plus grande invention humaine, mais aussi la dernière.
ASSURER LE PROGRÈS HUMAIN
« Étant donné le grand potentiel de l'intelligence artificielle, estiment les signataires, il est important d'étudier comment la société peut profiter de ses bienfaits, mais aussi comment éviter ses pièges. » Ils évoquent, entre autres, la possibilité d'un chômage de masse dû à la robotisation, l'apparition d'armes autonomes, ou la délégation de choix moraux à des machines.
Les signataires appellent donc la communauté scientifique à réfléchir à des garde-fous éthiques et légaux et proposent des pistes de recherche afin que « nos systèmes d’intelligence artificielle fasse ce que l'on leur demande ». Dans une interview accordée à la BBC en décembre, Stephen Hawking mettait en garde : « Les formes primitives d'intelligence artificielle que nous avons déjà se sont montrées très utiles. Mais je pense que le développement d'une intelligence artificielle complète pourrait mettre fin à la race humaine ».
Jean-Jacques Valette Journaliste We Demain Source
Triskel Retraité
Messages : 9230 Date d'inscription : 23/02/2012 Localisation : Avalon
Sujet: Re: L'appel de 700 personnalités sur les dangers de l'intelligence artificielle Sam 17 Jan 2015 - 17:26
Ca fait un moment que ce développement technologique à vitesse grand V me fait peur. Stephen Hawking sait de quoi il parle et on sait que toute innovation à un bon et un mauvais côté, et c'est celui là qui intéresse le plus en général. Ils nous préparent un monde de robots autonomes qui n'auront plus besoin des hommes.
Souléou Retraité
Messages : 2265 Date d'inscription : 23/02/2012 Age : 90 Localisation : Au soleil
Sujet: Re: L'appel de 700 personnalités sur les dangers de l'intelligence artificielle Sam 17 Jan 2015 - 17:55
Sans verser dans le pessimisme le plus noir, je reconnais que nous vivons une époque assez effrayante ! Mais, n'allons-nous pas finir comme les habitants de l'Atlantide ? il semblerait qu'ils aient atteint un très haut niveau de technologies diverses et variées et que ce soit cela qui ait entraîné leur perte. eut-être un jour ferons-nous sauter la Planète ? En attendant il faut souhaiter des jours meilleurs et que nos savants de tout poil cessent de se prendre pour des sorciers tout puissants !
chantara Founder & Team Manager
Assidu
inscription d'origine
BEST SELLER
le plus de messages publiés
Nom : Agent Dana Scully Messages : 20937 Date d'inscription : 09/05/2009 Age : 63 Localisation : entre ciel et terre
Sujet: Re: L'appel de 700 personnalités sur les dangers de l'intelligence artificielle Sam 24 Jan 2015 - 9:01
le problème vient toujours du l'utilisation des découvertes. elles le sont pour le bien et le progres , mais sont rapidement détournés pour le profit, les grands de ce monde et les riches qui en font un business, ou les militaires pour tuer encore plus et plus vite...