Suite à la MAJ du forum un bug sur l’affichage de la liste des topics dans les catégories. Le bug sera corrigé prochainemment.
Plus d’info : Echange entre l’équipe et les membres.

Le développement de l'intelligence artificielle inquiète, des centaines de chercheurs s'engagent


  • Admin

    0_1493570711231_fhj.png

    Plus de 2 300 personnes (dont près de 900 chercheurs sur la robotique et l’intelligence artificielle) ont signé les « 23 principes d’Asilomar ». Des règles de base qui devraient selon eux être appliquées pour le développement de l’IA qui promet d’être un bouleversement important. La question est toujours la même : faut-il en avoir peur ?

    Future of Life Institute (FLI) est une association basée dans la région de Boston qui s’est fixé une mission : « Catalyser et appuyer la recherche et les initiatives visant à sauvegarder la vie et à développer des visions optimistes du futur ». On y retrouve des membres de renom comme Stephen Hawking, Morgan Freeman et Elon Musk pour ne citer qu’eux.

    Avec l’IA, « un changement majeur est à venir »

    Au début du mois de janvier, FLI avait organisé une grande rencontre – Beneficial AI – autour d’un sujet d’actualité : l’intelligence artificielle. Elle s’est déroulée pendant plusieurs jours à Asilomar, au sud de San Francisco en Californie. Il en ressort, et ce n’est pas une surprise, qu’« un changement majeur est à venir, sur une échelle de temps inconnue, mais sur tous les segments de la société ».

    De petits groupes ont ainsi travaillé sur des « idées » afin d’encadrer le développement des IA. Celles-ci ont ensuite été présentées à l’ensemble des participants pour un vote. Si au moins 90% des participants étaient d’accord avec le concept présenté, il était alors adopté. Il en ressort « une liste de 23 principes » qui « n’est en aucun cas exhaustive et est certainement ouverte à des interprétations divergentes » explique FIL. De quoi établir une version moderne des trois lois de la robotique d’Asimov ?

    Néanmoins, et c’est tout aussi intéressant, l’organisation explique que cette liste « met en avant le fait que le comportement “par défaut” actuel autour de nombreux sujets pourrait enfreindre des principes qui sont pourtant importants pour la plupart des participants ». Avec cette publication, Future of Life Institute espère ainsi ouvrir le dialogue sur le sujet.

    23 principes sur la recherche, l’éthique et l’anticipation

    Voici sans plus attendre la liste que l’on présente parfois comme les « 23 principes d’Asilomar » :

    La recherche :

    • Objectif de la recherche : le but visé n’est pas de créer une IA incontrôlable, mais une IA « bénéfique »
    • Investissements : les investissements devraient être accompagnés de garanties sur un usage « bénéfique » de l’IA. Ce point se décompose en quatre sous-parties :
    1. Comment pouvons-nous rendre les IA très robustes, afin qu’elles fassent ce que nous voulons sans dysfonctionnement ou sans piratage ?
    2. Comment pouvons-nous accroître notre prospérité grâce à l’automatisation, tout en maintenant les ressources des hommes ?
    3. Comment pouvons-nous adapter nos systèmes juridiques pour être plus équitables et plus efficaces afin de gérer les risques associés aux IA ?
    4. Quel devraient être les valeurs des IA, quel statut juridique et éthique devrait-elles avoir ?
    • Relations entre scientifiques, décideurs et législateurs : il devrait toujours y avoir un échange constructif et sain
    • Culture de la recherche : encourager une culture de la coopération, de la confiance et de la transparence
    • Prévention : encourager la coopération afin d’éviter une course qui pourrait conduire à des erreurs à vouloir aller trop vite

    Les questions éthiques :

    • Sécurité : les IA devraient être sécurisées et vérifiables durant toute leur vie opérationnelle
    • Transparence de panne : en cas de problème, il devrait être possible d’en déterminer la cause
    • Transparence judiciaire : en cas de décision judiciaire prise par une IA, un audit doit être possible par un humain
    • Responsabilité : concepteurs et constructeurs d’IA devraient être responsables des conséquences morales
    • Alignement des valeurs : le comportement des IA devrait être conforme aux valeurs humaines
    • Valeurs humaines : respecter les idéaux de la dignité humaine, les droits les libertés et la diversité culturelle
    • Données personnelles : tout le monde devrait pouvoir accéder, gérer et contrôler ses données personnelles
    • Liberté et vie privée : une IA sur des données personnelles ne doit pas restreindre la liberté réelle ou perçue des personnes
    • Bénéfices partagés : les bénéfices des IA devraient toucher autant de personnes que possible
    • Prospérité partagée : la prospérité économique devrait bénéficier à toute l’humanité
    • Contrôle humain : les humains devraient choisir s’ils veulent ou non déléguer des tâches ou des décisions aux IA
    • Anti-subversion : contrôler les pouvoirs conférés à la personne qui contrôle des intelligences artificielles
    • Course à l’armement : une course vers les armes autonomes devrait être évitée

    Les questions à plus long terme :

    • Attention aux capacités des IA : s’il n’y a pas de consensus, il est conseillé d’éviter de faire des hypothèses sur les limites futures des IA
    • Une avancée importante : les IA fortes pourraient être le vecteur d’un important changement dans l’histoire de la vie sur Terre
    • Prévisions des risques : les risques susceptibles d’être causés doivent faire l’objet de planifications afin d’atténuer les risques de manière proportionnée à leur impact
    • Développement autonome : les IA conçues pour s’améliorer ou se répliquer automatiquement doivent faire l’objet de contrôles de sécurité rigoureux
    • Bien commun : les super IA ne doivent être développées que pour des idéaux éthiques partagés par une large majorité et pour le bien de l’humanité. De plus, elles ne devraient donc pas être destinées à un État ou une organisation

    La longue liste des signatures : employés des GAFAM, universitaires, scientifiques…

    Des règles de bon sens (même si certaines sont assez simplistes) et qui ont recueilli l’aval de nombreux spécialistes et scientifiques. En effet, plus de 2 350 personnes ont actuellement signé cette charte, parmi lesquels nous retrouvons Stephen Hawking, Elon Musk, Jaan Tallinn (cofondateur de Skype), Sam Altman (OpenIA et Y Combinator), Gill Pratt (PDG de Toyota Research Institute), Demis Hassabis (DeepMind/Google), Ilya Sutskever (OpenIA) et Yann LeCun (Facebook).

    Pêle-mêle, figurent dans cette liste des chercheurs provenant d’Apple, Facebook, Google, IBM, Microsoft, Tesla, des universitaires, des professeurs de renom, des gens du CNRS, du CEA et de la NASA, ainsi qu’une multitude d’autres personnes. Bref du beau monde venus de tous les horizons.

    IA forte : pour le moment, « on n’a absolument aucune idée de comment la faire »

    Source et suite : nextinpact.com


    Est-ce que le développement de l’IA vous fait peur ? Ou au contraire vous avez hâte que son développement se fasse et qu’elle soit de plus en plus présente dans nos vies ?


  • Team

    Personnellement ça ne me fait pas peur, je pense qu’en fait la question ne se pose peut-être pas encore, il faudra poser la question dans les générations futures, quand il y aura du concret.

    Par contre c’est effectivement plutôt une bonne idée de fixer un cadre déontologique pour un tel développement.

    Je ne serais malheureusement pas étonné qu’on finisse par fabriquer des robots de guerres pour la faire à notre place :/


  • Admin

    Pareil, pour le moment ça ne m’effraie pas plus que ça, vu qu’on n’en est pas encore à créer des Terminator ou des Skynet.
    Même si l’on commence à savoir faire des systèmes capable d’apprendre et d’expérimenter ou de s’auto-reproduire, on est loin d’avoir des machines pleinement autonomes, c’est à dire pouvant se passer des humains programmeurs.
    Naïvement je me dis aussi que si un jour on est sur le point de concevoir une telle machine, il suffit de la concevoir pour qu’elle soit dépendante d’une alimentation électrique filaire, en cas de problème il suffit de débrancher la fiche de la prise murale.



  • @Ratonhnhakéton a dit dans Le développement de l'intelligence artificielle inquiète, des centaines de chercheurs s'engagent :

    Naïvement je me dis aussi que si un jour on est sur le point de concevoir une telle machine, il suffit de la concevoir pour qu’elle soit dépendante d’une alimentation électrique filaire, en cas de problème il suffit de débrancher la fiche de la prise murale.

    Oui c’est naif.^^
    Tout le probleme dans ce delire, c’est que la machine soit doté d’une capacité à réfléchir et donc a comploter et développer des strategies.
    Si c’est une IA sur-développé, rien ne te dis que tu seras a meme d’anticiper sa rébellion et donc ses stratégies de contre a tes parades pour la rendre hors service.



  • @LeSvelteGrizzly 'suffit de lire Asimov.



  • @Chibi a dit dans Le développement de l'intelligence artificielle inquiète, des centaines de chercheurs s'engagent :

    @LeSvelteGrizzly 'suffit de lire Asimov.

    Dans quelle sens tu me dis ca?

    J’ai pas été dans le detail de ce qu’a produit Asimov donc je suis pas sure.
    Tu veux dire qu’en lisant Asimov t’es plus a meme de comprendre toute la problematique de la possible rebellion d’une IA?

    Ou qu’en lisant Asimov tu es plus paré pour anticiper des strategies qui eviteraient toutes rebellions ou si rébellion il y avait elles les réduiraient inéluctablement a néant?

    Parce que ca m’a pas l’air d’etre le cas, du coup c’est tres inquietant oui.



  • @LeSvelteGrizzly c’était juste une petite blague en fait… J’ai pas réfléchi à tout ça :teubasse: je voulais juste dire qu’Asimov avait raconté la rébellion des intelligences artificielles…



  • J’espère qu’on va pouvoir s’en procurer facilement un jour, parce que ça m’intéresse…



  • Un peu dans le même ordre d’idées, je me souviens de la publication des résultats d’une expérience qui m’avait marquée à propos des robots évolutifs. Des chercheurs suisse (Laboratory of Intelligent Systems) qui avaient eu l’étonnement de se rendre compte que leurs robots étaient capables de se mentir entre eux, par intérêt et stratégie. Mais le plus étonnant est que tous ne le faisaient pas… (60% de menteurs, 10% qui disaient toujours la vérité et 30% entre les 2).

    http://www.robospot.com/science-recherche/article/des-robots-evolutifs-apprennent-a



Il semble que votre connexion ait été perdue, veuillez patienter pendant que nous vous re-connectons.