@eleha a dit dans Terminator (The Terminator, série de films) : Vu lors de sa sortie ciné, un choc, j’ai pas tout pigé sur le coup et pour cause, on avait pas internet, 1984, c’était la préhistoire… je suis retournée le voir 5 fois tellement j’étais fan de l’histoire, de l’histoire d’amour entre Sarah et Reese, les effets spéciaux, la scène choc apocalyptique… tout ça était très nouveau après La guerre des étoiles quelques années plus tôt. Bref, une claque, j’ai même dit à mon mari qui ne l’était pas encore ( mdr) tu te rends compte si un jour les machines prennent le dessus, c’est foutu. On est pas loin soit dit en passant. Entre Terminator et 2001 l’odyssée de l’espace, en passant par Avengers 2 ou War Games, le cinéma de SF a souvent aimé explorer l’idée d’une IA programmée pour nous protéger, mais qui en vient finalement à la conclusion que nous exterminer est une solution acceptable. J’en ai discuté une fois avec un ami ingénieur et selon lui, si ça doit se produire, il y a peu de chances pour que cette conclusion soit le simple fruit du raisonnement de la machine, et qu’il y ai en fait une volonté humaine sous-jacente. Une IA ne raisonne pas comme nous. Aussi intelligente soit elle, elle reste binaire, carré, hermétique à l’impulsivité des émotions, et attachée aux règles fondamentales qu’on lui a inculqué. Un peu comme Deepblue ou AlphaGo, devenus les meilleurs dans leurs domaines respectifs (les échecs et le jeu de Go), mais à qui ça ne viendrait jamais à l’esprit de tricher. Une super IA qui se mettrait demain à tuer des humains, c’est juste qu’il y aurait dans son code une directive (écrite par un humain) disant que ***“tuer les humains n’est pas inenvisageable”***.