Les légendes Disney de 2024 incluent James Cameron, Frank Oz et Angela Bassett

James Cameron avertit que l'AI pourrait provoquer une «apocalypse de style terminateur» mais «rejette« totalement »l'idée qu'elle pourrait

Le réalisateur classe également la «superintelligence» parmi trois menaces «existentielles» contre l'humanité

L'écrivain-réalisateur de « Terminator », James Cameron, craint que son film classique sur l'intelligence artificielle détruisant presque l'humanité ne puisse se réaliser si la version réelle du monde de l'IA est jamais connectée aux systèmes d'armes.

Simultanément, le réalisateur «Avatar» insiste également sur le fait qu'il ne pense pas que l'IA puisse réellement remplacer les gens – au moins des artistes, de toute façon.

Les commentaires de Cameron proviennent d'une longue interview avec Rolling Stone, où il a dit en partie: «Je pense qu'il y a encore un danger de Terminateur-Style Apocalypse où vous mettez l'IA avec des systèmes d'armes, même jusqu'au niveau des systèmes d'armes nucléaires, la contre-États de défense nucléaire, tout ça. Parce que le théâtre des opérations est si rapide, les fenêtres de décision sont si rapides, il faudrait une superintelligence pour pouvoir le traiter, et nous serons peut-être intelligents et garderons un humain dans la boucle. »

« Mais les humains sont faillibles, et il y a eu beaucoup d'erreurs qui nous ont mis au bord des incidents internationaux qui auraient pu conduire à la guerre nucléaire », a-t-il ajouté.

Le réalisateur «Avatar» a également expliqué qu'il considérait la «superintelligence», ce qui signifie une version non encore créée de l'IA, une menace existentielle aux côtés du changement climatique et des armes nucléaires.

«Nous sommes à cette cuspide dans le développement humain où vous avez les trois menaces existentielles: le climat et notre dégradation globale du monde naturel, des armes nucléaires et de la superintelligence», a-t-il déclaré.

« Ils se manifestent et culminent en même temps », a déclaré Cameron, bien qu'il se demandait également si « la superintelligence est la réponse », ajoutant qu'il « ne prédisait pas cela, mais cela pourrait être ».

Cameron a également déclaré au magazine que «les gens font un peu trop sur moi, la prévision de l'intelligence artificielle était une mauvaise chose, surtout lorsqu'elle est associée aux armes nucléaires. Mais nous existons dans ce monde en ce moment, et si une superintelligence peut nous aider ou si elle est en armement et que nous pourrions être en charge de notre monde missile parce que nous pouvons réagir.»

Malgré ces terribles avertissements, Cameron rejette au moins l'une des plus grandes affirmations de Boosters de l'IA continue de faire – que la technologie pourrait rendre le travail humain obsolète.

Cameron a expliqué que pendant qu'il «s'appuyait pour m'apprendre les outils de l'IA générative afin que je puisse les intégrer dans mon futur art… Je rejette complètement la prémisse que l'IA peut remplacer les acteurs et prendre la place des cinéastes et tout ce genre de choses. Nous devons donc toujours approcher de toute technologie comme étant potentiellement dangereuse et potentiellement utile.»

Publications similaires