Lettre contre l'IA : Elon Musk et des experts appellent à une pause dans le développement

Lettre contre l'IA : Elon Musk et des experts appellent à une pause dans le développement

avatar de jefferson tafarel
Une lettre contre l'IA signée par plus de 1000 experts alerte sur les risques de la course au développement des modèles d'Intelligence Artificielle (IA) et demande 6 mois de suspension des activités

Le PDG de Twitter, Elon Musk et l'historien célèbre pour le livre Une brève histoire de l'humanité, Yuval Noah Harari, parmi d'autres spécialistes, chercheurs et scientifiques, ont décidé de signer une lettre dans laquelle ils demandent une pause dans la mise à jour et le développement de l'IA.

La lettre en question a été produite par le Institut de l'avenir de la vie (Institut pour l'Avenir de la Vie, en traduction libre) et recommande une pause dans le développement de l'intelligence artificielle (AI) d'au moins six mois, ce qui est transparent. En savoir plus sur le contenu du document, voir la traduction du texte intégral et rester au courant des discussions autour du sujet suivant.

Que dit la lettre contre l'IA sur l'intelligence artificielle ?

Le travail indépendant et la montée de la désinformation sont deux des principales préoccupations concernant les technologies d'IA mises en évidence dans la lettre. Le contenu du texte exige également que le moment de la suspension du développement avec des outils tels que GPT-4, À mi-parcours et les solutions d'IA similaires doivent être "publiques et vérifiables".

En ce qui concerne les investissements, la lettre explique également comment OpenAI, Microsoft e Google sommes dans une course technologique sans regarder de près comment les gouvernements et les institutions publiques luttent pour suivre chaque nouvelle étape. Autrement dit, selon le document, le secteur de l'IA entre dans une vitesse de plus en plus difficile à suivre et même les acteurs impliqués dans la technologie le reconnaissent.

"Si cette pause ne peut pas être réglée rapidement, les gouvernements devraient intervenir et instituer une suspension"

lettre de Institut de l'avenir de la vie
Tristan Harris a signé la lettre qui met en garde contre les risques liés au développement des IAS
La lettre appelant à un frein aux solutions d'IA en cours de développement a le soutien d'experts tels que Tristan Harris, qui était autrefois un employé de Google dans le secteur des produits (Image : Michael Kovac/Getty Images).

O texte il mentionne également les laboratoires d'IA qui produisent des technologies, mais sont incapables de faire des évaluations précises et ne sont même pas capables d'avoir le contrôle sur ces esprits numériques. Ce qui intrigue les signataires – du co-fondateur d'Apple Steve Wozniak aux chercheurs pionniers comme Yoshua Bengio et Stuart Russell en passant par l'ancien philosophe des produits Google Tristan Harris – ce sont les questions entourant la portée de la diffusion d'informations sur les mensonges, le remplacement des esprits humains et le très "contrôle". de notre civilisation ». En ce sens, le document prête également attention au meilleur moment d'investissement :

"Des systèmes d'IA puissants ne devraient être développés que lorsque nous sommes convaincus que leurs effets seront positifs et que leurs risques seront gérés."

lettre de Institut de l'avenir de la vie

Institut du futur de la vie et technologie responsable

Fondée en 2015, à partir d'un investissement d'Elon Musk, la Institut de l'avenir de la vie cherche à éloigner les nouvelles avancées technologiques des risques possibles pour la vie, tant pour l'humanité que pour les autres êtres vivants. L'organisation s'intéresse non seulement à l'IA, mais surveille également les productions dans des domaines tels que la biotechnologie et l'énergie nucléaire. L'effort de cet institut pour soutenir la responsabilité technologique a pour vision un monde où les maladies sont éradiquées et les démocraties sont renforcées dans le monde entier.

Lettre d'intelligence artificielle contre l'investissement en IA
Avec un œil sur l'intelligence artificielle, Future of Life, qui a produit la lettre contre l'IA, a fait un investissement malavisé (Image : Expo/Press Photo).

Les actions de Future of Life ont été reconnues par le Nations Unies (ONU) en 2020 : l'ONU a désigné l'institut comme représentant de la société civile sur les questions liées à l'IA. Plus tôt cette année, cependant, le président de ce chien de garde technologique, Max Tegmark, a dû s'excuser pour un investissement malavisé dans une plate-forme médiatique d'extrême droite, la suédoise Nya Dagbladet.

Quelle est la position des autres entreprises sur le développement de l'IA ?

Les sociétés consolidées telles que Google e Microsoft évité de commenter la lettre du Institut de l'avenir de la vie. Les deux entreprises s'orientent de plus en plus vers l'offre de solutions d'IA, au vu des productions du OpenAI, l'entreprise qui a créé le ChatGPT. Soit dit en passant, la "mère" de l'une des IA les plus célèbres du moment a reçu de Microsoft 10 milliards de dollars d'investissement. Simultanément, la société créée par Bill Gates utilise la technologie OpenAI dans son moteur de recherche, le Bing.

Solutions avec la bataille
Google déplace déjà les pièces du jeu pour proposer des solutions avec une IA aussi puissante que ChatGPT, comme Bard (Image : JagranJosh/Reproduction).

Ce mois-ci, par coïncidence, Bill Gates a même publié un lettre dans laquelle il aborde les effets possibles que les solutions d'IA peuvent apporter à l'avenir. Google maintient ses investissements dans l'intelligence artificielle à travers le barde, qui n'est pas encore totalement accessible au public.

Préoccupations des experts concernant l'IA et le GPT-4

Même s'il a été amélioré, l'outil GPT-4 il produit toujours des résultats avec quelques hallucinations et peut servir les utilisateurs en utilisant un langage nuisible. Mais il y a ceux qui croient que la pause, en fait, devrait être de mieux comprendre les avantages - et pas seulement les inconvénients des technologies d'IA. C'est l'avis de Peter Stone, chercheur à l'Université du Texas à Austin (USA).

Charte des Experts Robots
Une lettre d'experts divise les opinions sur l'avenir de l'intelligence artificielle (Image : Intelligence Square / Reproduction).

"Je pense qu'il vaut la peine d'avoir un peu d'expérience sur la façon dont [les IA] peuvent être utilisées correctement ou non, avant de développer la prochaine [technologie]. Cela ne devrait pas être une course pour produire un nouveau modèle d'intelligence artificielle et le publier avant les autres.

Peter Stone

A l'opposé de cette position, l'un des signataires, Emad Mostaque, fondateur de la société IA de stabilité (dédié aux outils dotés d'intelligence artificielle), a déclaré à Wired que les solutions d'IA sont une menace possible pour l'existence même de la société. Il a également accordé de l'importance à la manière dont les investissements devraient être revus, en tenant davantage compte de ce que pourrait être l'avenir de cette course technologique.

"Il est temps de mettre de côté les priorités commerciales et de faire une pause pour le bien de tous, davantage pour faire de la recherche plutôt que de se lancer dans une course à l'avenir incertain."

Emad Mostaque

Lettre contre l'IA : traduction intégrale

lettre contre ai josh
Président du Future of Life Institute, auteur de la lettre anti-IA, Max Tegmark (Image : Josh Reynolds/Getty Images).

Mettre en pause les expériences d'IA géantes : une lettre ouverte

Nous conseillons à tous les laboratoires d'intelligence artificielle (IA) de suspendre immédiatement la formation sur les systèmes d'IA plus puissants que GPT-4 pendant au moins six mois

Les systèmes d'intelligence artificielle dotés d'une intelligence capable de rivaliser avec les humains peuvent présenter de graves risques pour la société et l'humanité, comme en témoignent les recherches approfondies de l'Université Cornell, les livres Le problème d'alignement (Brian Christian, 2020), Être humain à l'ère de l'intelligence artificielle (Max Tegmark, 2017) et par d'autres études — sur les avancées dans le domaine, l'éthique, l'impact sur le marché du travail, les risques existentiels — en plus d'être reconnu par des laboratoires d'IA renommés. Comme indiqué dans les principes d'IA d'Asilomar, "l'IA avancée peut représenter un changement profond dans l'histoire de la vie sur Terre, et doit être planifiée et gérée avec soin et avec des ressources proportionnées". Malheureusement, ce niveau de planification et de gestion ne se produit pas, même si ces derniers mois ont vu les laboratoires d'IA commencer une course incontrôlable pour développer et exploiter des esprits numériques toujours plus puissants que personne - pas même leurs créateurs - ne peut comprendre. , prédire ou contrôler de manière fiable. 

Maintenant, les systèmes d'IA actuels deviennent capables de rivaliser avec les humains sur des tâches en général, et nous devons nous demander : Nous devons laisser les machines inonder nos canaux d'information de prosélytisme et de contrevérités ? Nous devons automatiser tous les travaux, y compris ceux satisfaisants ? Nous devons développer des esprits non humains afin qu'ils puissent éventuellement nous dépasser en nombre et en intelligence, nous rendre obsolètes et nous remplacer ? Nous devons risquer de perdre le contrôle de notre civilisation ? De telles décisions ne doivent pas être déléguées à des leaders technologiques non soutenus. Des systèmes d'IA puissants ne devraient être développés que lorsque nous sommes convaincus que leurs effets seront positifs et que leurs risques seront gérés.. Cette confiance doit être bien justifiée et renforcée par rapport à l'ampleur des conséquences potentielles des systèmes. Une position récente d'OpenAI sur l'intelligence artificielle générative indique qu '«à un moment donné, il peut être important d'avoir un examen indépendant, avant de commencer à former des systèmes à l'avenir, pour des efforts plus avancés, car la limite du taux de croissance du calcul utilisé pour créer nouveaux modèles [d'IA] ». Nous sommes d'accord. C'est maintenant. 

Ainsi, Nous avons conseillé à tous les laboratoires d'intelligence artificielle (IA) de suspendre immédiatement la formation sur les systèmes d'IA plus puissants que GPT-4 pendant au moins six mois. Cette rupture doit être publique et vérifiable, et inclure tous les acteurs clés. Si une telle pause ne peut être réglée rapidement, les gouvernants doivent intervenir et instituer une suspension.

Les laboratoires d'IA et les experts indépendants devraient profiter de cette pause pour développer et mettre en œuvre conjointement une série de protocoles de sécurité partagés pour la conception et le développement d'IA avancées, qui sont rigoureusement audités et vérifiés par des évaluateurs tiers. Ces protocoles doivent garantir que les systèmes régis par ces normes sont sécurisés au-delà de tout doute raisonnable - un exemple est les principes d'IA largement adoptés par l'OCDE, qui exigent que les systèmes d'IA "fonctionnent correctement et ne présentent pas de risques de sécurité non fiables". Ce pas cela signifie une pause dans le développement de l'IA en général, mais simplement une sortie d'une course dangereuse vers des modèles de «boîte noire» imprévisibles, de plus en plus gros et dotés de capacités émergentes.  

La recherche et le développement de l'IA doivent se recentrer sur l'amélioration de la précision, de la sécurité, de l'interprétation, de la transparence, de la robustesse, de l'alignement, de la fiabilité et de la loyauté des puissants systèmes de pointe actuels.

En parallèle, les développeurs d'IA doivent travailler avec les décideurs avec insistance pour accélérer la production de systèmes de gouvernance rigoureux de l'IA. Ils doivent comprendre, au minimum : 

  • de nouvelles autorités de régulation compétentes dédiées à l'intelligence artificielle ;
  • vérification et surveillance de systèmes d'IA très puissants avec une grande contribution en capacité de calcul ; 
  • des systèmes de provenance et de marque pour aider à distinguer les modèles réels des modèles synthétiques d'esprits numériques, ainsi que le suivi des fuites de ces technologies ; 
  • un écosystème de certification et d'audit florissant ; 
  • l'engagement de dommages des systèmes d'IA ;
  • un financement public suffisamment important pour la recherche technique sur la sécurité de l'IA ; C'est
  • des institutions bien financées pour faire face aux graves impacts économiques et politiques causés par les IA (en particulier en ce qui concerne la démocratie). 

L'humanité peut profiter d'un avenir fructueux avec l'IA. Après avoir créé avec succès de puissants systèmes d'IA, nous pouvons désormais célébrer un "été de l'intelligence artificielle", dont nous récoltons les fruits, concevons ces systèmes pour le bénéfice de tous et donnons à la société une chance de s'adapter. La société a "appuyé sur le bouton pause" sur d'autres technologies aux effets potentiellement catastrophiques pour tout le monde, comme le clonage, l'eugénisme et le génie génétique. Nous pouvons faire la même chose ici. Profitons d'un long été d'IA, sans nous précipiter à l'automne.

Voir aussi:

Comment utiliser Midjourney pour créer des images alimentées par l'IA

source: Câble | Tech Crunch | Avenir de la vie | Vice Monde Nouvelles

Revu par Glaucon Vital le 29/3/23.


En savoir plus sur Showmetech

Inscrivez-vous pour recevoir nos dernières actualités par email.

Related posts