Qu'attendre de l'intelligence artificielle en 2023 ?. L'intelligence artificielle a été un sujet brûlant partout sur Internet. L'outil utilisé pour collecter des informations générales que les humains déposent sur Internet est extrêmement utilisé dans plusieurs domaines de notre vie. Récemment, la création de différentes choses est la plus courante d'entre elles, comme la création d'images, de textes, de vidéos et bien plus encore. Mais qu'adviendra-t-il de l'intelligence artificielle en 2023 ? De nombreuses discussions allant de la copie d'artiste à l'innovation technologique tournent autour de ce sujet, et cela devrait être quelque chose dans cette idée que nous devrions voir l'année prochaine.

Qu'attendre de l'Intelligence Artificielle en 2023 ?

Avatar de Lucas Gomes

A Intelligence Artificielle Cela a été un sujet brûlant partout sur Internet. L'outil utilisé pour collecter des informations générales que les humains déposent sur Internet est extrêmement utilisé dans plusieurs domaines de notre vie. Récemment, la création de différentes choses est la plus courante d'entre elles, comme la création d'images, de textes, de vidéos et bien plus encore. Mais qu'adviendra-t-il de l'Intelligence Artificielle dans 2023? De nombreuses discussions allant de la copie d'artiste à l'innovation technologique tournent autour de ce sujet, et cela devrait être quelque chose dans cette idée que nous devrions voir l'année prochaine.

Problèmes de création d'illustrations via l'IA

Avec le succès de Lentille, l'application selfie alimentée par l'IA de Laboratoires Prisma qui est devenu viral, vous pouvez également vous attendre à de nombreuses applications dans ce sens. Et attendez-vous à ce qu'ils puissent également être amenés à créer des images. NSFW - images inappropriées au travail, souvent liées au contenu de nudité - et sexualisation et modification disproportionnées de l'apparence des femmes, une tentative de minimiser l'utilisation abusive potentielle de l'outil, plus que cela ne se produit déjà.

Maximilien Gahntz, chercheur principal en politiques à la Fondation Mozilla, a déclaré qu'il espère que l'intégration de l'IA qui construit des choses dans la technologie grand public amplifiera les effets de ces systèmes de "défense", à la fois bons et mauvais. LE Diffusion stable, par exemple, a été alimenté par des milliards d'images sur Internet jusqu'à ce qu'il "apprenne" à associer certains mots et concepts à certaines images. Les modèles de génération de texte ont été facilement manipulés pour les empêcher de produire du contenu qui prône des visions offensive ou produire fausses nouvelles.

Qu'attendre de l'intelligence artificielle en 2023 ?
Maximilian Gahntz, chercheur principal en politique à la Fondation Mozilla. Image: Stiftung Mercator

Mike Cook, membre du groupe de recherche ouvert Knives and Paintbrushes, est d'accord avec Gahntz lorsqu'il dit que l'intelligence artificielle créative continuera de s'avérer une force de changement majeure – et malheureusement proportionnellement problématique. Mais il pense que 2023 devrait être l'année où l'intelligence artificielle qui crée les choses « sera enfin à la hauteur de l'argent en jeu ».

Il ne suffit pas de motiver une communauté d'experts [pour créer de nouvelles technologies] - pour que la technologie fasse partie de nos vies à long terme, elle doit soit rapporter beaucoup d'argent à quelqu'un, soit avoir un impact significatif sur la vie quotidienne des grand public. Je prédis donc que nous verrons une poussée sérieuse pour que l'IA générative réalise réellement l'une de ces deux choses, avec un succès mitigé.

Mike Cook, membre du groupe de recherche ouvert Knives and Paintbrushes sur ses prédictions pour l'utilisation des créations d'intelligence artificielle jusqu'en 2023

Les artistes tentent de revendiquer leurs droits

O DeviantArt a publié un générateur d'art AI intégré Diffusion stable et ajusté avec les arts publiés par les utilisateurs de la plate-forme. Le générateur d'art a rencontré une forte désapprobation de la part des anciens utilisateurs de DeviantArt, qui ont critiqué le manque de transparence de la plate-forme dans l'utilisation de leur art téléchargé pour former le système.

IA, technologie, intelligence artificielle, innovation, tendances 2023.
L'Intelligence Artificielle en 2023 s'imagine déjà. Image: Analytics India Magazine

Les créateurs des systèmes les plus populaires — OpenAI e IA de stabilité – déclarent avoir pris des mesures pour limiter la quantité de contenu préjudiciable produit par leurs systèmes. Mais à en juger par de nombreuses générations sur les réseaux sociaux, il est clair qu'il y a du travail à faire - et beaucoup, soit dit en passant.

Maximilien Gahntz, compare le processus de création artistique via l'intelligence artificielle aux controverses en cours sur la modération du contenu sur les réseaux sociaux. Le chercheur déclare que les ensembles de données nécessitent une conservation active pour résoudre ces problèmes, y compris les communautés qui ont tendance à ne consommer qu'une petite partie de ce contenu.

OpenAI, Stability AI et questions juridiques

Stability AI, qui finance en grande partie le développement de Stable Diffusion, a récemment cédé à la pression du public en signalant qu'il permettrait aux artistes de se retirer de l'ensemble de données utilisé pour former le modèle. Diffusion stable dans la prochaine génération. Par le biais d'un site internet, les titulaires des droits sur leurs œuvres pourront demander des annulations avant le début de la formation qui sera appliquée aux outils.

OpenAI, en revanche, n'offre pas ce mécanisme d'exclusion, préférant s'associer à des organisations telles que Shutterstock pour autoriser des parties de vos galeries d'images. Mais étant donné le contrecoup juridique et publicitaire auquel il est confronté aux côtés de Stability AI, ce n'est probablement qu'une question de temps avant qu'il ne suive l'exemple de son frère du marché.

Images de logos provenant de Shutterstock et d'OpenAI.
Image : PR Newswire

Et dans le sens juridique de la chose, vous pouvez également voir un certain mouvement. Aux États-Unis, le Microsoft, GitHub et - regardez-la encore ici - le OpenAI sont poursuivis dans le cadre d'un recours collectif les accusant d'avoir enfreint la loi sur le droit d'auteur en autorisant le Copilote, un service GitHub qui suggère intelligemment des lignes de code, d'une manière ou d'une autre - payantes, gratuites ou par n'importe quel moyen - fournit des sections de code sous licence sans fournir de crédit approprié.

Peut-être pour éviter d'autres complications juridiques, GitHub a récemment ajouté des paramètres pour empêcher le code public d'apparaître dans les suggestions Copilot, ainsi que des plans pour introduire une fonctionnalité qui fera référence à la source des suggestions de code. Mais ce sont des mesures qui n'ont pas encore été sérieusement testées pour être mises en service.

Solutions de systèmes ouverts

2022 a vu une poignée d'entreprises d'IA dominer la scène, notamment OpenAI et IA de stabilité. Mais les choses pourraient finir par revenir à l'open source en 2023, car la capacité à construire de nouveaux systèmes va au-delà "Laboratoires d'IA puissants et riches en fonctionnalités", comme j'ai dit Maximilian Gahntz.

Portrait artistique d'une femme intégrant des éléments d'IA, de technologie et de nature, promouvant l'innovation visuelle à l'ère numérique.
Image: Analytics India Magazine

Une approche communautaire peut conduire à une surveillance accrue des systèmes au fur et à mesure de leur construction et de leur déploiement. Gahntz poursuit en disant que si les modèles sont ouverts et si les ensembles de données sont également ouverts, cela permettra une recherche beaucoup plus critique qui a mis en évidence de nombreux défauts et dommages liés à la création par l'intelligence artificielle, et cela est souvent très difficile à conduire.

Des exemples d'efforts axés sur la communauté comprennent de grands modèles linguistiques du Eleuther IA et GrandeScience, un travail soutenu par la startup d'intelligence artificielle Hugging Face. Stability AI finance diverses communautés telles que Harmonaï e OuvrirBioML, axé sur la production de musique, en plus d'être une collection gratuite d'expériences biotechnologiques.

Prédictions en matière d'intelligence artificielle pour 2023, innovation en IA, avenir technologique.
Image : GitHub

L'argent et l'expertise sont encore nécessaires pour former et exécuter des modèles d'intelligence artificielle sophistiqués, mais l'informatique décentralisée pourrait défier les serveurs qui regroupent les informations de manière plus traditionnelle à mesure que les efforts open source deviennent de plus en plus matures.

BigScience a fait un pas en avant en permettant le développement décentralisé avec le lancement récent du projet open source Petals. O Pétales il permet aux utilisateurs d'apporter leur puissance de calcul pour exécuter de grands modèles de langage d'intelligence artificielle qui nécessitent généralement un GPU ou un serveur de meilleure qualité que d'habitude.

Les modèles génératifs modernes sont coûteux en calculs à former et à exécuter. Certaines estimations approximatives évaluent les dépenses quotidiennes de ChatGPT à environ 3 millions de dollars. Pour rendre cela commercialement viable et plus largement accessible, il sera important de régler ce problème.

Chandra Bhagavatula, Senior Fellow à l'Allen Institute for AI sur l'investissement dans la voie ouverte de l'intelligence artificielle
Technologie, intelligence artificielle, événementiel, innovation, showmetech.
De gauche à droite : Vincent Conitzer, coprésident du programme de la conférence, Ronan Le Bras, Yejin Choi, Chandra Bhagavatula, Keisuke Sakaguchi et Fei Sha, coprésident du programme de la conférence. Image: Nouvelles de l'école Allen

Chandra Bhagavatula souligne toutefois que les grands laboratoires continueront à disposer d'avantages concurrentiels tant que les méthodes et les données resteront propriétaires. Dans un exemple récent, OpenAI a publié le Point E, un modèle capable de générer des objets 3D à partir d'une invite de texte. Cependant, même si OpenAI a ouvert le modèle, il n'a pas divulgué les sources des données de formation Point-E ni publié ces données.

Je pense que les efforts de l'open source et les efforts de décentralisation en valent la peine et profitent à un plus large éventail de chercheurs, de praticiens et d'utilisateurs. Cependant, bien qu'ils soient open source, les meilleurs modèles sont encore inaccessibles à un grand nombre de chercheurs et de praticiens en raison de leurs contraintes de ressources.

Chandra suit son raisonnement

Premiers pas vers une réglementation

Des réglementations telles que Loi de l'Union européenne sur l'intelligence artificielle pourrait changer la façon dont les entreprises développent et déploient des systèmes d'IA à l'avenir. Il en va de même pour les efforts plus locaux, comme la loi sur l'embauche d'IA de New York, qui exige que la technologie basée sur les algorithmes et l'IA pour le recrutement, l'embauche ou la promotion soit auditée avant qu'elle ne soit réellement utilisée.

Chandra Bhagavatula considère ces réglementations comme nécessaires, en particulier à la lumière des défauts techniques de plus en plus apparents de la technologie de l'intelligence artificielle du créateur, comme sa tendance à divulguer des informations potentiellement trompeuses.

Qu'attendre de l'intelligence artificielle en 2023 ?
Loi de l'Union européenne sur l'intelligence artificielle. Image : Tru Era

Cela rend l'IA générative difficile à appliquer dans de nombreux domaines où les erreurs peuvent être très coûteuses - par exemple, les soins de santé. De plus, la facilité de générer de la désinformation crée des défis concernant la désinformation et la mésinformation. Et pourtant, les systèmes d'IA prennent déjà des décisions chargées d'implications morales et éthiques.

Chandra Bhagavatula, chercheur principal à l'Allen Institute for AI, à la recherche de solutions pour la prochaine génération d'intelligence artificielle

Cependant, l'année prochaine n'apportera que la menace d'une réglementation. En ce sens, nous pouvons nous attendre à beaucoup plus de discussions sur les règles et les processus judiciaires avant que quiconque ne soit condamné à une amende ou inculpé – et à juste titre. Mais les entreprises peuvent encore concourir pour des postes dans les catégories les plus avantageuses des prochaines lois, telles que les catégories à risque de la Loi sur l'intelligence artificielle.

La règle, telle qu'elle est actuellement rédigée, divise les systèmes d'IA en l'une des quatre catégories de risque, chacune avec des exigences et des niveaux différents. Systèmes dans la catégorie de risque la plus élevée, Intelligence Artificielle de «haute falaise» – par exemple, les algorithmes de notation de crédit, les applications de chirurgie robotique et autres contenant des données sensibles – doivent respecter certaines normes juridiques, éthiques et techniques avant d'être autorisés à entrer sur le marché européen.

Pratiques d'IA interdites et risques acceptables en matière d'innovation technologique.
Pyramide affichant un risque inacceptable, un risque élevé, une richesse limitée et un risque faible ou minimal. Image : Epthinktank

La catégorie de risque la plus faible, l'Intelligence Artificielle de "risque minime ou aucun risque" - par exemple, les filtres anti-spam, les jeux vidéo compatibles avec l'IA et d'autres qui ne contiennent pas de données aussi sensibles - n'imposent que des obligations de transparence, telles que faire savoir aux utilisateurs qu'ils interagissent avec un système d'intelligence artificielle.

Les Keyes, doctorant à l'Université de Washington, s'est dit préoccupé par le fait que les entreprises recherchent le niveau de risque le plus bas afin de minimiser leur propre responsabilité et leur visibilité auprès des régulateurs. "Cette préoccupation mise à part, cette question de la réglementation de l'IA est vraiment la chose la plus positive que je vois sur la table. Je n'ai pas vu grand-chose en dehors du Congrès", ça dit Os.

Et qu'en est-il de l'économie ?

Maximilian Gahntz soutient que même si un système d'Intelligence Artificielle fonctionne assez bien pour la plupart des gens, il est profondément nuisible pour d'autres, il reste encore beaucoup de travail à faire avant qu'une entreprise ne le rende largement disponible.

Illustration de l'IA avec des éléments de technologie, de cerveau et d'innovation.
Image: L'Atlantique

On ne sait pas si les entreprises seront convaincues par cet argument l'année prochaine - et qui sait pour les années à venir - principalement parce que les investisseurs semblent désireux de placer leur argent au-delà de toute IA générative prometteuse.

Au milieu des controverses sur la diffusion stable, Stability AI a soulevé 101 millions de dollars dans une évaluation de plus de 1 milliard de dollars de sponsors, dont certains noms bien connus dans le domaine comme Manteau e Lightspeed Venture Partners. Il a également été rapporté qu'OpenAI est évalué à 20 milliards de dollars en entamant des négociations avancées pour lever davantage de fonds auprès de Microsoft — rappelant qu'en 2019 le Microsoft a investi 1 milliard de dollars dans OpenAI en 2019.

Et vous, comment pensez-vous que l'intelligence artificielle se comportera l'année prochaine ? Dites le nous dans les commentaires!

Voir aussi:

l'artiste utilise L'IA pour parler à votre enfant intérieur.

source: TechCrunch.


En savoir plus sur Showmetech

Inscrivez-vous pour recevoir nos dernières actualités par email.

Related posts