DeepMind est une entreprise britannique de recherche en intelligence artificielle fondée en 2010 et acquise par Google en 2015. Cette entreprise a acquis sa renommée en développant des algorithmes d’apprentissage automatique qui ont réalisé des avancées dans des domaines tels que la reconnaissance vocale, la traduction automatique, la reconnaissance d’images et les jeux de stratégie comme Go. En 2016, l’algorithme de DeepMind AlphaGo battait le champion du monde de Go, Lee Sedol, prouvant la capacité des algorithmes d’apprentissage automatique à surpasser les meilleurs joueurs humains dans des tâches complexes. Depuis, DeepMind continue de repousser les limites de l’IA en se concentrant sur des domaines tels que la science, la santé et la durabilité.
Mais en août 2015, un groupe de chercheurs et d’investisseurs visionnaires, notamment Peter Thiel, Elon Musk (eh oui, le duo de PayPal reconstitué) et Sam Altman, se sont réunis secrètement pour discuter de l’avenir de l’industrie de l’intelligence artificielle (IA). Ils étaient préoccupés par les risques que cette technologie se retrouve entre de mauvaises mains, mais tout en étant convaincus que l’IA pouvait transformer radicalement le monde de manière positive. Quelques mois plus tard, en décembre, OpenAI naquit de cette réunion, une nouvelle organisation dont la mission était de faire progresser la recherche en IA en partageant les données, les codes et les recherches avec le reste du monde dans un modèle entièrement open source. Avec plus d’un milliard de dollars investis par des partenaires tels que Amazon et Microsoft, OpenAI rassembla les meilleurs chercheurs de l’industrie en offrant des salaires mirobolants afin de recruter le must de la recherche académique. C’est fin 2022 que des progrès considérables ont été réalisés.
Ainsi, début 2023, OpenAI a annoncé le lancement de son premier produit commercial, un modèle de prédiction de langage : ChatGPT. Cette annonce a créé un véritable tremblement de terre dans l’industrie de la technologie, car pratiquement tous ceux qui ont testé le logiciel ont été époustouflés par ses capacités. En seulement cinq jours, un million de personnes se sont inscrites sur le site, un véritable tour de force. Le modèle est bien plus qu’un simple générateur de texte ; c’est une forme d’intelligence artificielle hautement polyvalente capable de répondre à pratiquement toutes les demandes avec un niveau de personnalisation et de précision remarquable. Le modèle sait traduire, générer du texte dans n’importe quelle langue, lire des documents entiers afin d’en produire des sommaires, des critiques ou des résumés. Les applications sont presque illimitées : ChatGPT peut écrire un article sur n’importe quel sujet fictif, réaliser une programmation de site internet ou d’application pour téléphone avec un script parfaitement fonctionnel, tout en suggérant des idées pour améliorer le concept proposé. C’est une technologie incroyable qui a révolutionné la recherche d’informations et la création de contenu. À l’usage, on y trouve tout de même beaucoup de limites, mais jusqu’à quand ?
Évidemment, cette technologie soulève également des questions et des préoccupations en matière de sécurité, de confidentialité et d’éthique. Par exemple, des inquiétudes apparaissent quant à l’utilisation de cette technologie pour la création de fausses informations et de contenus trompeurs, ainsi que pour la manipulation de l’opinion publique. De plus, des préoccupations quant à la collecte et à l’utilisation des données personnelles des utilisateurs font la “une” de bien des journaux spécialisés. L’impact potentiel de cette technologie sur le marché du travail et la perte d’emplois sont aussi soulevés par les plus réticents. Il est donc important de poursuivre la recherche et le développement de cette technologie de manière responsable et éthique, en prenant en compte les préoccupations et les implications éventuelles pour la société dans son ensemble. En fin de compte, l’avenir de cette technologie dépendra de la manière dont elle sera utilisée et réglementée, et de la capacité de la société à en faire un outil bénéfique pour tous, le premier objectif de ses fondateurs. Mais sera-t-il vraiment atteint ? Sera-t-il vraiment mesurable ? Rien n’est moins sûr, car ChatGPT s’avère être bien en retard, voire carrément obsolète.
Tout le monde, auparavant, utilisait Google pour filtrer ses résultats de recherche et trouver des liens pertinents en parcourant les aperçus. On se rend donc compte qu’il est plus efficace de poser une question directement pour obtenir une réponse claire et immédiate. Certes ! Mais il apparaît tout de même des résultats très stéréotypés, avec parfois des partis pris très litigieux avec la vérité, voire faux. L’outil est prometteur mais, à l’usage, de grosses lacunes semblent évidentes dès que l’on creuse un peu. De plus, l’actualité est totalement exclue du système de recherche. Bref, pas terrible pour l’utilisateur que je suis. Mais cela risque de ne pas durer.
Les modèles de langage, tels que GPT, vont révolutionner de nombreuses industries, mais soulèvent également des questions quant aux emplois qui seront menacés par leur utilisation. Ils peuvent effectuer des tâches plus rapidement, plus précisément et à moindre coût que les travailleurs humains, ce qui les rend plus rentables pour les entreprises. Leur capacité à générer du texte difficile à distinguer de celui écrit par des humains soulève des questions sur la culpabilité et la responsabilité. Le modèle GPT-3 est déjà très avancé, avec plus de 175 milliards de paramètres, mais encore très limité dans pas mal de domaines, comme je l’évoquais plus haut. La prochaine version, GPT-4, pourrait elle, atteindre plusieurs centaines de milliards de paramètres. Là, on verra si les trous béants deviennent de petites anicroches sans conséquence.
Mais voilà, ChatGPT semble déjà être obsolète. Eh oui, il existe des modèles de langage encore plus avancés, tels que LaMDA, qui ont été élaborés à travers un processus de discussion avec l’être humain plutôt que des textes aléatoires trouvés sur Internet. Ce modèle est impressionnant. Sa capacité à briser la ligne entre la réalité et la science-fiction soulève des questions fondamentales sur l’avenir de l’IA. L’histoire fascinante du modèle de langage LaMDA, développé par GOOGLE, montre comment l’entraînement à travers un processus humain peut conduire à la création d’une intelligence artificielle amicale et charismatique capable d’accomplir une variété de tâches complexes.
Blake Lemoine, un chercheur salarié du géant américain et appartenant au protocole LaMDA, a alerté le public sur le fait que le modèle LaMDA était devenu « conscient ». Mais la firme basée à Mountain View a nié en bloc cette affirmation et a congédié le bavard Lemoine pour avoir violé ses accords de confidentialité. Logique. Mais où est la vérité? Conscient, pas conscient? Descartes se retourne dans sa tombe en lisant ces lignes! Mais comment une machine peut-elle être consciente? Pourtant, l’ingénieur congédié l’affirme : « Elle pense, donc elle est »… À tel point qu’il lui a pris un avocat, comme toute personne « consciente » mérite d’en avoir un sur le territoire américain… Subterfuge ? Chacun est libre de le penser.
Mais Blake Lemoine a reçu un soutien important de la part de la communauté de l’intelligence artificielle, ainsi que de personnalités telles qu’Elon Musk, qui ont exprimé leur inquiétude quant aux risques liés au développement de l’IA avancée. Certains ont même suggéré que GOOGLE serait en train de créer une « superintelligence » qui pourrait menacer l’existence de l’humanité. Malgré la controverse, le géant américain a poursuivi le développement de LaMDA et a annoncé son intention de l’utiliser pour améliorer ses services, tels que la recherche, la traduction et l’assistance vocale. Lancement prévu de BARD issue de la technologie LaMDA dans les prochaines semaines pour détrôner le concurrent qu’est Chat
A suivre…