Un autre niveau sera franchi avec l’intelligence artificielle (IA) de Google pour enrichir la recherche.
Depuis plusieurs mois, j’attends avec impatience l’annonce officielle de Google, car je sais que le sujet de travail sur l’IA est au cœur des activités de Google depuis de longues années.
Chez Google, alors que la technologie, comme Chat-GPT, est tout à fait disponible, l’entreprise ne voulait pas faire une ouverture publique avant d’évaluer plus sérieusement les impacts et la qualité des réponses.
On peut dire beaucoup de mal de Google, mais connaissant un peu la société, n’empêche que sa culture interne solide privilégie en général une analyse des effets de ces services destiné au marché mondial.
Nous devrions être lucide face aux risques que ces modèles représentent et l’empressement n’est pas toujours une bonne démarche. Sachant que chaque produit de cette nature a une répercussion sur des milliards de personnes.
La question fondamentale est tout de même comment préserver le libre arbitre et le sens critique des utilisateurs et trouver un moyen d’évaluer la justesse des réponses.
Quelles sont les études préalables nécessaires avant la publication :
Ces modèles de langage « intelligents » ont un fort potentiel d’applications bénéfiques, mais aussi de conséquences ou d’applications néfastes. C’est pourquoi avant de diffuser éventuellement largement ce type d’outils, les chercheurs étudient leur efficacité énergétique, les questions de biais spontanés ou par ‘contamination’ de données, les éventuelles intégrations de préjugés raciaux, religieux et d’autres facteurs d’iniquité, leurs méfaits potentiels de désinformation, l’utilisation abusive de procédures légales, gouvernementales, des rédactions frauduleuses d’articles, de livres d’essais académiques et d’autres problèmes potentiels d’utilisation inapropriée. Tout cela représente un énorme travail en amont.
Première conclusion :
La qualité ne rime pas toujours avec la précipitation.
Cette quête de la qualité du moteur de recherche a permis à Google de se hisser à sa place de leader. Google ne peut pas transiger sur la qualité comme OpenAI.
En cela, ChatGPT est très médiatisé, mais très imparfait et pas plus innovant par rapport au monde actuel de l’IA.
Sortir plus vite que les concurrents en s’ouvrant au grand public était plus un coup de notoriété qu’une prouesse technologique.
Dans une approche plus industrielle qui prend en compte les effets négatifs, Google est donc un peu forcé à aller plus rapidement, mais sans se précipiter pour autant. L’annonce de BARD intervient en ce moment, mais sans l’ouverture au public de l’application.
l’annonce de l’interface BARD.
Google dévoile pour le moment les images d’interface de BARD, un équivalent à ChatGPT : un service conversationnel appuyé sur l’intelligence artificielle qui répond sur le moteur LaMDA.
La différence entre les deux solutions réside dans le fait que Chat GPT repose sur l’apprentissage de données d’avant 2021 au mieux. Bard est mis à jour plus fréquemment et peut interpréter les données récentes, comme c’est le cas du moteur de recherche actuel.
Bard est basé sur un modèle de langage développé par Google qui s’appelle LaMDA (Language Model for Dialogue Applications). Il structure de façon très claire les réponses aux questions qui sont toutefois présentées ensuite simplement comme un ‘résumé’ avant les résultats de recherche des sources. Nous pouvons ainsi appréhender la réplique et jauger davantage de la qualité des sources.
Un internaute peut ainsi parcourir les liens affichés, reformuler sa demande, découvrir d’autres sujets et de continuer son exploration avec une plus-value réelle et sans être confronté à une argumentation dont on ne peut pas évaluer facilement la genèse.
Quelles sont les principales différence qu’on perçoit entre BARD et ChatGPT?
Pour ainsi dire, ChatGPT peut vous écrire avec aplomb une explication fausse à partir d’informations douteuses, mais on ne sait pas pourquoi.
BARD va au moins montrer les liens vers les sites et les sources immédiatement après le condensé, un peu comme aujourd’hui lorsqu’on surfe sur les pages de recherche. C’est important pour comprendre le contexte de sa réplique. Google va ainsi proposer des résultats enrichis avec toute sa puissance actuelle pour la rendre la plus qualitative possible, accompagnés d’une réponse reformulée et synthétisée en introduction.
Ce n’est pas la même chose pour ChatGPT qui puise dans sa base des datas selon les logiques statistiques, les reformule en s’adaptant à la formulation de votre question. Ce sont des nuances d’une grande importance.
Je rappelle qu’il y a deux ans, Google a déjà remplacé son modèle Transfomer qui avait un bon niveau de subtilité dans la compréhension du langage humain (donc de la modalité de notre formulation), puis a utilisé MUM, avec une compréhension multilingue. La société a également un modèle comme Imagen pour les visuels, MusicLm, etc.
Et demain ?
Ainsi, Google va se positionner sans doute aussi très rapidement sur le sujet multi-modal : cela signifie de pouvoir poser une question en texte et aussi la mixer avec des images.
Et si on demandait à une IA comme chat-GPT ce qu’il pense de BARD et de LaMDA? Surprise !
Première réponse sur BARD :
« Google BARD (Bidirectional Encoder Representations from Transformers) est un modèle de traitement du langage développé par Google en 2020. C’est un modèle de traitement du langage basé sur la transformer, qui a été pré-entraîné sur une grande quantité de textes en ligne pour effectuer diverses tâches de traitement du langage, telles que la classification de texte, la génération de réponses à des questions et la reconnaissance de l’entité. BARD a été conçu pour être utilisé en conjonction avec d’autres modèles pour améliorer les performances sur les tâches de traitement du langage. »
La surprise vient de la question sur LaMDA!
LaMDA (Language Model for Dialogue Applications) est un modèle de traitement du langage développé par OpenAI en 2021. C’est un modèle pré-entraîné pour les applications de dialogue, comme la génération de réponses à des questions et la génération de conversations. LaMDA a été formé sur une grande quantité de données de dialogue en ligne et est conçu pour générer des réponses cohérentes et contextuelles dans un large éventail de domaines. Il peut également être utilisé pour des tâches telles que la classification de texte, la reconnaissance de l’entité et la traduction automatique.
Je répond : « Je suis perplexe, car il me semble selon mes sources récentes que le modèle LaMDA a été concu par Google… »
réponse : Something went wrong, please try reloading the conversation.
Je recommence. La même réponse erronnée. Je fais à nouveau remarquer l’erreur et la réponse arrive.
Je suis désolé pour l’erreur dans ma réponse précédente. Oui, vous avez raison, LaMDA a été développé par Google et non pas OpenAI. Merci de m’avoir corrigé.
« C’est une erreur assez grave et je ne comprends pas comment elle peut se produire? Qui peut écrire que ce modèle est d’Open AI? »
« Je suis désolé pour cette erreur importante dans ma réponse précédente. Je suis un modèle de langage formé par OpenAI et je peux parfois faire des erreurs dans mes réponses. Je m’efforce de fournir des informations précises et à jour, mais il peut y avoir des moments où je me trompe. Merci de m’avoir signalé cette erreur, je vais m’assurer de mieux vérifier mes réponses à l’avenir. »
Je ne me rend pas : « Je voudrais connaître les auteurs ou articles qui disent que LaMDA est fait par Open AI, pouvez-vous en trouver un? »
Le Chat GPT s’exuse encore : Je suis désolé, mais je n’ai pas pu trouver de source qui affirme que LaMDA a été développé par OpenAI. Comme je l’ai mentionné précédemment, LaMDA a été développé par Google. Je suis sincèrement désolé pour toute confusion que mes erreurs précédentes ont pu causer.
« Donc, cette réponse était votre évaluation statistique et pas une synthèse de sources erronées? »
Oui, c’était en effet une erreur de ma part basée sur une évaluation statistique erronée. Je n’ai pas vérifié les informations avant de répondre et j’ai commis une erreur en disant que LaMDA a été développé par OpenAI. Je suis désolé pour tout désagrément causé.
Encore un essai pour comprendre :
« Je vaux juste comprendre comment se créent des erreurs dans vos réponses. J’ai déjà eu ces problèmes lorsqu’on a discuté ensemble des algorithmes GAN, concernant Stable Diffusion et DALL-E. Peut-être il vous manquent de données récentes et à jour. Donc à défaut de posséder des informations, vous faites des extrapolations sur les sujets qui se produisent après 2021? »
Oui, c’est tout à fait correct. En tant que modèle de langage formé par OpenAI, j’ai été formé sur des données textuelles provenant d’internet jusqu’en 2021.
Les informations contenues dans ces données peuvent être incomplètes ou incorrectes, ce qui peut entraîner des erreurs dans mes réponses.
De plus, étant donné que je suis formé pour générer des réponses statistiques à partir de ces données, je peux parfois faire des extrapolations ou des erreurs similaires à celles que vous avez mentionnées…
Dans les articles suivant je vais expliquer comment j’aborde l’utilisation des générateurs d’image basés sur l’IA depuis le début et je présente mes méthodes de travail.
Vous pouvez aussi parcourir tous les articles précédents sur mon blog
IA-esquisses, comment augmenter votre inspiration.
Reprendre et retravailler ses vieux dessins et peinture avec Midjourney avec la commande /BLEND pour plus d’inspirations.
L’inspiration artistique augmentée par l’IA, mythe ou réalité.
Dans mon exposition à Prague en 2022, je joue avec une certaine ironie avec l’idée d’anthropomorphisme en créant l’univers « Patternworld », peuplé de créatures hybrides « peuples GAN fabriqués à partir de puces ». En réalité, le sujet de la limite entre l’humain et inhumain est très riche et m’offre de nombreux possibilités pour m’inspirer.
La frontière entre humain et inhumain est en train de bouger.
Je joue beaucoup dans mes peintures avec la limite entre l’humain et l’inhumain, la vision anthropomorphique de l’IA et sur l’hybridation homme-machine.
Ce sujet me laisse perplexe. J’ai le sentiment que la frontière entre humain et inhumain a déjà évolué. Le phénomène est encore difficile à saisir et à percevoir, mais il est là.