- Google a lancé Gemini 2.0, ce qui en fait un pas de plus vers la création d’un assistant personnel universel.
- Un ancien concepteur de conversation Gemini a parlé des meilleures pratiques en matière de conception de chatbot.
- Il a déclaré que les produits d’IA de Google et son moteur de recherche rencontraient des problèmes d’auto-cannibalisation.
Google a lancé cette semaine son modèle Gemini 2.0, promettant une IA plus « agentique » pour rapprocher les gens d’une version d’assistant personnel universel.
Lorsque Google a lancé Gemini 1.0 en décembre dernier, il cherchait à rivaliser avec ChatGPT d’OpenAI. Gemini a rapidement changé la façon dont les utilisateurs percevaient Google lui-même, passant de la fourniture d’un aperçu des résultats des moteurs de recherche au produit NotebookLM, qui peut convertir des notes écrites en podcast parlé. Sa version 2.0 a des fonctions telles que « Deep Research », où Gemini peut parcourir le Web à la recherche d’informations et préparer des rapports.
Alors que les assistants IA deviennent de plus en plus humains dans leur prestation, les ingénieurs et les concepteurs qui les construisent doivent aborder les questions de responsabilité et de ton. Par exemple, certains chatbots IA peuvent refuser de donner des réponses sur des sujets potentiellement sensibles.
Business Insider s’est entretenu avec Kento Morita, ancien concepteur de conversations Google Gemini et acteur et comédien américano-japonais.
Morita a précédemment travaillé sur la conception de flux de conversation pour Amazon Alexa et Google Gemini, en se concentrant spécifiquement sur la création d’un personnage japonais pour l’IA. Il a donné un aperçu de la manière dont les concepteurs de chatbots IA envisagent de fournir efficacement des informations aux utilisateurs et du défi que Google doit relever pour équilibrer son moteur de recherche et ses produits IA.
Ce qui suit a été modifié pour plus de longueur et de clarté.
Business Insider : Comment les « tonalités » sont-elles conçues pour les sujets sensibles pour l’IA ?
Kento Morita : Chaque fois que nous recevons une question potentiellement sensible, elle passe par une sorte de liste de contrôle du type : est-ce de nature politique ? Est-ce de nature sexuelle ? Cela génère-t-il quelque chose de contrefactuel, et quand ? Lorsque la réponse est oui, un processus est suivi pour s’assurer qu’au final, toutes ces entreprises ont leur logo à côté de la réponse qu’elles fournissent. Un peu comme la règle empirique de Warren Buffett, nous devrions être heureux de voir cela à la une du New York Times ou du Washington Post le lendemain, et nous devrions en être fiers.
La plus grande question à laquelle nous devons répondre est la suivante : associer Google, ChatGPT ou n’importe qui à cette réponse est-il productif pour leurs résultats ?
Si ce n’est pas le cas, nous faisons ce qu’on appelle du punting. Nous donnons simplement un : désolé, je ne peux pas vous aider avec ce genre de réponse maintenant. C’est un exercice d’équilibre. Il y a des sujets que nous ne voulons même pas aborder avec une perche de dix pieds, mais il y a des choses auxquelles nous voulons donner des réponses, comme, par exemple, la couverture des soirées électorales – tout le monde va se demander ce qui se passe.
Nous voulons nous assurer que répondre à davantage de questions permet à davantage de personnes de rester sur notre site Web. Il y a toujours une tension dans ces entreprises qui veulent répondre à autant de questions que possible, ce que n’importe lequel de ces LLM peut faire, mais elle doit également être contrebalancée par la question de savoir si cela créera une presse plus négative ou fournira-t-il des réponses potentiellement dangereuses. ? Nous discutons beaucoup avec l’équipe juridique, avec l’équipe marketing, avec les commerciaux. C’est une conversation permanente sur la façon dont nous voulons aborder cette question.
La question est toujours de savoir quoi donner la priorité.
C’est aussi un problème de cannibalisation d’un marché.
L’un des produits les plus importants de Google est la recherche. Lorsque vous fournissez Gemini, qu’est-ce que cela signifie pour le secteur de la recherche ? C’est une question existentielle permanente.
Pour des entreprises comme Google, des entreprises comme Perplexity AI peuvent en fait avoir un avantage ici, je dirais, car elles sont là pour créer un produit et le réaliser très bien. En réalité, ils ne rencontrent pas de problèmes d’auto-cannibalisation. Je pense que des choses vraiment intéressantes et vraiment audacieuses se produisent de la part d’entreprises qui ne sont pas associées à un grand conglomérat. Je pense que c’est tout à fait naturel.
Google a transféré Gemini sous l’organisation DeepMind. Je ne sais vraiment pas pourquoi ils ont fait cela, mais en tant que [former] employé et également une personne qui suit Google depuis longtemps, il est intéressant de constater qu’ils consolident de nombreuses activités d’IA au sein d’une seule organisation, en particulier à la lumière du procès antitrust qui se déroule actuellement autour de Google et de la conversation qu’ils ont Nous avons des discussions avec le ministère de la Justice sur la question de savoir s’il faut ou non diviser Google. À tout le moins, s’ils le divisent, je pense qu’ils auront une conversation sur la façon dont cette répartition aura du sens. Et je pense que le fait que Gemini fasse partie d’une organisation d’IA plutôt que d’une organisation de recherche a du sens.
Nous avons l’habitude d’utiliser la recherche Google avec des annonces en haut. Maintenant c’est Gémeaux. Ce n’est pas le résultat factuel le plus à jour, mais c’est un changement.
L’équipe de recherche Google est composée d’ingénieurs brillants. Leur objectif de North Star est de fournir des résultats de recherche pertinents et précis, et cela a toujours été leur objectif. Et puis maintenant, vous entrez des annonces. Vous entrez maintenant dans les résultats de Google Shopping. Ensuite, vous amenez les Gémeaux. Tous ces autres facteurs au sein de l’organisation empiètent sur la conception du site Web Google.com.
Je ne serais pas surpris si beaucoup d’ingénieurs et de personnes qui travaillent sur la recherche Google depuis le plus longtemps sont très frustrés. Cela étant dit, je ne serais pas non plus surpris s’ils acceptaient l’idée de rompre l’entreprise pour leur permettre de se concentrer sur ce qui les passionne, à savoir fournir de bons résultats de recherche.
Pouvez-vous me parler de l’histoire de ajouter des notes de bas de page aux chatbots et si c’était une décision délibérée ? Comment les hallucinations ont-elles changé la façon dont les chatbots réagissent désormais ?
Même avec Google Assistant et Amazon Alexa, lorsque vous lui posiez une question factuelle, il disait immédiatement, selon Wikipédia, bla bla bla, ou selon XYZ, bla bla bla bla. À l’époque, c’était assez difficile de convaincre les gens que c’était une bonne idée. Et la raison en est que, d’un point de vue conversationnel, lorsque vous demandez à quelqu’un, hé, quand XYZ a-t-il été inventé ? Vous ne voulez pas vraiment savoir que XYZ a été inventé, selon Wikipédia en 1947. Vous voulez juste entendre la réponse. Arriver rapidement à la réponse est considéré comme une vertu en matière de conception. Google a consacré beaucoup de - et d’efforts à essayer de réduire au maximum le - d’affichage des résultats de recherche. Il est donc dans l’ADN de Google d’obtenir la réponse au client le plus rapidement possible.
Nous avons dû préconiser des notes de bas de page. Ce qui les a vraiment convaincus, c’est cette idée selon laquelle dès que vous attribuez un site Web, vous pouvez vous soustraire à la responsabilité de l’exactitude de cette information auprès d’un autre site Web.
Donc, quand je dis, selon Wikipédia XYZ, je ne suis plus responsable de savoir si ce que je dis est correct ou non. Je pourrais simplement me soustraire à cette responsabilité envers Wikipédia. Et quand les gens ont commencé à poser des questions sensibles sur l’antisémitisme ou sur les théories du complot et ainsi de suite, pouvoir dire, selon XYZ, cela semble être le cas, nous permet de nous distancier de cette affirmation, qui est très, très utile. quand on parle de l’image de marque de Google.
Lorsque vous avez quelque chose intitulé Google Assistant, indiquant que c’est ce qui s’est passé, vous ne pouvez pas vous empêcher d’associer Google à tout ce dont vous parlez. Ce genre de langage éloigné nous permet donc d’assumer moins de responsabilité quant aux informations présentées. Je pense donc que cette philosophie a perduré et que ce genre d’argument a été très utile pour convaincre les gens de ces entreprises de citer nos sources. Comme Perplexity AI, parce qu’il est si explicite dans ses notes de bas de page, ils ont en fait plus de liberté pour parler de sujets plus controversés.
Ils n’ont pas besoin d’éditorialiser quoi que ce soit, ce qui constitue un énorme avantage lorsqu’il s’agit de sujets controversés et de sujets sensibles.
L’explicabilité est quelque chose dont on parle beaucoup dans l’espace LLM. Pour beaucoup de gens, les LLM ressemblent à une boîte noire, comme si vous tapiez du texte et qu’elle crache du texte. Mais en fin de compte, c’est un moteur de prédiction. Ajouter des garde-fous, éditorialiser, concevoir du contenu autour de cette boîte noire qu’est un moteur de prédiction a été très, très important, en particulier autour des informations sensibles.
Lorsque Google Gemini et d’autres IA citent des sources, est-ce toujours une machine prédictive ?
Il y a ce truc appelé RAG (génération augmentée de récupération). Je pense que ce qu’ils font, c’est indexer plus haut les sources comme AP News et Reuters pour biaiser ces sources et les informations contenues dans ces sources plus haut. Lorsque le LLM leur extrait plus d’informations, il existe un mécanisme d’attribution en arrière-plan qui leur permet de dire : « Nous utilisons RAG pour appeler Reuters ou AP News afin de récupérer leurs informations. » Je ne pense pas que ce soit prédictif. C’est beaucoup plus codé en dur.
Pour certains sujets, comme l’avortement, les chatbots IA adoptent un ton bienveillant, comme demander : « Avez-vous des inquiétudes ? C’est un changement de ton important.
C’est l’une des choses les plus importantes dans lesquelles je suis très fier de participer. Lors du développement de Google Assistant, quels que soient les mots sur le suicide ou l’automutilation, nous avons discuté avec des professionnels de la santé mentale et des personnes qui offrent ces services et leur avons demandé , si nous pouvions fournir aux utilisateurs un numéro de cette hotline, le n°1, cela serait-il utile ? N°2, quelle est la meilleure langue pour faire ça ? Nous avons pris un réel soin à parler à toutes ces ressources.
Pour ma part, j’ai parlé à des ressources japonaises et à des fournisseurs de hotline japonais, et nous avons traduit ces messages. Cela a pris beaucoup de -, mais nous essayions de nous assurer que tout utilisateur, même ceux qui envisagent de s’automutiler, obtienne la meilleure information possible.
Lorsqu’il s’agit d’avortement, cela s’inscrit dans le même cadre de stratégie, de stratégie de contenu : comment pouvons-nous nous assurer que les personnes qui recherchent l’avortement, comment pouvons-nous nous assurer qu’elles obtiennent l’information d’une manière qui est sûre et qui, en fin de compte, les aide à vivre la vie qu’ils veulent ? Lorsque j’étais chez Google, nous avons pu remplir notre mission, qui est de rassembler les informations du monde et de les rendre aussi utiles et accessibles que possible à tous.
A terme, la démocratisation de ces moteurs va se produire. Chaque entreprise aura éventuellement un LLM assez décent dans 5 à 10 ans. La différence entre vouloir aller sur X ou ChatGPT ou Google ou Alexa ou autre, la différence sera dans l’emballage.
Plus ces entreprises technologiques commenceront à traiter les humains comme des humains et à faire parler les robots de manière humaine, je pense que ce seront celles qui connaîtront le plus de succès à long terme.
Related News :