SAN FRANCISCO/NEW YORK (Reuters) – Ilya Sutskever, ancien scientifique en chef d'OpenAI, a lancé une nouvelle société appelée Safe Superintelligence (SSI), visant à développer des systèmes d'intelligence artificielle sûrs qui dépassent de loin les capacités humaines.
Lui et ses cofondateurs ont présenté leurs plans pour la startup dans une interview exclusive accordée à Reuters cette semaine.
Sutskever, 37 ans, est l’un des technologues les plus influents dans le domaine de l’IA. Il a été formé auprès de Geoffrey Hinton, connu comme le « Parrain de l’IA ». Sutskever a été l’un des premiers à défendre l’idée de la mise à l’échelle – l’idée selon laquelle les performances de l’IA s’améliorent avec une grande quantité de puissance de calcul – ce qui a jeté les bases des avancées de l’IA générative comme ChatGPT. SSI abordera la mise à l’échelle différemment d’OpenAI, a-t-il déclaré.
Voici quelques extraits de l’entretien.
LA RAISON DE LA CRÉATION DE SSI
« Nous avons identifié une montagne qui est un peu différente de celle sur laquelle je travaillais [on]…une fois que vous aurez atteint le sommet de cette montagne, le paradigme changera… Tout ce que nous savons sur l’IA changera à nouveau. À ce moment-là, le travail le plus important en matière de sécurité de la superintelligence aura lieu.
« Notre premier produit sera la superintelligence sûre. »
LIBÉRERIEZ-VOUS UNE IA AUSSI INTELLIGENTE QUE LES HUMAINS AVANT LA SUPERINTELLIGENCE ?
« Je pense que la question est : est-ce sûr ? Est-ce une force pour le bien du monde ? Je pense que le monde va tellement changer quand nous arriverons à ce point qu'il est assez difficile de vous proposer un plan définitif de ce que nous allons faire.
Je peux vous dire que le monde sera très différent. La façon dont chacun, dans le monde entier, perçoit ce qui se passe dans le domaine de l’IA sera très différente, et ce sera difficile à comprendre. Ce sera un débat beaucoup plus intense. Il ne s’agira peut-être pas uniquement de ce que nous déciderons.
COMMENT SSI DÉCIDERA-T-IL CE QUI CONSTITUE UNE IA SÛRE ?
« Une grande partie de la réponse à votre question nécessitera que nous fassions des recherches approfondies. Et surtout si vous pensez comme nous que les choses vont beaucoup changer… De nombreuses grandes idées sont en train d’être découvertes.
Beaucoup de gens se demandent comment l’IA va devenir plus puissante, quelles sont les étapes et les tests à effectuer ? Cela devient un peu compliqué. Il y a beaucoup de recherches à faire. Je ne veux pas dire qu’il existe encore des réponses définitives. Mais c’est l’une des choses que nous allons découvrir.
SUR L'HYPOTHÈSE DE MISE À L'ÉCHELLE ET LA SÉCURITÉ DE L'IA
« Tout le monde parle simplement d’hypothèse de mise à l’échelle. Tout le monde oublie de se demander ce que nous mettons à l’échelle. La grande avancée de l’apprentissage profond de la dernière décennie est une formule particulière pour l’hypothèse de mise à l’échelle. Mais elle va changer… Et à mesure qu’elle évolue, les capacités du système vont augmenter. La question de la sécurité deviendra la plus importante, et c’est à cela que nous devrons répondre. »
L'histoire continue
SUR L'OPEN-SOURCING DES RECHERCHES DE SSI
« À ce stade, toutes les entreprises d’IA ne mettent pas en open Source leurs travaux principaux. C’est également le cas pour nous. Mais je pense que, si certains facteurs sont pris en compte, de nombreuses opportunités se présenteront pour mettre en open Source les travaux pertinents sur la sécurité des superintelligences. Peut-être pas tous, mais certainement certains. »
SUR LES EFFORTS DE RECHERCHE EN MATIÈRE DE SÉCURITÉ D'AUTRES ENTREPRISES D'IA
« En fait, j'ai une très haute opinion de l'industrie. Je pense qu'à mesure que les gens continueront de progresser, toutes les différentes entreprises se rendront compte, peut-être à des moments légèrement différents, de la nature du défi auquel elles sont confrontées. Donc, plutôt que de dire que nous pensons que personne d'autre ne peut le faire, nous disons que nous pensons pouvoir apporter notre contribution.
(Reportage de Kenrick Cai, Anna Tong et Krystal Hu ; édité par Peter Henderson et Edwina Gibbs)