L’univers de l’Intelligence Artificielle est en pleine ébullition. Après avoir co-fondé OpenAI et contribué à l’avènement de ChatGPT, Ilya Sutskever prend un virage radical. Il quitte le navire OpenAI, non sans fracas, pour fonder Safe Superintelligence Inc. (SSI), une startup ambitieuse qui place la sécurité au cœur du développement de l’IA. Une rupture stratégique qui témoigne de divergences profondes sur l’avenir de cette technologie et qui pourrait bien redessiner le paysage de l’IA.
Rupture à OpenAI : l’éthique au cœur du conflit
Le départ de Sutskever, ancien chief scientist d’OpenAI, n’est pas un simple changement de poste. Il est le symptôme d’un désaccord profond sur la direction prise par l’entreprise. Alors que Sam Altman, PDG d’OpenAI, semble privilégier la course à la performance et la commercialisation rapide de modèles toujours plus puissants (GPT-4, GPT-5…), Sutskever s’inquiète des risques liés à une IA non maîtrisée. La dissolution de l’équipe de superalignement qu’il dirigeait, chargée d’anticiper et de minimiser les dangers d’une intelligence artificielle générale (IAG) surpassant l’humain, a cristallisé ces tensions et acté la rupture.
Cette divergence de vision n’est pas nouvelle. Des rumeurs persistantes évoquent des débats en interne sur la vitesse de développement de l’IA et l’importance accordée à la sécurité. Pour Sutskever, la puissance brute sans contrôle est une voie dangereuse. Il privilégie une approche plus prudente, centrée sur l’éthique et la maîtrise des risques. Un choix qui le pousse à créer SSI avec Daniel Levy et Daniel Gross, deux figures également convaincues de la nécessité d’une IA « sécurisée par conception » (safe-by-design).
SSI : une autre voie vers la superintelligence
Avec SSI, Sutskever affiche clairement ses ambitions : développer une IAG, non pas en accumulant des données d’entraînement comme le fait OpenAI, mais en misant sur une architecture radicalement différente. Fini les pré-entraînements massifs sur des données Internet de plus en plus rares et potentiellement biaisées. SSI se tourne vers des réseaux neuronaux supervisés. L’idée ? Utiliser un algorithme moins avancé (par exemple, une version antérieure comme GPT-2) pour superviser et contrôler un modèle plus puissant (comme GPT-4). Ce « garde-fou » logiciel permettrait de s’assurer que les décisions de l’IA restent alignées avec des valeurs humaines.
Cette approche est une évolution des travaux de Sutskever sur le superalignement chez OpenAI. Mais avec SSI, la sécurité n’est plus une option, c’est le fondement même du projet. Sutskever qualifie d’ailleurs cette problématique de « problème technique le plus important de notre époque ».
Une vision controversée, un avenir incertain
La démarche de SSI soulève des questions cruciales. Si la supervision par un réseau neuronal moins puissant est séduisante sur le papier, sa mise en œuvre concrète est complexe. Comment garantir l’impartialité du superviseur ? Comment gérer les situations imprévues ? L’exemple d’AlphaZero, le programme d’échecs de Google DeepMind qui a développé des stratégies inédites et parfois incompréhensibles pour les humains, illustre bien les défis de la prévisibilité en IA.
Par ailleurs, le modèle économique de SSI reste flou. La startup se refuse pour l’instant à communiquer sur ses financements. Un silence qui interroge. Comment concilier la recherche fondamentale et les impératifs économiques ? La pression des investisseurs ne risque-t-elle pas de compromettre l’indépendance scientifique de SSI ?
Le lancement de SSI marque un tournant dans l’histoire de l’IA. Il met en lumière deux visions antagonistes : celle d’OpenAI, orientée vers la performance et la commercialisation, et celle de SSI, centrée sur la sécurité et l’éthique. Ce clivage rappelle les débats entre Nick Bostrom, philosophe préoccupé par les risques existentiels de l’IA, et les entrepreneurs de la Silicon Valley, enthousiastes face à son potentiel économique.
Sutskever et SSI parient sur une IA « raisonnée » et contrôlée. Une vision qui résonne avec les appels à la prudence de nombreux experts et qui pourrait influencer la réglementation de l’IA à l’échelle mondiale. Reste à voir si cette approche, plus éthique mais aussi plus complexe, permettra de concrétiser la promesse d’une superintelligence au service de l’humanité. Le chemin est long, semé d’embûches techniques et financières. Mais une chose est sûre : l’avenir de l’IA se joue aujourd’hui, et l’initiative de Sutskever est un signal fort qui ne peut être ignoré.