Navigation
Recherche
|
GPT-4 : OpenAI a vérifié que son modèle ne pouvait pas se rebeller
jeudi 16 mars 2023, 12:00 , par Mac Generation
Avant de lancer le nouveau GPT-4, OpenAI s'est attelé à plusieurs tests pour vérifier que son IA ne pouvait pas dérailler et potentiellement devenir dangereuse. Si cela ressemble à de la science-fiction, nous en sommes pourtant bien là: la procédure a été révélée dans un document de sécurité que le site Ars Technica a décortiqué. OpenAI a notamment vérifié que son modèle ne pouvait pas élaborer des plans au long terme, créer des copies de lui-même, ou encore se cacher sur un serveur et mener des attaques.
Announcing GPT-4, a large multimodal model, with our best-ever results on capabilities and alignment: https://t.co/TwLFssyALF pic.twitter.com/lYWwPjZbSg— OpenAI (@OpenAI) March 14, 2023 OpenAI explique que de nouvelles capacités apparaissent souvent dans les modèles plus puissants, dont certaines sont « particulièrement préoccupantes ». Les chercheurs citent par exemple « la capacité à élaborer des plans à long terme et à agir en conséquence, à acquérir du pouvoir et des ressourc...
https://www.macg.co/ailleurs/2023/03/openai-fait-tester-gpt-4-pour-sassurer-quelle-ne-puisse-pas-der...
|
59 sources (15 en français)
Date Actuelle
mar. 13 mai - 13:17 CEST
|