OpenAI propose une IA LLM générative en libre-accès et en deux tailles
OpenAI avait été originellement créé pour proposer des IA en libre-accès, et a depuis changé son fusil d'épaule, devenant un mammouth des IA payantes via abonnement ou accords avec des partenaires comme Apple et surtout Microsoft.Le modèle GPT-OSS vient d'être proposé avec 20 milliards ou 120 milliards de paramètres (weights), et maintenant accessibles via LM Studio, ou téléchargeables séparément.Néanmoins nombre d'entre nous auront une belle déconvenue, car nombre de sites indiquent que le plus petit modèles (20 milliards de paramètres/weights) tournerait sur un Mac récent avec 16 Go de RAM, et c'est évidemment faux.Pour faire tourner le plus petit modèle, il vous faut un Mac ARM avec 24 Go de RAM au minimum.Alternativement sur PC, une dGPU avec 16 Go de RAM comme l'excellente et abordable GeForce RTX 5060 Ti 16 Go.Un Mac ARM avec 16 Go de RAM ne peut faire tourner ce modèle, c'est de l'intox!Le modèle avec 120 milliards de paramètre devrait tourner sur un Mac ARM avec 96 Go de RAM sans que je puisse le vérifier dans ce cas. Avec 128 Go de RAM ça passera large.Je vais lui faire passer mes petits 'benchmarks' ce soir.
macbidouille.com/news/2025/08/06/openai-propose-une-ia-llm-generative-en-libre-acces-et-en-deux-tail...
Voir aussi