Navigation
Recherche
|
L'utilitaire pour faire tourner des LLM en local Ollama devient une application native
jeudi 3 juillet 2025, 14:27 , par Mac Generation
Grosse mise à jour pour l’application Ollama, qui permet de faire tourner un modèle de langage en local. Celle-ci s’occupe de préparer un serveur local avant de récupérer des modèles optimisés pour les ordinateurs grand public. Elle vient de passer en version 0.9.5, qui lui apporte une cure minceur en plus d’une connectivité réseau.
Installation d’Ollama, avec la fenêtre de réglages en arrière-plan. Ollama est désormais une application native pour macOS, et ça se sent: on passe de 452 Mo à 115 Mo, et les temps de chargements sont réduits. L’app a également gagné une petite interface graphique pour les réglages, permettant de changer le dossier dans lequel sont sauvegardés les modèles. Pratique pour les garder sur un disque dur externe, ou simplement dans un autre endroit que le répertoire par défaut. Attention toutefois, car le gros de l’utilisation continue de passer par le terminal, comme nous l’avions expliqué dans notre guide: Comment faire tourner DeepSeek-R1 (ou un autre L...
https://www.macg.co/logiciels/2025/07/cure-minceur-pour-lapp-ollama-qui-devient-une-app-native-30233
Voir aussi |
59 sources (15 en français)
Date Actuelle
jeu. 3 juil. - 19:40 CEST
|