Ollama est un petit bijou, mais important, au milieu de tout le brouhaha qui entoure actuellement le monde de l'IA. Cet outil logiciel open source donne aux humains ordinaires la possibilité d'exécuter des modèles d'IA utiles sur leur ordinateur personnel, éliminant ainsi le besoin d'abonnements coûteux au cloud ou d'ordinateurs de la taille d'un petit camion.

Les préoccupations en matière de confidentialité rendent également Ollama important. Tout le monde n’est pas à l’aise avec le fait que ses données personnelles soient collectées par l’IA, et certains d’entre nous préfèrent garder leurs interactions plus personnelles et privées.

Si vous n'êtes pas familier avec la genèse d'Ollama, sachez que le moment décisif a eu lieu avec la sortie de modèles open source hautement optimisés mais puissants comme LLaMa de Meta. Soudain, le monde disposait d'une IA petite mais puissante qu'ils pouvaient utiliser localement sur leurs ordinateurs — et qui fonctionnait presque aussi bien que les modèles des grandes entreprises. Alléluia !

Ces nouveaux modèles sont suffisamment petits pour être installés sur un ordinateur portable, sont gratuits et bénéficient d'une communauté enthousiaste de développeurs qui créent constamment de nouveaux outils pour les rendre encore plus utiles et accessibles. L'un des outils les plus réussis est Ollama. Comme son nom l'indique, il a été initialement lancé pour prendre en charge LLaMa, mais s'est depuis développé pour prendre en charge de nombreux autres modèles open source.

Ollama fonctionne sur macOS, Linux et Windows et est très simple à installer. Commençons.

Étape 1.

Rendez-vous sur le site Web d'Ollama, où vous trouverez une page d'accueil simple mais informative avec une interface grande et conviviale. Bouton de téléchargement.

Étape 2.

Cliquez sur le bouton Télécharger pour choisir votre plateforme: Linux, Mac ou Windows. Le fichier d'installation d'Ollama sera téléchargé sur votre ordinateur. Pour Mac et Windows, il sera au format .exe ou .zip ; les utilisateurs de Linux devront exécuter une commande curl.

C'est le moment idéal pour vous inscrire à la newsletter ou rejoindre la communauté Discord pour rester informé des développements et accéder à un support futur.

Cliquez sur l'option de menu Modèles en haut de l'écran pour afficher la large gamme de modèles open source que vous pouvez utiliser avec Ollama. En sélectionnant l'un d'entre eux, vous verrez également la commande nécessaire pour installer et exécuter le nouveau modèle. Mais nous y reviendrons plus tard.

Étape 3.

Maintenant, exécutez le programme d’installation.

Étape 4.

Sous Windows, l'installation se termine par une fenêtre PowerShell CMD ouverte. Vous serez invité à installer un modèle de départ, qui est LLaMa 3 au moment de la rédaction.

À ce stade, je recommande clic droit sur l'icône CMD active dans la barre des tâches et sélection de l'option Épingler à la barre des tâches pour garder PowerShell facilement accessible pour une utilisation future d'Ollama.

Étape 5.

Commencez à discuter en saisir votre texte et profitez de l'interaction avec votre IA privée. Vous pouvez enregistrer et charger des sessions de chat et utiliser /? pour obtenir une liste des commandes disponibles.

De tout temps, Ollama run (modèle) est votre commande de démarrage de chatPar exemple, Ollama run llama3 démarrera une session de discussion avec le modèle LLaMa 3.

Étape 6.

Pour modifier ou installer un nouveau modèle, utilisez la commande Course d'Ollama (nouveau modèle). Le nouveau modèle sera alors automatiquement chargé (ou téléchargé puis chargé), et l'invite sera prête pour votre nouvelle session de chat. Rien de plus simple.

Par exemple, Course d'Ollama phi3 téléchargera, installera et exécutera automatiquement le modèle Phi3, même si vous utilisez actuellement LLaMa 3. C'est un moyen rapide et amusant d'essayer de nouveaux modèles dès leur arrivée sur la scène.