Les 9 meilleurs outils IA locaux pour Raspberry Pi
Il n’y a jamais eu autant de modèles d’IA capables d’être exécutés sur Raspberry Pi. Tout ce dont vous avez besoin, ce sont des bons outils logiciels qui prennent en charge l’architecture spécifique du Raspberry Pi. J’ai passé en revue les meilleurs, et aujourd’hui, je vais les partager avec vous.
Des outils d’IA peuvent être installés sur le Raspberry Pi 5 pour exécuter de grands modèles de langage (LLM) en local, sans connexion Internet, pour garder les données privées. Ces modèles peuvent être utilisés pour le raisonnement textuel, le traitement audio ou la génération d’images.
Pour exécuter ces modèles efficacement, vous aurez probablement besoin d’un Raspberry Pi 5 avec au moins 4 Go de mémoire ; les cartes de 8 Go et 16 Go offrent encore plus d’options. Sans plus tarder, faisons un tour de ce qui est possible en ce moment.
Si vous êtes à la recherche d’inspiration pour votre prochain projet Raspberry Pi, j’ai créé une liste avec plus de 75 idées avec une courte description, le niveau et matériel conseillé, et des liens vers des tutoriels. Que vous soyez débutant ou plus expérimenté, vous trouverez des idées adaptées à votre niveau. Accès gratuit ici !
Ollama
L’outil IA le plus facile à utiliser.
Si vous débutez avec l’auto-hébergement d’IA, vous devez essayer Ollama. Il peut faire un peu de tout, et c’est l’outil le plus accessible à installer et à utiliser dans cette liste.

Ollama est une plateforme open-source qui vous permet d’exécuter des LLM localement. Vous pouvez télécharger des modèles d’IA pour une large gamme de tâches générales, y compris le raisonnement textuel, l’assistance au code, et même le jeu de rôle. Ollama préconfigure des paramètres par défaut raisonnables pour vous, afin que vous puissiez commencer à jouer avec l’IA sans avoir à modifier du code ou gérer des configurations complexes.
À lire ensuite : Mon guide visuel des broches GPIO (simple et complet)
Avec juste quelques commandes sur votre Raspberry Pi, vous serez opérationnel en un rien de temps. Vous pouvez ensuite discuter avec votre IA via un navigateur web, comme d’habitude, mais localement sur votre Pi. Consultez mon guide complet ici : Comment exécuter ChatGPT localement sur Raspberry Pi avec Ollama (en anglais).
Modèles supportés :
- gpt-oss
- DeepSeek
- Gemma
- OLMo
- Gemini
- Ministral
- Qwen
- Phi
- + plus de 200 modèles dans la bibliothèque Ollama.
OnnxStream
Créer des images par IA.
Les outils de génération d’images IA nécessitent généralement un GPU et une quantité importante de VRAM, ce qui rendait cela peu faisable avec le matériel du Raspberry Pi. Jusqu’à maintenant.

OnnxStream est un projet open-source qui peut effectuer la génération d’images sur un Raspberry Pi Zero 2. Cela signifie qu’il peut créer des images par IA localement avec seulement le CPU et la RAM. C’est assez lent sur le Pi Zero 2, mais vous pouvez accélérer les choses en utilisant un Raspberry Pi 5 à la place.
Pour installer OnnxStream, vous devrez probablement cloner le dépôt et générer le projet manuellement. Ce guide de Pye Sone Kyaw peut être utile si vous voulez plus de détails.
Plus de 75 idées de projets pour votre Raspberry Pi (avec tutos, niveau et matériel nécessaire)
Télécharger maintenant

Après cela, si vous voulez interagir avec le générateur d’images depuis un navigateur web, il existe un projet non officiel appelé OnnxStreamGui que vous pouvez installer pour rendre l’utilisation plus conviviale.
À lire ensuite : Transformez votre Raspberry Pi en une machine à sous
Modèles supportés :
- Stable Diffusion 1.5
- Stable Diffusion XL 1.0 Base
- Stable Diffusion XL Turbo 1.0
Faster Whisper
Convertir la parole en texte (STT).
La reconnaissance automatique de la parole peut être très utile lorsque vous devez transcrire des réunions enregistrées, ajouter des sous-titres à des vidéos ou traduire de l’audio dans différentes langues. Pour cela, l’outil le plus populaire en ce moment est Whisper, un modèle de conversion de parole en texte (STT).

Il existe plusieurs variantes de Whisper, alors clarifions rapidement. Le Whisper original a été créé par OpenAI, whisper.cpp est une version optimisée basée sur C/C++, et Faster Whisper est une version optimisée codée en Python.
Faster Whisper est le modèle STT le plus performant des trois sur le Raspberry Pi 5. Il peut traiter plusieurs entrées audio en même temps tout en maintenant une latence plus faible et en utilisant moins de ressources que les autres modèles mentionnés.
Je recommande d’installer Faster Whisper avec une image Docker comme celle-ci, en utilisant une configuration Docker Compose que vous pouvez modifier à la volée.
Modèles supportés :
Je vous conseille aussi : Faites ça pour une sauvegarde complète de votre Raspberry Pi
- Whisper
Piper
La synthèse vocale (TTS) par IA n’a jamais été aussi bonne.
Nous avons vu la conversion de la parole en texte, mais qu’en est-il de l’autre sens, convertir le texte écrit en audio ? Si vous avez un projet en tête où vous souhaitez que votre Raspberry Pi parle à haute voix, alors vous aurez besoin d’un modèle de synthèse vocale (TTS) par IA.

Piper est un modèle TTS qui comprend plus de 100 voix dans plus de 40 langues. Il utilise Python, ce qui signifie que vous pouvez l’exécuter sur un Raspberry Pi en utilisant un environnement virtuel. Vous pouvez également entraîner Piper en lui fournissant vos propres voix pour obtenir quelque chose de plus unique ou de plus réaliste.
Je pense que le meilleur aspect de Piper réside dans les nombreuses façons dont il est pris en charge et étendu. Vous pouvez l’exécuter via un serveur web ou une API. Il a une intégration avec Home Assistant pour donner une voix à votre maison connectée. Il existe même un plugin pour Old School RuneScape.
Modèles supportés :
- Piper
Bitnet.cpp
Modèles d’IA ultra-efficaces sur des appareils edge.
Le LLM 1-bit est apparu après la publication d’une recherche par Microsoft en 2024. Les chercheurs ont découvert qu’un design 1-bit peut exécuter d’énormes modèles (100 milliards de paramètres) sur des CPU tout en obtenant presque les mêmes performances que les méthodes traditionnelles utilisant le traitement GPU.
Je vous conseille aussi : Accédez à votre Raspberry Pi à distance, facilement
C’est une révolution : cela pourrait permettre d’exécuter des IA complexes sur des appareils edge comme le Raspberry Pi à l’avenir, ce qui n’était pas possible auparavant en raison de ses limitations matérielles.
Bitnet.cpp est l’outil à utiliser pour charger des LLM 1-bit sur le Raspberry Pi 5. C’est plutôt nouveau, donc l’installation est un peu complexe. Vous devrez générer le projet à partir de la source, compiler avec Clang, puis exécuter à partir d’un environnement virtuel Python. Ce guide de Adafruit pourrait vous aider.
Plus de 75 idées de projets pour votre Raspberry Pi (avec tutos, niveau et matériel nécessaire)
Télécharger maintenant
Nous sommes ici dans un domaine de pointe, donc il n’y a pour l’instant que quelques modèles d’IA supportés. Mais je parie qu’il y en a beaucoup d’autres en développement en ce moment.
Modèles supportés :
- bitnet_b1_58-large
- bitnet_b1_58-3B
- Llama3-8B-1.58-100B-tokens
- Falcon3 (1B / 3B / 7B / 10B)
- Falcon Edge (1B / 3B)
LocalAI
Une plateforme d’agents d’IA.
Le nom générique de ce projet (LocalAI) rend la recherche de guides très difficile. Mais cet outil mérite d’être mentionné car c’est le seul de cette liste qui est à la fois destiné à produire des agents d’IA et peut fonctionner sur le Raspberry Pi.
LocalAI est un framework servant à créer des agents d’IA qui fonctionnent localement. C’est comme créer plusieurs bots qui travaillent ensemble pour atteindre un objectif plus grand. Par exemple, si un de vos clients vous envoie un e-mail au sujet d’un problème courant, vous pouvez avoir un agent d’IA qui identifie le problème, un second qui recherche des réponses possibles dans votre FAQ, et un troisième agent qui répond automatiquement avec la solution.
À lire ensuite : Mon guide visuel des broches GPIO (simple et complet)
Cela semble trop beau pour être vrai ? Oui, j’émettrais quelques réserves :
- Les performances des agents d’IA sur le Raspberry Pi seront probablement assez lentes.
- Créer des agents d’IA est un projet avancé destiné uniquement aux utilisateurs expérimentés.
- Pour l’instant, il n’existe pas de guides clairs pour le Raspberry Pi.
Malgré ces obstacles, je pense que LocalAI fait avancer ce qui est possible sur le Raspberry Pi. Pour installer LocalAI, vous devrez probablement l’exécuter via une image Docker ici. Il est également conçu pour prendre en charge Kubernetes (lisez notre brève introduction ici, en anglais), donc vous pouvez l’exécuter sur un cluster Raspberry Pi pour accélérer les choses.
Modèles supportés :
- vLLM
- transformers
- langchain-huggingface
- bark
- coqui
- kokoro
- chatterbox
- kitten-tts
- vibevoice
- stablediffusion.cpp
- transformers-musicgen
- local-store
- + liste complète de compatibilité des modèles ici.
llama.cpp
Performances IA optimisées grâce à la personnalisation.
Nous avons mis Ollama en haut de cette liste car c’est le plus facile et qu’il a des paramètres par défaut conviviaux. Mais que faire si vous avez besoin que votre modèle d’IA fonctionne à pleine capacité ? Dans ce cas, vous pourriez vous tourner vers llama.cpp pour une personnalisation avancée.

Llama.cpp est une bibliothèque open-source C/C++ qui peut exécuter des modèles d’IA multiplateformes, sans interface graphique, avec lesquels vous interagissez via du code. Nous avons déjà vu llama.cpp comme un moyen de créer votre propre chatbot local sans frais : 5 projets d’IA faciles sur Raspberry Pi pour les débutants (en anglais).
Le projet llama.cpp prend en charge plus de 150 000 modèles d’IA et ce nombre continue d’augmenter. Les modèles que vous pouvez réellement exécuter dépendent des capacités matérielles de votre Pi, mais l’idée est que llama.cpp est l’outil le plus vaste de cette liste, si vous êtes prêt à fournir des efforts.
Je vous conseille aussi : Évitez cette erreur classique avant d’acheter un Raspberry Pi
Modèles supportés :
- LXTV2
- LFM
- Qwen
- Z-Image
- Nemotron
- Youtu-LLM
- + plus de 150 000 modèles ici.
Vosk
Reconnaissance vocale IA ultra-rapide.
Nous avons déjà vu des outils IA audio pour STT et TTS ci-dessus, mais celui-ci a une utilisation de niche sur le Raspberry Pi qui mérite d’être mentionnée.

Vosk peut faire de la reconnaissance vocale hors ligne pour plus de 20 langues parlées. Vosk excelle avec les commandes vocales, ce qui le rend parfait pour des projets comme des assistants vocaux sur le Raspberry Pi (en anglais).
Il atteint cette vitesse en utilisant de petits modèles (~50 Mo de paramètres) qui ont une faible latence avec très peu d’utilisation de CPU/RAM. D’autres modèles IA audio peuvent être plus précis dans l’ensemble, mais Vosk est beaucoup plus rapide, ce qui le rend parfait pour ce genre d’utilisation.
La façon la plus simple d’installer Vosk est d’utiliser Python avec pip sur le Raspberry Pi (en anglais). Plus de détails peuvent être trouvés dans la documentation officielle.
Modèles supportés :
- vosk-model-small
- vosk-model
- vosk-model-lgraph
- vosk-model-gigaspeech
- + support pour plus de 20 langues ici.
Format PDF pratique, avec les 74 commandes à retenir pour maîtriser son Raspberry Pi.
Télécharger maintenant
Vous voulez discuter avec d'autres passionnés de Raspberry Pi ? Rejoignez la communauté, partagez vos projets en cours et posez vos questions sur le forum (en anglais).
llamafile
LLM portables en un seul fichier.
Est-ce que c’est moi, ou y a-t-il trop de projets d’IA avec ‘llama’ dans le nom ? Cependant, cet outil particulier, llamafile, permet un usage unique par rapport aux autres que j’ai mentionnés plus tôt.

Le but de llamafile est de reconditionner un modèle d’IA spécifique en un seul fichier exécutable. Cela simplifie l’utilisation des modèles dans différents environnements sans avoir besoin de configurations complexes. Tout ce que vous avez à faire est de copier/coller le fichier et de l’utiliser. Voyez le logiciel llamafile comme une usine de LLM.
Si vous ne voulez pas empaqueter votre propre modèle, il y a déjà des modèles pré-fabriqués que vous pouvez essayer. Téléchargez-en simplement un au format .llamafile depuis ici, et vous pouvez lancer l’IA directement sur votre Raspberry Pi comme s’il s’agissait d’un programme ordinaire.

Après avoir exécuté le llamafile, il créera une interface web pour discuter avec l’IA localement.
Modèles supportés :
- WizardCoder
- Rocket
- Gemma
- Qwen3
- LLaVA
- Mistral
- Granite
- Phi
- Mixtral
- + plus de llamafiles pré-fabriqués ici.
Format PDF pratique, avec les 74 commandes à retenir pour maîtriser son Raspberry Pi.
Télécharger maintenant
Ressources supplémentaires pour votre Raspberry Pi
Initiation au Raspberry Pi en vidéo
Si vous débutez et voulez passer rapidement à la vitesse supérieure, j’ai exactement ce qu’il vous faut.
Regardez ma formation vidéo qui vous aidera à démarrer du bon bien, choisir votre matériel, installer les meilleures applications et vous lancer directement dans vos premiers projets avec mon aide.
Regarder les vidéos dès maintenant
Maîtrisez votre Raspberry Pi en 30 jours
Vous avez besoin de plus ? Si vous êtes à la recherche des meilleures astuces pour devenir expert sur Raspberry Pi, ce livre est fait pour vous. Développez vos compétences sous Linux et pratiquez via de nombreux projets en suivant mes guides étape par étape. 10% de remise aujourd’hui !
Télécharger le livre au format PDF ici
Maîtrisez Python sur Raspberry Pi
Pas besoin d’être un génie pour coder quelques lignes pour votre Raspberry Pi.
Je vous apprends juste ce qu’il faut sur Python afin de réaliser n’importe quel projet. La seconde partie du livre est d’ailleurs consacrée à des exemples de projets où je vous guide pas à pas.
Ne perdez pas de temps, apprenez le strict nécessaire et économisez 10% avec ce lien :
Télécharger maintenant
Autres ressources pour profiter de votre Raspberry Pi
J’ai regroupé toutes mes recommandations de logiciels, sites utiles et de matériel sur cette page de ressources. Je vous invite à la consulter régulièrement pour faire les bons choix et rester à jour.
Visiter les pages ressources
