L’intelligence artificielle locale progresse à grands pas, et chez Kodea, on aime tester les solutions qui offrent plus de liberté, de confidentialité et de contrôle.
Dans notre dernière vidéo Kodea Talks, on vous partage nos premiers retours d’expérience sur une configuration prometteuse : Ollama + OpenWebUI, le tout tournant en local sur un Jetson Orin Nano de NVIDIA.
Une vidéo 100 % démo et retour terrain
Dans cet épisode de 40 minutes, on explique et teste ensemble :
- Ollama, un outil qui permet d’exécuter facilement des modèles LLM en local
- OpenWebUI, une interface web claire et moderne pour interagir avec les modèles
- Le Jetson Orin Nano, une plateforme ARM taillée pour les projets IA embarqués
Résultat ? C’est fonctionnel mais tellement perfectible (on va tester plein d’autres modèles) !
En tout cas, ça ouvre plein de possibilités pour des cas d’usage hors cloud : prototypage, edge computing, IA embarquée… Bref, l’IA locale devient réellement accessible.
Pourquoi ça nous enthousiasme ?
- Indépendance : pas besoin de se connecter à un service distant
- Confidentialité : les données restent sur la machine
- Performance : les résultats sont étonnamment bons pour une machine aussi compacte
Envie de tester l’IA locale vous aussi ?
Nous préparons bientôt du contenu plus technique et des formations pratiques pour ceux qui souhaitent :
- Monter leur propre environnement IA local
- Comprendre les modèles open source
- Expérimenter sur Raspberry Pi, Jetson ou machines Linux