28/04/2026

Canonical va foutre de l'IA partout dans Ubuntu

Par admin

Canonical va foutre de l'IA partout dans Ubuntu

Jon Seager, VP Engineering chez Canonical, vient de poser sur le
Discourse Ubuntu
le plan IA de la distrib pour les 12 prochains mois. Et ça va saupoudrer partout, du speech-to-text amélioré aux workflows agentic, en passant par l’analyse automatisée des logs serveur. Le timing est limpide, et à peine
Ubuntu 26.04 LTS
est sortie que Canonical aligne déjà sa "next big thing".

Concrètement, vous tapez snap install nemotron-3-nano et tadaa, vous récupérez un modèle local pré-optimisé pour votre silicium (genre 2 à 4 Go selon la quantization), avec un endpoint API compatible OpenAI servi sur localhost. C’est ça, leurs fameuses Inference Snaps.

La liste tourne autour de Gemma 4 (Google DeepMind), Qwen-3.6-35B-A3B, Nemotron-3-nano, DeepSeek et Llama, et perso je trouve le choix plutôt cohérent vu qu’il colle aux modèles open weight les plus chauds du moment. Bien sûr, l’inférence est locale par défaut plutôt que cloud, l’idée étant d’éviter d’envoyer vos prompts chez un tiers chaque fois que vous demandez un résumé de log.

Côté technique, tout passe par la sandbox
Snap
pour gérer les permissions, ce qui change pas mal la donne par rapport à un binaire qui pourrait taper partout sur le disque.

Ubuntu 26.04 LTS embarque déjà la "prompting capability" qui permet d’autoriser ou refuser l’accès aux modèles app par app et les fonctionnalités attendues couvrent les ajustements caméra et micro (réduction de bruit, flou d’arrière-plan), l’accessibilité écran, l’automatisation du troubleshooting, et côté serveur, l’aide à l’interprétation des incidents pour les équipes SRE.

Pour ceux qui bossent sur des fermes de serveurs, à vrai dire c’est ce dernier point qui sera vraiment utile, parce que pour parser des logs à la main quand ça part en cacahuète, ça vaut le coup d’avoir une IA qui dégrossit.

Le hic dans ce thread Discourse, c’est l’absence de killswitch IA global comme peut le propose Firefox. Plusieurs utilisateurs demandent un opt-in clair plutôt qu’un opt-out diffus, et un alignement explicite avec la définition Open Source AI de l’OSI.

La réponse de Seager est nette, "some features will use AI, and if you use those features, you’ll be using some sort of AI model". Donc pas de bouton "désactive-moi tout ça", mais juste du contrôle granulaire au niveau Snap. Bref, comme d’hab, ça en calmera certains, mais vu comment certains ont littéralement fondu un plomb quand Firefox a adopté ses fonctionnalités IA (locales et désactivables, je le rappelle), j’image que Ubuntu va se prendre sa petite shitstorm de "j’suis tout rouge et pas content" dans pas longtemps…

Cette ambiguïté fait d’ailleurs déjà grincer des dents sur certaines chaînes YouTube de barbus, où le terme "Microsoft 2.0" ressort déjà dans plusieurs vidéos critiques. Ahaha, c’est toujours le même gag ! Mais Canonical jure ses grand morts que ce sera différent… Tenez la citation officielle "Ubuntu is not becoming an AI product, but it can become stronger with thoughtful AI integration".

Maintenant pour les sceptiques qui veulent tester sans s’engager, la bidouille est simple. D’abord, vous laissez les Inference Snaps non installés (ils ne sont pas dans le seed par défaut). Ensuite, vous bloquez les capabilities IA dans snap connections. Et comme ça vous gardez la main sur ce qui tourne en local.

Après si vous voulez expérimenter, l’API OpenAI-compatible permet de faire pointer n’importe quelle app dessus avec deux lignes de config, ce qui est vraiment pratique pour comparer un modèle 3B local face à GPT-4 cloud sur des tâches précises. Sauf si votre machine n’a pas assez de VRAM, et là le modèle 3B va ramer comme un veau et vous reviendrez vite vers le cloud… pas glop.

Il reste quand même la vraie question, qui est celle de la transparence des datasets de training. Là dessus, Canonical n’a pas encore donné de réponse claire, et c’est probablement là que se jouera la confiance long terme.

Promettre l’open weight déjà c’est bien, mais expliquer comment les modèles ont été entraînés ça serait franchement mieux.

Bref, à surveiller fin 2026 quand les premières features atterriront vraiment sur les ordis des early adopters. Pour l’instant, la roadmap c’est surtout beaucoup d’intentions louables, mais bon, on en reparlera dans six mois.

Source :
Phoronix

Source : korben.info