LLMs à Oxide : quand les intelligences artificielles révolutionnent le travail — mais avec des limites à respecter
L’utilisation des modèles linguistiques à grande échelle (LLM) varie considérablement selon les contextes, avec des conséquences propres à chaque cas. À Oxide, on distingue trois usages principaux : comme lecteurs, comme rédacteurs, et comme programmeurs. En tant que lecteurs, les LLM se distinguent par une compréhension de texte exceptionnelle, capable d’analyser instantanément des documents longs — comme des spécifications techniques ou des datasheets — pour en extraire des résumés ou répondre à des questions précises. Cependant, cette puissance soulève un enjeu crucial : la confidentialité des données. Lorsqu’un document est envoyé à un LLM hébergé (comme ChatGPT, Claude ou Gemini), il est essentiel de s’assurer qu’il ne sera pas utilisé pour entraîner de futures versions du modèle. Même si cette option est parfois désactivable, elle est souvent activée par défaut, sous des formulations trompeuses comme « améliorer le modèle pour tous », ce qui peut donner l’impression que refuser cet entraînement est une forme de réticence excessive. Il est donc fondamental de vérifier les paramètres de confidentialité. En outre, l’usage des LLM pour comprendre un document ne doit jamais remplacer la lecture humaine là où elle est attendue socialement — notamment dans des processus de recrutement, où les décisions doivent reposer sur une évaluation humaine, pas sur une synthèse automatisée. En tant que rédacteurs, les LLM sont moins performants. Leur écriture est souvent stéréotypée, pleine de tournures clichées, et porte des signes distinctifs de génération automatique. Ce n’est pas seulement une question de style : cela fragilise la crédibilité de l’auteur. Si le lecteur perçoit que le texte est généré par une IA, il peut douter de la profondeur des idées derrière. Le contrat social entre lecteur et auteur — selon lequel l’auteur a fait un effort intellectuel supérieur — est rompu. Le lecteur se retrouve à déchiffrer un texte qu’un autre n’a pas vraiment réfléchi, ce qui crée une frustration légitime. À Oxide, où la qualité de l’écriture est un critère clé de recrutement, cette question prend tout son poids. Bien que l’usage des LLM dans la rédaction ne soit pas interdit, il est fortement déconseillé. L’outil peut aider à structurer ou réviser, mais le texte final doit toujours refléter une pensée humaine authentique. En tant que programmeurs, les LLM sont remarquablement efficaces, notamment pour écrire du code expérimental, des tests ou des fragments de fonctionnalité non critiques. Leur capacité à générer du code fonctionnel est réelle, mais elle comporte des risques : les erreurs de logique, les hallucinations ou les comportements inattendus sont fréquentes, même sur des tâches simples. Plus le code est proche du système final, plus la vigilance doit être accrue. L’ingénieur reste responsable du code généré : il doit le relire lui-même avant toute revue par les pairs. Si les commentaires de revue sont traités par une régénération massive, le processus itératif de révision devient impossible. L’usage des LLM dans le développement doit donc s’accompagner de rigueur, d’empathie envers les collègues et d’un engagement personnel. En résumé, les LLM sont des outils puissants, mais leur usage doit être mesuré, responsable et conscient des implications humaines, sociales et techniques. À Oxide, on privilégie l’authenticité, la responsabilité et la qualité humaine — des valeurs que les LLM ne peuvent pas remplacer, mais qu’ils peuvent aider à renforcer, à condition d’être utilisés avec discernement.
