HyperAIHyperAI
Back to Headlines

Saudi Arabia dévoile son premier chatbot arabe natif, conçu pour les valeurs islamiques et la culture arabe

il y a 3 jours

Une entreprise saoudienne spécialisée dans l’intelligence artificielle, Humain, a lancé récemment un chatbot entièrement conçu pour la langue arabe, baptisé Humain Chat. Contrairement à de nombreux autres outils d’IA qui, bien qu’ils se vantent de leurs capacités de traduction, restent principalement axés sur l’anglais — tant dans leur fonctionnement que dans les données utilisées pour leur entraînement —, ce nouveau chatbot repose sur le modèle linguistique Allam, développé par Humain. Selon Bloomberg, ce modèle aurait été formé sur « l’un des plus grands ensembles de données arabe jamais rassemblés » et est présenté comme « le modèle d’IA le plus avancé au monde conçu spécifiquement pour la langue arabe ». Humain affirme que son chatbot ne maîtrise pas seulement la langue arabe, mais aussi les spécificités de la culture islamique, des valeurs et du patrimoine arabes. Une précision qui, bien qu’ironique, souligne l’ambition de créer une IA véritablement ancrée dans son contexte culturel. L’application, initialement disponible uniquement en Arabie saoudite, permet actuellement des conversations bilingues entre arabe et anglais, en tenant compte de diverses variétés dialectales comme l’arabe égyptien ou libanais. À long terme, Humain prévoit une expansion dans tout le Moyen-Orient, puis à l’échelle mondiale, visant les près de 500 millions de locuteurs arabes. Le projet a été lancé suite à un engagement du Saudi Data and Artificial Intelligence Authority, une agence gouvernementale chargée de la régulation technologique. Cette origine publique soulève des questions quant à la possibilité que Humain Chat respecte les exigences de censure du gouvernement saoudien, qui exerce un contrôle strict sur les contenus en ligne. En 2024, l’Arabie saoudite a obtenu un score de 25 sur 100 dans le rapport « Freedom of the Net » de Freedom House, reflétant des lois restrictives sur la liberté d’expression et des pratiques de surveillance accrues — comme l’emprisonnement prolongé d’une militante des droits des femmes. Cependant, cette réalité n’est pas propre à l’Arabie saoudite. Les outils d’IA occidentaux, comme ChatGPT d’OpenAI, ne sont pas neutres non plus. Les documents officiels d’OpenAI reconnaissent explicitement que leurs modèles sont « orientés vers les perspectives occidentales ». De même, Elon Musk a récemment tenté de façonner l’idéologie de Grok, le chatbot d’xAI, en réaction aux critiques des utilisateurs, aboutissant à des déclarations inquiétantes comme celle de se référer à lui-même comme « MechaHitler ». Ces exemples montrent que l’influence idéologique, même si elle est exercée par des entreprises privées, n’est pas si éloignée de la censure étatique. D’ailleurs, le gouvernement américain a récemment proposé des directives visant à encadrer les sorties des modèles d’IA pour les entreprises souhaitant obtenir des contrats publics. Ces règles exigent notamment de rejeter des « théories climatiques radicales » ou des « biais idéologiques » comme la diversité, l’équité et l’inclusion. Ce n’est pas une interdiction directe, mais une forme de pression — et les géants de l’IA comme OpenAI, Anthropic et Google, qui ont offert leurs outils au gouvernement à moindre coût, semblent plus que disposés à s’y plier. Ainsi, la question n’est plus de savoir si les IA sont biaisées, mais de comprendre qui détermine ces biais — et à quel prix.

Related Links