HyperAIHyperAI

Command Palette

Search for a command to run...

Microsoft prévient : l’IA de Copilot peut infecter les machines et voler des données, mais l’option reste activée par défaut

Face à des critiques croissantes, Microsoft a été contraint de réagir après avoir averti que sa fonctionnalité d’intelligence artificielle, Copilot Actions, pourrait potentiellement infecter les machines et voler des données. Bien que cette fonction soit désactivée par défaut dans Windows, la question se pose désormais : combien de temps restera-t-elle ainsi ? Les experts en cybersécurité et les utilisateurs ont exprimé leur méfiance face à cette nouvelle fonctionnalité, qui permet à Copilot d’exécuter des actions automatisées sur le système — comme ouvrir des fichiers, modifier des paramètres ou interagir avec des applications tierces. Si cette autonomie peut paraître pratique, elle soulève des inquiétudes majeures : une vulnérabilité mal corrigée ou une attaque ciblée pourrait permettre à un logiciel malveillant de s’immiscer dans le système via Copilot, profitant de ses privilèges élevés pour accéder à des données sensibles. Microsoft a tenté de rassurer en précisant que les actions sont limitées aux tâches autorisées par l’utilisateur et qu’un contrôle strict est en place. Toutefois, les sceptiques rappellent que les failles de sécurité ont souvent été découvertes après le lancement, lorsque les fonctionnalités sont activées à grande échelle. La désactivation par défaut ne suffit pas à éliminer le risque, surtout si l’entreprise prévoit de l’activer progressivement ou de la promouvoir activement dans les mises à jour futures. Cette situation met en lumière un dilemme croissant dans le domaine de l’intelligence artificielle : comment équilibrer l’innovation et l’usabilité avec la sécurité. Tandis que les entreprises cherchent à intégrer l’IA au cœur des systèmes d’exploitation, les utilisateurs se demandent si la confiance en ces outils ne repose pas sur des promesses plutôt que sur des garanties. En l’absence de transparence totale sur les mécanismes de sécurité et de surveillance, la vigilance reste de mise. Les experts conseillent aux utilisateurs de ne pas activer Copilot Actions sans comprendre pleinement les risques, et d’adopter des pratiques de sécurité renforcées — mises à jour régulières, pare-feu, antivirus performants, et surveillance des activités système. Au fond, la question n’est pas seulement de savoir si Copilot Actions peut être dangereux, mais de savoir combien de temps il faudra avant que les conséquences d’une mauvaise intégration ne deviennent visibles. Et si l’IA devient un vecteur de menace, la responsabilité de l’entreprise sera sans doute mise en cause. Pour l’instant, la fonction reste désactivée par défaut — mais pour combien de temps encore ?

Liens associés

Microsoft prévient : l’IA de Copilot peut infecter les machines et voler des données, mais l’option reste activée par défaut | Articles tendance | HyperAI