Meta, la société mère de Facebook, WhatsApp et Instagram, a lancé son propre assistant conversationnel baptisé Meta AI, intégré aux applications de messagerie ou, dans certains pays comme les États-Unis, proposé sous forme d’application autonome. Le problème : une fonction de partage intégrée qui rend possible – voire par défaut – la publication de conversations avec l’IA.
Selon une enquête menée par TechCrunch, beaucoup d’utilisateurs ne sont pas conscients que certains de leurs échanges peuvent être rendus publics automatiquement, et ce, souvent avec leur nom complet. Les contenus publiés incluent parfois des confidences intimes, des questions délicates ou des propos inappropriés.
En Suisse, Meta AI est uniquement accessible via les applications existantes de Meta, mais les risques restent réels si les paramètres par défaut héritent des règles de visibilité des réseaux sociaux. Autrement dit, si vos publications Instagram sont publiques, vos conversations avec l’IA peuvent l’être aussi.
Ce cas illustre une problématique plus large : le fossé grandissant entre les capacités des outils d’intelligence artificielle et la compréhension qu’en ont les utilisateurs. Chez Penta, nous considérons cela comme un signal d’alarme – chaque fonctionnalité numérique, même anodine, doit être évaluée au regard des exigences de conformité et de transparence. Quand l’IA entre dans les outils du quotidien, la protection des données ne doit pas être une option : elle doit faire partie du design.
Les fonctionnalités peuvent varier selon votre région et la version de l’application.
Astuce : utilisez un compte secondaire pour tester l’IA
Pour limiter les risques, explorez les fonctionnalités IA avec un compte dépourvu d’informations personnelles. Vous minimiserez ainsi l’impact en cas d’erreur de confidentialité.