Bien que ChatGPT soit un outil incroyablement puissant, il est crucial de le manipuler avec prudence et discernement afin d'éviter tout usage inapproprié ou dommageable des informations qu'il peut fournir. Malheureusement, il n'est pas recommandé de lui fournir des informations confidentielles. C'est l'erreur qu'ont faite des employés de Samsung.
Samsung communique des informations confidentielles à ChatGPT
Apparemment, les employés de Samsung ont fait fuiter des informations confidentielles à trois reprises. La première fois, lorsqu'un employé a remarqué un problème dans l'exécution d'un programme de téléchargement de base de données, et a donc décidé de copier l'intégralité du code source dans ChatGPT dans l'espoir d'y trouver une solution.
La deuxième fois est survenue alors qu'un autre employé, qui voulait affiner son code, a décidé de faire part à l'IA de toutes les informations nécessaires pour qu'elle puisse l'aider. La toute dernière fois est celle où un troisième employé de l'entreprise a envoyé la transcription d'un enregistrement audio de réunion à ChatGPT et a demandé à l'outil de créer une présentation à partir de cet enregistrement.
Samsung a donc décidé de limiter les capacités de téléchargement dans ChatGPT à 1024 bytes par personne et enquête sur les employés impliqués dans la fuite.
Samsung veut mettre en place son propre ChatGPT
L’entreprise a rapidement pris des mesures dans le but d'éviter d'autres erreurs du genre. Elle compte concevoir son propre chatbot IA pour un usage uniquement interne en interdisant à ses employés de faire appel à ChatGPT.
Cette affaire survient alors que le chatbot d'OpenAI est au centre des projecteurs. Pour rappel, l’Italie a banni le service de son territoire en affirmant qu’il ne respecte pas la loi sur la protection des données personnelles. En France, la CNIL a récemment reçu ses premières plaintes pour une raison similaire.
En conclusion, cette affaire met en évidence l'importance de la prudence et de la responsabilité lors de l'utilisation de technologies avancées telles que ChatGPT. Bien que cette plateforme puisse être incroyablement utile pour résoudre des problèmes et aider à la prise de décisions, il est crucial de comprendre ses limites et de ne pas lui fournir d'informations sensibles ou confidentielles.
Les entreprises doivent par ailleurs être conscientes des risques associés à l'utilisation de ChatGPT et prendre des mesures pour protéger les données de leurs employés et clients.