L’autorité italienne de protection des données a temporairement interdit vendredi le chatbot ChatGPT d’OpenAI et a lancé une enquête sur une violation présumée des règles de collecte de données de l’application d’intelligence artificielle.
L’agence, également connue sous le nom de Garante, a accusé ChatGPT, soutenu par Microsoft, de ne pas avoir vérifié l’âge de ses utilisateurs, qui sont censés être âgés de 13 ans et plus.
ChatGPT n’a « aucune base légale justifiant la collecte et le stockage massifs de données personnelles » pour « former » le chatbot, a déclaré Garante. OpenAI dispose de 20 jours pour présenter des mesures correctives, faute de quoi elle s’expose à une amende pouvant aller jusqu’à 4 % de son chiffre d’affaires annuel mondial.
OpenAI n’a pas répondu à une demande de commentaire.
Vendredi soir, ChatGPT répondait encore aux questions posées par des utilisateurs italiens sur la plateforme.
L’entreprise a été informée de la décision vendredi matin et il aurait été matériellement impossible de couper l’accès en Italie le même jour, mais on s’attend à ce qu’elle le fasse d’ici samedi, a déclaré un porte-parole de l’autorité.
« S’ils ne respectent pas l’interdiction, l’autorité peut imposer des amendes », a déclaré le porte-parole.
L’Italie, qui a provisoirement restreint l’utilisation par ChatGPT des données personnelles des utilisateurs nationaux, est devenue le premier pays occidental à prendre des mesures à l’encontre d’un chatbot alimenté par l’intelligence artificielle.
Le chatbot n’est pas non plus disponible en Chine continentale, à Hong Kong, en Iran, en Russie et dans certaines régions d’Afrique où les résidents ne peuvent pas créer de comptes OpenAI.
Depuis son lancement l’année dernière, le ChatGPT a suscité un engouement pour la technologie, incitant les rivaux à lancer des produits similaires et les entreprises à l’intégrer, ou à intégrer des technologies similaires, dans leurs applications et leurs produits.
Le développement rapide de cette technologie a attiré l’attention des législateurs de plusieurs pays. De nombreux experts estiment que de nouvelles réglementations sont nécessaires pour régir l’IA en raison de son impact potentiel sur la sécurité nationale, l’emploi et l’éducation.
« Nous attendons de toutes les entreprises actives dans l’UE qu’elles respectent les règles de l’UE en matière de protection des données. L’application du règlement général sur la protection des données relève de la responsabilité des autorités européennes chargées de la protection des données », a déclaré un porte-parole de la Commission européenne.
La Commission, qui débat de la loi européenne sur l’IA, pourrait ne pas être encline à interdire l’IA, a tweeté Margrethe Vestager, vice-présidente exécutive de la Commission européenne.
« Peu importe la #tech que nous utilisons, nous devons continuer à faire progresser nos libertés et à protéger nos droits. C’est pourquoi nous ne réglementons pas les technologies de l’#AI, nous réglementons les utilisations de l’#AI », a-t-elle déclaré. « Ne jetons pas en quelques années ce qui a mis des décennies à se construire ».
Mercredi, Elon Musk et un groupe d’experts en intelligence artificielle et de cadres de l’industrie ont appelé à une pause de six mois dans le développement de systèmes plus puissants que le GPT-4 récemment lancé par OpenAI, dans une lettre ouverte citant les risques potentiels pour la société.
« Le manque de transparence est le véritable problème », a déclaré Johanna Björklund, chercheuse en IA et professeur associé à l’université d’Umeå en Suède. « Si vous faites de la recherche sur l’IA, vous devez être très transparent sur la manière dont vous le faites ».
Selon une étude d’UBS publiée le mois dernier, ChatGPT aurait atteint 100 millions d’utilisateurs actifs mensuels en janvier, deux mois seulement après son lancement, ce qui en fait l’application grand public à la croissance la plus rapide de l’histoire.