ChatGPT pozostaje jedną z najpopularniejszych platform opartych na sztucznej inteligencji, ale jej rozwój wiąże się z licznymi wyzwaniami, w tym prawnymi. Włoski Urząd Ochrony Danych Osobowych (Garante per la protezione dei dati personali) nałożył na OpenAI karę w wysokości 15 mln euro za naruszenia przepisów o ochronie danych osobowych, co stanowi ważny sygnał dla branży AI.
Powody kary – brak przejrzystości i naruszenie danych
Dochodzenie wobec OpenAI rozpoczęto w marcu 2023 roku po incydencie, w którym w wyniku błędu ujawniono poufne dane użytkowników ChatGPT. Co istotne, Włoski Urząd nie został o tym fakcie poinformowany, co już wtedy wzbudziło podejrzenia. W toku śledztwa ujawniono kolejne problemy:
• Brak podstaw prawnych do przetwarzania danych: Dane użytkowników wykorzystywane do szkolenia ChatGPT były gromadzone bez wyraźnej zgody.
• Niedostateczna transparentność: Użytkownicy nie byli informowani o tym, w jaki sposób ich dane są przetwarzane i do jakich celów służą.
• Brak zabezpieczeń dla dzieci: Platforma nie wdrożyła mechanizmów weryfikacji wieku, co umożliwiało korzystanie z ChatGPT osobom poniżej 13. roku życia, wbrew wymogom prawa.
Konsekwencje dla OpenAI
Oprócz kary finansowej, OpenAI musi przeprowadzić sześciomiesięczną kampanię informacyjną, która obejmie media takie jak radio, telewizja, prasa i Internet. Jej celem będzie edukacja użytkowników w zakresie:
• sposobu działania ChatGPT;
• metod gromadzenia i wykorzystywania danych osobowych;
• praw przysługujących użytkownikom, takich jak możliwość usunięcia danych czy wyrażenia sprzeciwu wobec ich przetwarzania.
Cała treść kampanii musi zostać uzgodniona z włoskim organem. Dzięki temu użytkownicy będą mogli podejmować świadome decyzje dotyczące użycia ich danych w szkoleniu AI.
Reakcja OpenAI i przyszłość
Firma OpenAI zapowiedziała odwołanie od decyzji, co wskazuje na jej niezgodę z ustaleniami urzędu. Sprawa ta jednak wykracza poza Włochy – wyznacza standardy dla całego sektora sztucznej inteligencji, który musi mierzyć się z rosnącymi oczekiwaniami dotyczącymi przejrzystości i przestrzegania przepisów RODO.
Podsumowanie
Kara dla OpenAI to sygnał, że naruszenia zasad ochrony danych osobowych nie pozostaną bez konsekwencji. Wdrażanie regulacji oraz zwiększanie świadomości użytkowników stają się kluczowe dla rozwoju odpowiedzialnej sztucznej inteligencji. To ważny moment nie tylko dla OpenAI, ale także dla całej branży AI, która musi dostosować się do wymagań dotyczących ochrony danych.