OpenAI під загрозою: європейські регулятори і порушення конфіденційності
Компанія OpenAI знову піддалася критиці в Європі через порушення конфіденційності, пов’язані з галюцинаціями її популярного чат-бота, який генерує неправдиву інформацію. Цього разу схвильованість викликав випадок з жителем Норвегії, котрий виявив, що ChatGPT поширює фантастичні дані про його кримінальне минуле.
Скарга з боку Noyb на підтримку користувача
Організація захисту прав на приватність Noyb виступила на захист постраждалого норвежця, чиє ім’я асоціювали з вигаданим злочином, котрий він не скоював. Попередні претензії до OpenAI були викликані некоректними відомостями, такими як дата народження або біографічні деталі.
Невідповідність GDPR і його наслідки для OpenAI
В рамках Загального регламенту захисту даних (GDPR) громадяни ЄС мають право вимагати коригування неточних даних. Noyb підкреслює це у своїй новій скарзі до ChatGPT, зазначаючи, що OpenAI не забезпечує механізмів для виправлення помилок чат-бота.
“GDPR чіткий: персональні дані мають бути точними,” – коментує Йоаким Седерберг, юрист із захисту даних у Noyb, підкреслюючи право користувачів на правдиву інформацію.
Відомі порушення GDPR можуть обернутися санкціями до 4% від глобального доходу компанії. Хоча штрафи вже накладалися на OpenAI, європейські регулятори стають обережнішими в своїм підході до технологій штучного інтелекту, досліджуючи, як краще впроваджувати елементи GDRP.
- На весні 2023 року італійський регулятор тимчасово обмежив доступ до ChatGPT, спонукаючи OpenAI оновити свою інформаційну політику.
- Польський наглядовий орган досліджує скаргу на ChatGPT з вересня 2023, проте жодного рішення ще не винесено.
Ця нова скарга від Noyb має на меті застерегти регуляторів від загрози, яку становлять можливі галюцинації штучного інтелекту.