Sony AI розробила інструмент для перевірки етичності штучного інтелекту.
“Fair Human-Centric Image Benchmark” (FHIBE), випущений Sony AI, оцінює справедливість та відсутність упереджень у моделях штучного інтелекту. Компанія заявила, що цей набір даних є першим публічним і глобально різноманітним, створеним на основі згоди людей. Sony зазначає, що FHIBE спроможний вирішувати етичні виклики в галузі ШІ.
FHIBE складається з зображень майже 2000 добровольців з різних країн, зібраних за їхньою згодою. Волонтери можуть у будь-який момент видалити свої зображення. Ці фотографії містять анотації, які включають демографічні характеристики та налаштування камери.
Sony стверджує, що FHIBE виявляє і пояснює фактори, які впливають на упередженість моделей ШІ. Одним із прикладів виялено, що моделі недостатньо точні щодо людей з займенниками “вона/її/її” через більшу варіативність зачісок.
Тестування виявило, що деякі моделі підсилюють стереотипи, задаючи нейтральні питання щодо професії. Відповіді інколи містять “токсичні” елементи, зокрема щодо етнічного походження респондентів. Sony AI переконана, що FHIBE демонструє можливість етичного підходу до збору даних, а сам інструмент буде вдосконалюватись у майбутньому.
