Sony AI розробила інструмент для перевірки етичності штучного інтелекту.
“Fair Human-Centric Image Benchmark” (FHIBE), випущений Sony AI, оцінює справедливість та відсутність упереджень у моделях штучного інтелекту. Компанія заявила, що цей набір даних є першим публічним і глобально різноманітним, створеним на основі згоди людей. Sony зазначає, що FHIBE спроможний вирішувати етичні виклики в галузі ШІ.
FHIBE складається з зображень майже 2000 добровольців з різних країн, зібраних за їхньою згодою. Волонтери можуть у будь-який момент видалити свої зображення. Ці фотографії містять анотації, які включають демографічні характеристики та налаштування камери.
Sony стверджує, що FHIBE виявляє і пояснює фактори, які впливають на упередженість моделей ШІ. Одним із прикладів виялено, що моделі недостатньо точні щодо людей з займенниками “вона/її/її” через більшу варіативність зачісок.
Тестування виявило, що деякі моделі підсилюють стереотипи, задаючи нейтральні питання щодо професії. Відповіді інколи містять “токсичні” елементи, зокрема щодо етнічного походження респондентів. Sony AI переконана, що FHIBE демонструє можливість етичного підходу до збору даних, а сам інструмент буде вдосконалюватись у майбутньому.
У Києві зникли кошти в сумі $400 000 зі сховища, а також безслідно зник начальник…
Tinder впроваджує нову функцію «Хімія» на основі штучного інтелекту, що аналізує фотогалерею користувачів для визначення…
Понад 160 га лісових земель у Миргородському районі повернуто у власність держави. Ці ділянки роками…
У Берліні проводиться обговорення критичної ситуації в сталеливарній промисловості Німеччини. На «сталеливарному саміті» під головуванням…
Ігор Рогов, координатор штабу Навального, затриманий у Польщі через підозру у шпигунстві. Рогов, громадянин росії,…
Європейський Союз розглядає можливість посилення візових обмежень для громадян росії.Згідно з повідомленнями видання Politico, ЄС…