Медия без
политическа реклама

Изкуственият интелект на Google все още има проблеми на расистка основа

През февруари Google спря временно своя генератор на изображения Gemini, базиран на изкуствен интелект, който допускаше исторически неточности, които обиждаха обществеността. Например расово различни войници при заявка "римски легион" - явен анахронизъм - и стереотипно черни мъже при заявка "зулуски воини". Изглежда нищо не се е променило досега.

Главният изпълнителен директор на Google Сундар Пичай трябваше да се извини за грешката в генератора на изображения Gemini, а Демис Хасабис, ръководител на отдела DeepMind на Google, отговарящ за проекта, обеща, че грешката ще бъде отстранена "възможно най-скоро" - в рамките на няколко седмици. Сега е средата на май, а грешката все още не е отстранена.

Тази седмица Google проведе годишната си конференция I/O, на която разказа за множество нови функции на Gemini: моделът на изкуствения интелект ще може да се използва за създаване на собствени чатботове, за планиране на маршрути, ще бъде интегриран в Google Calendar, Keep и YouTube Music. Но генерирането на изображения все още е деактивирано в приложението и уеб интерфейса на Gemini, потвърди пред TechCrunch ресурс представител на Google.

Причините за забавянето той не обясни. Според една от версиите, при обучението си изкуственият интелект използва набори от данни, в които преобладават изображения на бели хора, докато представителите на други раси и етнически групи са изключения, което формира стереотипи. В опит да коригира това пристрастие Google може да е прибегнала до драстична мярка - твърдо кодиране, при което данните се вграждат директно в изходния код. Много е трудно да се коригира алгоритъм, създаден по този начин.

Ключови думи:

Google, DeepMind, Сундар Пичай

Още по темата