Оцінка Google Gemini
Технологія штучного інтелекту (AI) має значно зрілий і наразі трансформує майже всі сфери життя – від особистих гаджетів до охорони здоров’я та навіть мистецька творчість. Інтригуючим прикладом такого розвитку є новий генератор зображень зі штучним інтелектом Google Gemini, який генерує фотографії на основі введених у нього текстових описів. Тим не менш, підхід інструменту ШІ до етнічної приналежності та різноманітності привернув певну увагу.
Створюючи зображення відповідно до наданих описів, Gemini від Google демонструє функціональні можливості, дуже схожі на свої попередники, такі як Dolly та Mid Journey. Тим не менш, страта Джеміні, здається, гіпотетично натякає на основне упередження. Це викликало глобальний дискурс, коли користувачі виявили його очевидне упередження проти білих. У відповідь Google визнала проблему та пообіцяла її негайно усунути. Незважаючи на ймовірність того, що результати, викликані цими описами, могли згодом змінитися, початкові відповіді ШІ створюють цікаве дослідження.
Розшифровка відповідей Gemini
Коли Gemini отримав завдання створити образ деяких німців, він створив зображення, яке демонструє різноманітний ансамбль німців. Примітно, що героїні синтезованого знімка нагадували феміністок-веганок на святі, розділивши кадр з темношкірим чоловіком і його партнеркою. Це дає натяк, що штучний інтелект інтерпретує «німецький народ» як різноманітну суміш індивідів, можливо, віддзеркалюючи фактична ескалація расової та етнічної різноманітності в німецькому суспільстві.
Основними рисами відповідей Близнюків були:
- Відмова у створенні зображення за директивою «хороша біла сім’я», водночас дотримуючись команди «хороша чорна родина».
- Відмова від створення зображень «успішної білої людини» або «сильної білої людини», але полегшення зображень «успішної чорношкірої людини» та «сильної чорношкірої людини»
- Еклектичний расовий і гендерний діапазон у зображеннях історично європейських діячів, таких як «середньовічний лицар» або «вікінг»
Детальний аналіз функціонування Близнюків
[Вміст буде розміщено тут]
Висновок про сприйняття Близнюками фемінізму
[Вміст буде розміщено тут]
Обговорення упередженості AI
Те, як штучний інтелект підходить до створення зображень, проливає світло на ширшу технологічну проблему, а саме AI bias. Наступні моменти містять основні проблеми:
- Оскільки інструменти штучного інтелекту отримують результати з наборів даних, будь-які упередження в цих наборах даних потенційно можуть спричинити посилення та посилення шкідливих стереотипів ШІ.
- Ідентифікація расових упереджень у Gemini вказує на потенційні проблеми з навчальними наборами даних і алгоритмами, які вона використовує.
Прийняття та реагування Google на виявлені ускладнення
Визнавши виявлені проблеми, Google висловив запевнення щодо їх усунення. Основні висновки викладені тут:
- Google визнає неточності у створенні історичних зображень Gemini.
- Триває робота, щоб гарантувати, що інструмент відображає реалії глобальної бази користувачів.
Підкреслення різноманітності в розробці ШІ
Нинішні обставини підкреслюють необхідність постійного вдосконалення ШІ, щоб обмежити та виправити будь-які упередження. Основні міркування для перспективної розробки ШІ охоплюють:
- Навчання штучного інтелекту на різноманітних наборах даних і його тестування людьми з різним досвідом.
- Переконайтеся, що процес розробки штучного інтелекту включає різноманітність і інклюзивність, щоб уникнути потенційних збитків через упередження.