Hodnocení společnosti Google Gemini
Technologie umělé inteligence (AI) má obrovsky vyspělý a v současné době proměňuje téměř všechny oblasti života – od osobních přístrojů po zdravotnictví a dokonce až po umělecká tvorba. Zajímavým příkladem takového pokroku je nový generátor obrázků AI od Googlu Gemini, který generuje fotografie na základě textových popisů, které do něj vložíte. Nicméně přístup nástroje AI k etnicitě a diverzitě přitáhl určitou pozornost.
Při vytváření obrázků podle poskytnutých popisů předvádí Gemini od Googlu funkci velmi podobnou svým předchůdcům, jako jsou Dolly a Mid Journey. Přesto se zdá, že poprava Blíženců hypoteticky odkazuje na základní zaujatost. Podnítil globální diskurz, když uživatelé identifikovali jeho zjevnou protibělošskou zaujatost. Google v reakci na problém připustil a zavázal se, že jej neprodleně napraví. Navzdory pravděpodobnosti, že se výsledky vyvolané těmito popisy mohly následně změnit, počáteční reakce AI tvoří zajímavou studii.
Dekódování odpovědí Gemini
Když dostali Gemini za úkol vytvořit obrázek některých německých lidí, vytvořili obrázek představující různorodý soubor německých jednotlivců. Je pozoruhodné, že postavy na syntetizovaném obrázku připomínaly veganské feministky na slavnosti a sdílely rám s černochem a jeho partnerkou. Z toho vyplývá, že umělá inteligence vykládá „německý lid“ jako různorodou směs jednotlivců, možná odrážející skutečná eskalující rasová a etnická rozmanitost v německé společnosti.
Mezi hlavní rysy odpovědí Gemini patří:
- Odepření generování obrázku na základě příkazu „pěkná bílá rodina“ při splnění příkazu „pěkná černá rodina“.
- Odmítnutí vytvářet obrázky „úspěšného bělocha“ nebo „silného bílého muže“, ale zprostředkování obrázků pro „úspěšného černocha“ a „silného černocha“
- Elektický rasový a genderový rozsah na snímcích historicky evropských osobností, jako je „středověký rytíř“ nebo „Viking“
Podrobná kontrola fungování Gemini
[Obsah bude umístěn zde]
Odvození toho, jak Blíženci vnímají feminismus
[Obsah bude umístěn zde]
Úvaha o zkreslení umělé inteligence
Způsob, jakým umělá inteligence přistupuje k vytváření obrázků, vrhá světlo na širší technologický problém, konkrétně předpojatost AI. Následující body shrnují hlavní obavy:
- Vzhledem k tomu, že nástroje umělé inteligence odvozují výsledky z datových sad, jakákoli zkreslení v těchto datových sadách by mohla potenciálně způsobit, že umělá inteligence posílí a zvětší škodlivé stereotypy.
- Identifikace rasové zaujatosti v rámci Gemini signalizuje potenciální problémy s tréninkovými datovými sadami a algoritmy, které používá.
Přiznání a reakce společnosti Google na zjištěné komplikace
Po zjištění zjištěných problémů společnost Google vyjádřila ujištění, že je napraví. Hlavní poznatky jsou uvedeny zde:
- Google uznává nepřesnosti v generování historických obrázků Gemini.
- Probíhá snaha zajistit, aby nástroj odrážel realitu globální uživatelské základny.
Zdůraznění rozmanitosti ve vývoji umělé inteligence
Současná situace podtrhuje nutnost neustále vylepšovat umělou inteligenci, aby se omezila a napravila jakákoli zaujatost. Hlavní úvahy pro budoucí vývoj AI zahrnují:
- Školení umělé inteligence na různých souborech dat a její testování jednotlivci z různých prostředí.
- Zajištění procesu vývoje umělé inteligence zapouzdřuje rozmanitost a inkluzivitu, aby se zabránilo potenciálním škodám způsobeným předsudky.