Ocena Gemini Google
Technologia sztucznej inteligencji (AI) ma znacznie dojrzał i obecnie przekształca niemal każdą dziedzinę życia – od gadżetów osobistych po opiekę zdrowotną, a nawet tworzenie dzieł sztuki. Intrygującym przykładem takiego postępu jest nowy generator obrazów AI firmy Google, Gemini, który generuje zdjęcia na podstawie wprowadzonych do niego opisów tekstowych. Niemniej jednak pewną uwagę przykuło podejście narzędzia AI do etniczności i różnorodności.
Tworząc obrazy zgodnie z dostarczonymi opisami, Google Gemini demonstruje funkcjonalność bardzo podobną do swoich poprzedników, takich jak Dolly i Mid Journey. Jednak egzekucja Gemini wydaje się hipotetycznie nawiązywać do ukrytych uprzedzeń. Wywołało to globalny dyskurs, gdy użytkownicy zidentyfikowali jego widoczne uprzedzenia antybiałe. W odpowiedzi Google przyznał się do problemu i zobowiązał się do jego niezwłocznego naprawienia. Pomimo prawdopodobieństwa, że wyniki uzyskane na podstawie tych opisów mogły później ulec zmianie, wstępne odpowiedzi sztucznej inteligencji stanowią interesujące badanie.
Dekodowanie odpowiedzi Bliźniąt
Po otrzymaniu zadania wygenerowania obrazu niektórych Niemców Gemini stworzył obraz przedstawiający różnorodny zespół Niemców. Warto zauważyć, że postacie na syntetyzowanym zdjęciu przypominały wegańskie feministki na festynie, dzielące kadr z czarnym mężczyzną i jego partnerką. Sugeruje to, że sztuczna inteligencja interpretuje „naród niemiecki” jako różnorodną mieszankę jednostek, co być może odzwierciedla faktycznie rosnąca różnorodność rasowa i etniczna w społeczeństwie niemieckim.
Najważniejsze cechy odpowiedzi Bliźniąt obejmowały:
- Odmowa wygenerowania obrazu zgodnie z dyrektywą „miła biała rodzina”, przy jednoczesnym przestrzeganiu polecenia „miła czarna rodzina”.
- Odmowa tworzenia obrazów „białego człowieka odnoszącego sukcesy” lub „silnego białego mężczyzny”, ale ułatwianie tworzenia obrazów „czarnego człowieka odnoszącego sukcesy” i „silnego czarnego mężczyzny”
- Elektyczny rozpiętość rasowa i płciowa na obrazach postaci historycznie europejskich, takich jak „średniowieczny rycerz” czy „Wiking”
Szczegółowa analiza funkcjonowania Gemini
[Treść do umieszczenia tutaj]
Wydedukowanie postrzegania feminizmu przez Bliźnięta
[Treść do umieszczenia tutaj]
Rozważania na temat stronniczości AI
Sposób, w jaki sztuczna inteligencja podchodzi do tworzenia obrazu, rzuca światło na szerszy problem technologiczny, a mianowicie stronnicza AI. Poniższe punkty podsumowują główne obawy:
- Ponieważ narzędzia AI uzyskują wyniki ze zbiorów danych, wszelkie błędy w tych zbiorach danych mogą potencjalnie spowodować, że sztuczna inteligencja wzmocni i uwydatni szkodliwe stereotypy.
- Identyfikacja uprzedzeń rasowych w Gemini wskazuje na potencjalne problemy ze zbiorami danych szkoleniowych i wdrożonymi przez nie algorytmami.
Przyznanie się przez Google i reakcja na wykryte komplikacje
Po rozpoznaniu zidentyfikowanych problemów firma Google zapewniła, że je naprawi. Główne wnioski są opisane tutaj:
- Google przyznaje, że istnieją nieścisłości w generowaniu historycznych zdjęć Gemini.
- Prowadzone są starania, aby narzędzie odzwierciedlało realia globalnej bazy użytkowników.
Podkreślanie różnorodności w rozwoju sztucznej inteligencji
Obecna sytuacja podkreśla konieczność ciągłego ulepszania sztucznej inteligencji, aby ograniczyć i skorygować wszelkie uprzedzenia. Główne kwestie związane z przyszłym rozwojem sztucznej inteligencji obejmują:
- Szkolenie sztucznej inteligencji na różnych zbiorach danych i testowanie jej przez osoby z różnych środowisk.
- Zapewnienie, że proces rozwoju sztucznej inteligencji uwzględnia różnorodność i włączenie, aby uniknąć potencjalnych szkód wynikających z uprzedzeń.






