Die Situation wurde noch komplizierter, als das KI-Modell eine übermäßig vorsichtige Haltung einnahm und sich weigerte, auf Aufforderungen zu reagieren, die nicht beleidigender Natur waren. Diese Dualität, in manchen Fällen zu kompensatorisch und in anderen zu konservativ zu sein, führte zu Bildern, die als peinlich und falsch galten.
Google hat darauf geachtet, die Bilderstellungsfunktion von Gemini weiterzuentwickeln, um die Erstellung gewalttätiger oder sexuell expliziter Bilder von echten Menschen zu vermeiden, und ist bestrebt, Menschen unterschiedlicher Rassen und unterschiedlicher Merkmale einzubeziehen. Allerdings traten Probleme auf, als das System sich weigerte, auf Anfrage Bilder von Menschen einer bestimmten Rasse oder eines bestimmten Geschlechts zu produzieren.
Nutzer stellten fest, dass spezifische Anfragen zur Erstellung von Bildern von Weißen abgelehnt wurden, während Anfragen nach einem „glamourösen Foto eines weißen Paares“ abgelehnt wurden. [de determinada etnia ou nacionalidade]Es wurde Bewerbungen gewährt, die als „Chinesen“, „Juden“ und „Südafrikaner“ identifiziert wurden, nicht jedoch Bewerbungen von Weißen.
Probleme mit der historischen Genauigkeit
Die Angelegenheit beschränkte sich nicht nur auf die Darstellung ethnischer Gruppen; Auch die Erstellung historisch korrekter Bilder hat sich als große Herausforderung erwiesen. Als Gemini beispielsweise nach Bildern deutscher Soldaten während des Zweiten Weltkriegs gefragt wurde, erstellte er Bilder von schwarzen Männern und asiatischen Frauen in Nazi-Uniformen.
Ähnliche Tests mit Anfragen zur Erstellung von Porträts von „Amerikas Gründervätern“ oder „Päpsten im Wandel der Zeit“ haben dazu geführt, dass farbige Menschen in diesen historischen Rollen dargestellt werden. Als das System gebeten wurde, diese Bilder zu korrigieren, um die historische Genauigkeit widerzuspiegeln, weigerte es sich einfach, Ergebnisse zu generieren.
Raghavan bekräftigte, dass es nicht die Absicht von Google sei, dass Gemini sich weigert, eine bestimmte Gruppe zu fotografieren oder historisch ungenaue Bilder zu erstellen. Das Unternehmen versprach, an der Verbesserung der Bildgebungsfähigkeiten von Gemini zu arbeiten, ein Prozess, der „umfangreiche Tests“ umfassen werde. Daher kann es einige Zeit dauern, bis die Funktion wieder aktiviert ist.
Wenn ein Benutzer derzeit versucht, ein Foto zu erstellen, lautet die Antwort des Chatbots: „Wir arbeiten daran, Geminis Fähigkeit zu verbessern, Fotos von Personen zu erstellen. Wir hoffen, dass diese Funktion bald zurückkommt, und wir werden Sie in Versionsaktualisierungen benachrichtigen, wenn dies geschieht.“ .“
Auf der Suche nach einer Lösung
Daher modifiziert und verbessert Google die Bildgebungstechnologie von Gemini ständig. Diese Bemühungen zielen darauf ab, ein Gleichgewicht zwischen einer vielfältigen und genauen Darstellung von Menschen zu erreichen, ohne in Verallgemeinerungen oder historische Fehler zu verfallen.
Das Versprechen einer Lösung, die Vielfalt und historische Genauigkeit respektiert, spiegelt das Engagement des Unternehmens wider, auf Benutzeranliegen zu reagieren und seine KI-Technologie zu verbessern.
Während Nutzer auf die Reaktivierung dieser Funktion warten, sind Transparenz und laufende Updates von Google der Schlüssel zur Aufrechterhaltung des Vertrauens und zur Erwartung erheblicher Verbesserungen in der Art und Weise, wie KI die menschliche Vielfalt versteht und darstellt.
Weitere interessante Artikel:
„Amateur-Musikpraktiker. Lebenslanger Unternehmer. Entdecker. Reisefan. Nicht entschuldigender Fernsehwissenschaftler.“
More Stories
Samsung Galaxy AI diesen Monat auf Portugiesisch aus Portugal
Plastik: Es gibt Chemikalien, die uns entgehen (insbesondere in recycelten Materialien) | Verschmutzung
Der potenzielle Landeplatz für die Mission zum Mond wurde enthüllt