Lustige Pannen bei Googles AI-Suche : Seit der Einführung der Google Search Generative Experience (SGE) hat sich gezeigt, dass selbst die fortschrittlichste Technologie ihre Tücken hat. Hier sind einige der amüsantesten und unerwarteten Probleme, die aufgetreten sind.
Historische Fauxpas
Eines der bemerkenswertesten Beispiele war, als die AI-Suche auf eine Frage zur amerikanischen Geschichte antwortete und dabei fälschlicherweise die Vorteile der Sklaverei hervorhob. Diese grobe Fehleinschätzung sorgte für Empörung und zeigte, wie wichtig es ist, historische Kontexte richtig zu interpretieren und ethische Richtlinien zu beachten.
Ein weiteres kurioses Problem trat auf, als die KI-Suche auf eine komplexe Frage nach der besten Automarke für Familien mit Kindern und Hunden antwortete. Die generierte Antwort war so detailliert, dass sie eher verwirrte als half. Nutzer berichteten, dass die Antwort wie ein Mini-Aufsatz erschien, was den Zweck einer schnellen Informationsbeschaffung ad absurdum führte.
Zu den lustigsten und zugleich seltsamsten Antworten gehört die Empfehlung, Klebstoff auf eine Pizza zu streuen, um den Käse zum Schmelzen zu bringen. Eine weitere Antwort besagte, dass Barack Obama muslimisch sei, was jedoch eine völlig haltlose Verschwörungstheorie ist.
Die KI schien außerdem Probleme mit Daten über US-Präsidenten zu haben, wie z.B. die Anzahl der Präsidenten oder die Behauptung, dass mehrere Präsidenten von der Universität von Wisconsin-Madison graduiert seien, was sich jedoch auf Studenten bezog, die dieselben Namen trugen.
Probleme mit Satire
Darüber hinaus hat die KI Schwierigkeiten, Satire von Fakten zu unterscheiden. So wurden beispielsweise Artikel der Satire-Website “The Onion” als Fakten präsentiert.
Die Zuverlässigkeit der Antworten ist ein ernstes Problem, da viele Nutzer Google nutzen, um Fakten zu überprüfen. Besonders bei medizinischen Fragen kann eine falsche Antwort gefährliche Folgen haben, wie z.B. bei der Frage, was zu tun ist, wenn man von einer Klapperschlange gebissen wird.
Kritik von Experten
Experten auf dem Gebiet der KI haben Google für die Einführung dieser Funktion kritisiert und darauf hingewiesen, dass es sich bei den Fehlern um klar vorhersehbare Probleme handelt, die vermieden werden könnten.
Margaret Mitchell, eine ehemalige KI-Ethikforscherin bei Google, schrieb: “Es geht nicht darum, Google zu fangen, sondern darum, auf klar vorhersehbare Schäden hinzuweisen, bevor beispielsweise ein Kind stirbt.”
Googles Reaktion
Google hat auf die Kritik reagiert und erklärt, dass die meisten Beispiele, die im Internet kursieren, “seltene Anfragen” seien und dass die “überwältigende Mehrheit” der KI-Übersichten hochwertige Informationen liefere. Das Unternehmen gab außerdem an, dass einige der Beispiele im Internet manipuliert oder nicht reproduzierbar seien.
Висновок
Die Einführung von AI Overview hat bei den Nutzern für einige Unterhaltung gesorgt, aber auch ernste Bedenken hinsichtlich der Zuverlässigkeit der Informationen aufgeworfen. Google arbeitet daran, die Funktion zu verbessern und sicherzustellen, dass die Nutzer korrekte und sichere Antworten erhalten.