Коли технологія виходить за рамки

Поділіться цією публікацією

Lustige Pannen bei Googles AI-Suche : Seit der Einführung der Google Search Generative Experience (SGE) hat sich gezeigt, dass selbst die fortschrittlichste Technologie ihre Tücken hat. Hier sind einige der amüsantesten und unerwarteten Probleme, die aufgetreten sind.

Historische Fauxpas

Eines der bemerkenswertesten Beispiele war, als die AI-Suche auf eine Frage zur amerikanischen Geschichte antwortete und dabei fälschlicherweise die Vorteile der Sklaverei hervorhob. Diese grobe Fehleinschätzung sorgte für Empörung und zeigte, wie wichtig es ist, historische Kontexte richtig zu interpretieren und ethische Richtlinien zu beachten.

Ein weiteres kurioses Problem trat auf, als die KI-Suche auf eine komplexe Frage nach der besten Automarke für Familien mit Kindern und Hunden antwortete. Die generierte Antwort war so detailliert, dass sie eher verwirrte als half. Nutzer berichteten, dass die Antwort wie ein Mini-Aufsatz erschien, was den Zweck einer schnellen Informationsbeschaffung ad absurdum führte.

Zu den lustigsten und zugleich seltsamsten Antworten gehört die Empfehlung, Klebstoff auf eine Pizza zu streuen, um den Käse zum Schmelzen zu bringen. Eine weitere Antwort besagte, dass Barack Obama muslimisch sei, was jedoch eine völlig haltlose Verschwörungstheorie ist.

Die KI schien außerdem Probleme mit Daten über US-Präsidenten zu haben, wie z.B. die Anzahl der Präsidenten oder die Behauptung, dass mehrere Präsidenten von der Universität von Wisconsin-Madison graduiert seien, was sich jedoch auf Studenten bezog, die dieselben Namen trugen.

Probleme mit Satire

Darüber hinaus hat die KI Schwierigkeiten, Satire von Fakten zu unterscheiden. So wurden beispielsweise Artikel der Satire-Website “The Onion” als Fakten präsentiert.

Die Zuverlässigkeit der Antworten ist ein ernstes Problem, da viele Nutzer Google nutzen, um Fakten zu überprüfen. Besonders bei medizinischen Fragen kann eine falsche Antwort gefährliche Folgen haben, wie z.B. bei der Frage, was zu tun ist, wenn man von einer Klapperschlange gebissen wird.

Kritik von Experten

Experten auf dem Gebiet der KI haben Google für die Einführung dieser Funktion kritisiert und darauf hingewiesen, dass es sich bei den Fehlern um klar vorhersehbare Probleme handelt, die vermieden werden könnten.

Margaret Mitchell, eine ehemalige KI-Ethikforscherin bei Google, schrieb: “Es geht nicht darum, Google zu fangen, sondern darum, auf klar vorhersehbare Schäden hinzuweisen, bevor beispielsweise ein Kind stirbt.”

Googles Reaktion

Google hat auf die Kritik reagiert und erklärt, dass die meisten Beispiele, die im Internet kursieren, “seltene Anfragen” seien und dass die “überwältigende Mehrheit” der KI-Übersichten hochwertige Informationen liefere. Das Unternehmen gab außerdem an, dass einige der Beispiele im Internet manipuliert oder nicht reproduzierbar seien.

Висновок

Die Einführung von AI Overview hat bei den Nutzern für einige Unterhaltung gesorgt, aber auch ernste Bedenken hinsichtlich der Zuverlässigkeit der Informationen aufgeworfen. Google arbeitet daran, die Funktion zu verbessern und sicherzustellen, dass die Nutzer korrekte und sichere Antworten erhalten.

Схожі повідомлення

Нова модель ШІ o1 від OpenAI: квантовий стрибок у машинному мисленні?

12 вересня 2024 року компанія OpenAI здивувала технологічний світ...

Оновлення Alexa через Claude, але не для всіх

Нещодавно компанія Amazon зробила значний крок вперед у...

Gems, Imagen 3 та Gemini Live

На I/O 2024 компанія Google анонсувала нові функції для...

Aleph Alpha представляє нові моделі мови Pharia

Німецька AI-компанія Aleph Alpha нещодавно оголосила про свій новий...

Тиха революція: як штучний інтелект непомітно змінює наше повсякденне життя

Вступ: Невидимі зміни У світі, що характеризується технологічними...

Клінг А.І.: Альтернатива Runway and Co?

Kling AI, розроблений китайським технологічним гігантом Kuaishou, - це новий...