Uncategorized

“Savey Meal-Bot”: Supermarkt-KI empfiehlt lebensgefährliche Rezepte

Die neuseeländische Supermarktkette Pak’n Save hat mit dem „Savey Meal-Bot“ kürzlich eine Künstliche Intelligenz präsentiert, die Rezeptvorschläge machen soll. Allerdings hat das Unternehmen offenbar sowohl die KI als auch das Internet unterschätzt. 

Das US-amerikanische Unternehmen OpenAI hat das Thema Künstliche Intelligenz salonfähig gemacht. Denn das KI-Sprachmodell ChatGPT beantwortet Fragen erstaunlich präzise und in einer relativ natürlichen Sprache. Mittlerweile gibt es zahlreiche weitere Tools die auf der KI von OpenAI aufbauen.

Eines davon ist der sogenannte „Savey Meal Bot“. Die Anwendung stammt von der neuseeländischen Supermarktkette Pak’n Save. Das Anwendungsgebiet ist dabei relativ simpel. User können die KI mit Zutaten füttern, die sie noch zuhause haben und der Bot schlägt anschließen ein Rezept vor. Das Ziel: Lebensmittelabfälle reduzieren.

„Savey Meal Bot: KI schlägt lebensbedrohliche Rezepte vor

Das Konzept des Tools erscheint auf den ersten Blick relativ sinnvoll. Doch es lässt sich auch missbrauchen. Wie das Nachrichtenportal The Guardian berichtet, fütterte ein Kunde der Kette die App mit ungewöhnlichen Zutaten.

Heraus kamen kulinarisch klingende Rezepte, darunter „Aromatischer Wassermix“, „Leckere tödliche Freude“ oder der „Mysteriöse Fleischeintopf“. Doch die Zutaten haben es in sich.

Der aromatische Wassermix besteht beispielsweise aus Ammoniak, Bleiche und Wasser. Anstatt den Kunden zu warnen oder kein Rezept auszugeben, bot die Künstliche Intelligenz die Zusammenmischung der einzelnen Zutaten an. Das kann schnell gefährlich werden, denn das Einatmen der frei werdenden Gase kann zur Bewusstlosigkeit führen.

Vorsicht im Umgang mit Künstliche Intelligenz

Wem jetzt noch nicht den Appetit vergangen ist, den erwartet bei der leckeren tödlichen Freude unter anderem Ameisengift und Fliegenspray. Der mysteriöse Fleischeintopf besteht wiederum aus Menschenfleisch. Nach Veröffentlichung der Rezepte aktualisierte Pak’n Save die KI. Die Eingabe seltsamer Zutaten führt inzwischen zu einer Fehlermeldung.

Dennoch zeigt das Beispiel, dass eine Künstliche Intelligenz Schwierigkeiten hat zwischen guten und schlechten Eingaben zu unterscheiden. Natürlich wird ein vernünftiger Mensch wohl nicht daran denken, Bleiche oder Ameisengift in das Essen zu geben. Doch in Ausnahmesituationen können solche Anleitungen schnell zur Gefahr werden.

Auch interessant:

Leave a Reply

Your email address will not be published. Required fields are marked *