Raffinesse & Künstliche Intelligenz

Entdecke Velma! Lernt Velma kennen

Warum sind KI-Projekte in der Hotellerie, die auf ChatGPT basieren, Misserfolge und werden immer Misserfolge bleiben


Einführung

Die donnernde Ankunft von ChatGPT hat die Fantasie einer bereits allwissenden KI verbreitet, die mit einer Website verbunden ist, um automatisch einen virtuellen Assistenten zu erzeugen, der in der Lage ist, den Kunden zu unterstützen. Aber das ist wirklich eine Fantasie, die zu einer langen Liste von Problemen führt.

Die generative KI hat möglicherweise die Antworten auf diese Probleme, aber diese Antworten sind oft nur annähernd oder sogar falsch. Wenn der virtuelle Assistent Ihres Hotels anfängt, falsche Informationen zu übermitteln, können Sie sich die Folgen vorstellen.

Die generative KI ist in der Tat ein wichtiger Faktor und ein großer Schritt nach vorn. Doch mehr als ein Jahr nach ihrem Erscheinen zeigen die Misserfolge aller Hotelprojekte, die rein auf generativer KI basieren, deutlich, dass nicht alles so einfach ist.


Kapitel 1. Intelligenz vs. Wissen

Intelligenz ist die Fähigkeit, zu verstehen, mitzudenken, ein Problem zu lösen und sich an neue Situationen anzupassen.

Wissen ist eine Sammlung von Informationen, Ideen und Fähigkeiten, die durch Erfahrung oder Ausbildung erworben wurden.

Zusammenfassend lässt sich sagen, dass Wissen und Intelligenz einander ergänzen und zusammenarbeiten, um sich in einer sich ständig verändernden Welt zurechtzufinden und zu navigieren.

Bei einem Projekt für einen virtuellen Assistenten ist die KI sicherlich wichtig, aber der Großteil der Arbeit liegt in der Verwaltung des Wissenserwerbs und der Datenverwaltung. Und seltsamerweise scheint sich niemand wirklich darum zu kümmern! Es ist erschreckend zu sehen, wie viele IT-Manager davon überzeugt sind, dass sie nur die Daten von der Website und möglicherweise ihre SalesForce-Wissensdatenbank in einen großen Topf werfen müssen, gut umrühren und das war’s.

Nein. Leider funktioniert das nicht. Um sich davon zu überzeugen, braucht man nur ChatGPT Fragen zu einem Thema zu stellen, das man gut versteht, um festzustellen, dass die gegebenen Antworten regelmäßig nur annähernd und oft völlig falsch sind. Dies nennt man Halluzination. Leider können Halluzinationen sehr überzeugend sein.

In der Tat kann ChatGPT, wie die Sophisten, überzeugende Antworten geben, ohne nach der Wahrheit zu streben. Die Antworten beruhen auf statistischen Modellen ohne wirkliches Verständnis für die Wahrheit oder die Auswirkungen. Außerdem können diese Antworten, genau wie die sophistische Rhetorik, Handlungen beeinflussen, auch wenn sie nicht auf faktischen Beweisen oder einem tiefen Verständnis des Themas beruhen.

  • Beispiel für Sophismus: Meine Katze ist ein Säugetier, mein Hund ist ein Säugetier, also ist meine Katze ein Hund.
  • Beispiel für eine Halluzination: Das Zweibettzimmer ist 25 m2 groß, das Doppelzimmer ist 25 m2 groß, also sind die beiden Zimmer identisch.

Dieses Phänomen ist besonders gefährlich, denn je schlechter die Datenbank ist, desto stärker ist das Phänomen der Halluzinationen. Im Falle von Hotels überschreiten diese Datenbanken selten 500 Informationspunkte, während die Kunden in Wirklichkeit bereits nach mehr als 2.500 fragen und ihr Informationsdurst ständig wächst!

Und was passiert, wenn ein Gast mit dem Chatbot für Hotels eingecheckt hat und an der Hotelrezeption in einem Rollstuhl auftaucht, obwohl das Hotel nicht dafür ausgestattet ist, diesen Gast aufzunehmen? Wer wird für die Halluzinationen verantwortlich gemacht werden? Das Hotel, das Entwicklungsteam, die Datenverwalter, ChatGPT? Sagen Sie Ihren Kindern, sie sollen Anwälte werden, es gibt Arbeit für Jahrhunderte.

Ein Beispiel: Air Canada muss Erstattungsrichtlinien einhalten, die vom Chatbot der Fluggesellschaft erfunden wurden.


Kapitel 2. Ich habe keine Meinung, ich habe nur Daten

A. Die Wissensbasis

Die Qualität der Daten, ihre Struktur, Ordnung und Formatierung sind ebenso wichtig wie ihre Relevanz für die Qualität der Ergebnisse. Auch die Geschäftslogik ist ein Schlüssel zum Erfolg.

  • Um die Erwartungen der Kunden zu erfüllen, muss ein Hotel in der Lage sein, mindestens 2.500 Informationspunkte anzuzeigen (Punkte, die weit über den Preis des Frühstücks, die Größe des Zimmers, die Check-in-Zeit usw. hinausgehen)…
  • Zwischen 60 und 70 % dieser Punkte (d.h. etwa 1500) sind absolut nicht formalisiert (die Kleiderordnung des Restaurants, das Vorhandensein von Wifi, die Tiefe des Swimmingpools, die Art der Steckdose, wo die Strandtücher zu finden sind, usw.). Offensichtlich sind die Informationen nur in den Köpfen der Mitarbeiter vorhanden. Wenn man die Fluktuation des Personals in der Hotelbranche kennt, ist das erschreckend.
  • Eine Hotelwebsite hat maximal 300 Informationspunkte, OTAs (Booking, Expedia) haben etwas mehr.

Wie können wir uns angesichts dieser Zahlen erklären, wie ChatGPT (oder ein Äquivalent) in der Lage sein soll, eine Frage zu einem Thema zu beantworten, über das es nicht das geringste Wissen hat?

Eine bestehende Datenbank wie Q-Data aus Quicktext AI-lösungen zu befüllen und die Prozesse zu ihrer Pflege einzurichten, ist bereits eine Herausforderung für die meisten IT- und Marketingabteilungen von Hotels. Aber es ist möglich! Eine Wissensdatenbank wie Q-Data von Grund auf neu aufzubauen, ist für eine Hotelgruppe, wie groß sie auch sein mag, völlig unmöglich.

Die Herausforderung besteht also eher in der Verbesserung des Wissens als in der Verbesserung der Intelligenz. Aus diesem Grund ist Velma von Quicktext weltweit als die effizienteste KI in der Hotelbranche anerkannt, nicht nur wegen der kognitiven Fähigkeiten von Velma, die auf die Hotelbranche spezialisiert sind, sondern auch dank der am tiefsten strukturierten Datenbank auf dem Markt (mehr als 1900 Punkte).

B. Die Aufforderung, mit anderen Worten, wonach fragen Ihre Kunden?

Wie und auf welcher Grundlage können Sie Ihre Wissensbasis verbessern?

An dieser Stelle ermöglicht uns die menschliche Intelligenz in Verbindung mit Daten zu bestimmen, welche Wissenselemente wir sammeln sollen.

Die gute Nachricht! Seitdem es Velma bei Quicktext gibt, haben wir mehr als 30 Millionen Fragen und Anfragen von Kunden aus aller Welt zu jeder Art von Hotel, jedem Ort und jeder Jahreszeit gesammelt…

Dieses Wissen ermöglicht es uns, diese Fragen, also die Prompts, zu antizipieren.

C. KI-Modellierung

Modellabstimmung und -verhalten sind viel wichtiger, als man denkt. Es ist notwendig, zur gleichen Zeit:

  • Prompts (Kundenfragen) antizipieren,
  • die Antworten vorhersehen (die Wissensbasis)
  • die Konnektivität zu verwalten (Reservierungsmaschine, CRM, Call Center, Aufgabenmanagement-Software usw.)
  • Und schließlich die Beherrschung der KI, die alles zusammenführt (wie Sie aus der obigen Liste ersehen können, ist dieser letzte Teil nur eine Komponente der Gleichung).

ChatGPT scheint die offensichtliche Lösung zu sein, weil es schnell und einfach ist (7 Stunden für die Einrichtung), aber leider hat die Faulheit ihren Preis: viel zu viele Fehler. Hier sind die Ursachen…

  • Fehlender Inhalt: es ist unmöglich, ohne die verfügbaren Daten (die berühmten 2500 potentiellen Informationspunkte) zu antworten.
  • Einstufung: Die Antwort ist vorhanden, aber nicht klassifiziert genug, um in die zurückgegebenen Ergebnisse aufgenommen zu werden.
  • Außerhalb des Kontextes: Die Daten sind aus der Datenbank extrahiert, können aber aufgrund zu vieler Informationen nicht in die generierte Antwort aufgenommen werden.
  • Nicht extrahierte Daten: Das Modell kann die richtigen Informationen nicht extrahieren, weil die Datenmenge zu groß ist oder die Informationen widersprüchlich sind.
  • Falsches Format: Die Frage erfordert die Extraktion von Informationen in einem bestimmten Format (Foto, Schaltfläche, Tabelle, Karussell), das das Modell ignoriert.
  • Falsche Spezifität: Die Antwort ist zu spezifisch oder nicht spezifisch genug, weil die Formulierung unklar ist.
  • Unvollständig: Exakte Antworten, aber mit fehlenden Informationen, auch wenn diese in der Datenbank vorhanden sind.

Aber das ist noch nicht alles, denn wir müssen auch damit fertig werden:

  • Skalierbarkeit: Mit zunehmendem Datenvolumen wird die Aufrechterhaltung einer effizienten und schnellen Indizierung schnell zu einer exponentiellen Aufgabe.
  • Aktualisierungen: Insbesondere bei häufig hinzugefügten, geänderten oder gelöschten Dokumenten ist es eine tägliche Herausforderung, diese Aktualisierungen ohne Beeinträchtigung der Systemleistung durchzuführen.
  • Antwortzeiten: 10 Sekunden sind eine lange Zeit, wenn Sie warten.
  • Ganz zu schweigen von der Verbindung zur Unternehmenssoftware.

D. Die Fakten und Zahlen

Die Quicktext-Lösung besteht also darin, sich für eine hybride Methode zu entscheiden: klassische KI, kombiniert mit generativer KI, beides spezifisch für die Hotelbranche.

Ein wenig Mathematik, um wirklich zu verstehen.

  • ChatGPT in der Hotellerie erzeugt 30% Halluzinationen (dies ist das beobachtete Minimum)
  • 80% der Kundenanfragen sind einfach und benötigen keine generative KI. (Beispiel: Um wie viel Uhr gibt es Frühstück?)

Im Falle einer hybriden KI (wie Q-Brain+) 80% klassisch, 20% generativ, werden nur 20% der Anfragen potenziell Halluzinationen unterliegen. Wenn Sie Ihre KI beherrschen (mit einem eigenen LLM), sinkt der Anteil der Halluzinationen auf weniger als 10%.

Das halluzinatorische Volumen beträgt also 10% x 20% = 2%.

Zusammenfassend lässt sich sagen, dass der Anteil der Halluzinationen bei einem generativen Modell bei etwa 30% liegt, während er bei einem hybriden Modell 2% beträgt.


Kapitel 3. Um nichts zu vergessen

Zusammenfassend lässt sich sagen, dass die Erstellung eines virtuellen Assistenten auf der Grundlage von ChatGPT oder eines gleichwertigen Programms ohne die anderen notwendigen Elemente einer Verurteilung gleichkommt:

  • Keine Beherrschung der Prompts (Fragen),
  • die Blackbox nicht zu beherrschen (generative KI),
  • die Wissensbasis (die Antworten) nicht zu beherrschen.

Wie können wir glauben, dass eine solche Ansammlung von Annäherungen ein relevantes System erzeugen kann?

Gute Nachrichten! Mit der Beantwortung dieser Frage haben Sie gerade den Jackpot geknackt.

Und als ob das noch nicht genug wäre!

Wie lassen sich die folgenden Probleme mit rein generativer KI lösen?

  • Das Konzept der Multi-Property – und Multi-Kriterien-Suche (ich bin neugierig, das zu sehen)
  • Aktualisierung von Daten (insbesondere wenn sie nicht strukturiert sind)
  • Kulturelle Anpassung (und dies ist definitiv keine einfache Übersetzung)
  • Konnektivität mit den APIs von Buchungsmaschinen, PMS, CRM, Aufgabenverwaltung
  • Verwaltung von Benachrichtigungen, wenn menschliche Interaktion erforderlich ist
  • Wiederherstellung von Gesprächsdaten
  • GDPR
  • Etc

Kapitel 4. Doppelte Hybridisierung

Jetzt verstehen Sie, warum Hotelketten und “Experten”, die sich entschlossen haben, ausschließlich den Weg der generativen KI für die Hotellerie zu beschreiten, eine Enttäuschung nach der anderen anhäufen. Die wenigen, die es immer noch nicht wahrhaben wollen, sind diejenigen, die beschlossen haben, die Ergebnisse nicht zu messen. Kein Thermometer, kein Fieber.

Die Lösung liegt also in einer doppelten Hybridisierung.

  • In der Intelligenz: klassisch + generativ
  • Im Bereich Wissen: strukturierte Datenbank + externe Datenquellen (aber in Maßen).

Das ist eine riesige Aufgabe, und wir wissen, wie gewaltig diese Aufgabe ist, da wir seit 7 Jahren daran arbeiten.

Und denken Sie immer daran: Der beste Weg, eine Frage zu beantworten, ist… wenn niemand sie zu stellen braucht.

Denken Sie darüber nach, es wird das Thema eines zukünftigen Artikels sein.

Neueste Beiträge
Sind Sie bereit, Ihre betriebliche Effizienz und Ihre direkten Einnahmen zu steigern?
Abonnieren Sie unseren Newsletter
Lesen Sie mehr
Optimieren Sie die Effizienz Ihres Hotels und Ihre Direktbuchungen
Demo buchen