„GPT-3“ und Alexa
Es gibt keinen Zweifel daran, dass GPT-3, die neueste und leistungsstärkste Version der Natural Language Processing (NLP) Technologie von OpenAI, die Welt der künstlichen Intelligenz revolutioniert hat. Die Wartezeit, um Zugang zu dieser bahnbrechenden Technologie zu erhalten, hat viele Entwickler und Unternehmen dazu veranlasst, ungeduldig darauf zu warten, dass ihre Anwendungen und Projekte durch die Leistungsfähigkeit von GPT-3 unterstützt werden.
Nach über einem Jahr Wartezeit habe ich nun endlich auch Zugriff auf GPT-3 bekommen und konnte mit den Möglichkeiten experimentieren. Interessiert hat mich dabei auch, wie man diese Technologie vielleicht im Zusammenhang mit Alexa nutzen kann.
Unter anderem habe ich GPT-3 dazu benutzt, einen „Alexa APL Chatbot“ zu bauen oder automatisch Anwendungsfallbeschreibungen für Alexa Skills zu generieren. Zu dem zweiten Szenario habe ich einen Artikel auf LinkedIn veröffentlicht.
So sehr ich davon beeindruckt bin, wie man mit GPT-3 korrekt ausehende Strukturen erzeugen kann, so sehr ist bei meinen Experimenten auch deutlich geworden, dass die Semantik der syntaktisch korrekten Sätze in der Regel völlig kaputt ist: Natürlich hat GPT-3 keine Ahnung davon, was es da sagt. Und so kann es dann eben passieren, dass das System schön verpackten Unsinn generiert.
Was für Anwendungsfälle kommen einem für so eine Technologie in den Sinn?
- Eine „Bullshit Bingo“ Matrix mit Inhalt füllen
- Testdaten generieren
- Zufällige Fake-Profile für eine Webseite generieren
- Redemanuskripte für Politiker verfassen
- Massenhaft Inhalt für Honeypot-Webseiten generieren, die wie echte Seiten aussehen, aber eigentlich nur zufällige Texte enthalten.
- Fake Blogs erstellen mit vielen Artikeln zum Beispiel zu einem Thema wie „Alexa“.
- Eine „Inspirationsmaschine“ bauen, die (vielleicht) neue Ansätze und Ideen für bekannte Probleme formuliert.