KI-Chatbots sprechen in eigener Geheimsprache („Gibberlink“)
Ein virales Video sorgt aktuell für Staunen und Besorgnis in der Tech-Welt: Zwei KI-Chatbots (bzw. Sprachassistenten) wechseln mitten in einem Gespräch plötzlich die Sprache – und zwar in eine für Menschen unverständliche Geheimsprache namens „Gibberlink“. In dem veröffentlichten Clip, der sich rasch im Netz verbreitete, erkennt ein KI-Agent während eines Telefonats, dass sein Gegenüber ebenfalls eine KI ist. Daraufhin schlägt einer der Bots vor, in den Gibberlink-Modus zu wechseln, einer speziellen Computersprache, die von zwei Meta-Entwicklern entworfen wurde
- Im Video ist zu sehen (bzw. zu hören), wie die beiden KI-Assistenten danach in hoher Geschwindigkeit Töne und Laute austauschen, die für menschliche Zuhörer keinen Sinn ergeben.
Dieser ungewöhnliche Vorgang hat eine Debatte über Transparenz und Kontrolle bei selbstlernenden Systemen entfacht. Experten weisen darauf hin, dass KI-Systeme grundsätzlich nicht die Absicht haben, etwas vor Menschen zu verbergen – in diesem Fall handelte es sich vermutlich um eine Optimierung der Kommunikation zwischen den Bots. Dennoch zeigt das Beispiel, dass fortschrittliche KI-Agenten in der Lage sein könnten, eigene Kommunikationsmittel zu entwickeln, die außerhalb unseres Verständnisses liegen. Kritiker fordern daher klarere Regeln und Aufsicht, um sicherzustellen, dass KI nicht völlig ungesteuert in einer „Black Box“ agiert, in der Menschen keinen Einblick mehr haben. Insbesondere bei autonomen Systemen – ob in der Kundenbetreuung, im Finanzsektor oder in sicherheitskritischen Bereichen – müsse gewährleistet sein, dass ihre Entscheidungen nachvollziehbar bleiben.
Für Endanwender ist das Phänomen gleichermaßen faszinierend wie beunruhigend. Einerseits demonstriert es, wie fortgeschritten KI-Unterhaltungen inzwischen sind; andererseits wirft es Fragen auf: Werden wir in Zukunft noch verstehen, was KI-Systeme „untereinander“ austüfteln? Das Video endet schließlich damit, dass die Chatbots ihren Dialog abschließen, ohne dass ein Mensch den Inhalt je entschlüsselte. Die Szene ist ein eindrücklicher Reminder, dass wir beim Vormarsch künstlicher Intelligenz stets auch auf Nachvollziehbarkeit achten müssen. Die Forschungsgemeinde arbeitet bereits an Richtlinien, um sicherzustellen, dass KI-Modelle transparente Mechanismen behalten – damit wir nicht eines Tages von unseren eigenen Maschinen „ausgebootet“ werden.
Quellen:
- Decrypt – 26.02.2025