Ein neues Startup versucht, eines der hartnäckigsten Probleme im KI-Zeitalter zu lösen: Wie kann man fachkundige Beratung anbieten, die tatsächlich vertrauenswürdig, vertraulich und rechtlich fundiert ist?
Onix, eine neu gestartete Plattform unter der Leitung des ehemaligen WIRED -Mitarbeiters David Bennahum, beschreibt sich selbst als „Substack für Chatbots“. Anstatt den Newsletter eines Autors zu abonnieren, können Benutzer einen „Onix“ abonnieren – eine KI-Version eines gefeierten menschlichen Experten, der darauf trainiert ist, sein spezifisches Wissen, seine Persönlichkeit und seinen Rat nachzuahmen.
Fachwissen in Kapital verwandeln
Das Geschäftsmodell hinter Onix ist eine direkte Antwort auf die „Gig Economy“ des digitalen Zeitalters. Für Fachkräfte wie Ärzte, Therapeuten oder Wellness-Influencer ist Zeit die begrenzteste Ressource. Onix zielt darauf ab, das Wissen eines Experten in einen „Kapitalwert“** umzuwandeln, der rund um die Uhr Einnahmen generiert, ohne dass der Experte physisch anwesend sein muss.
Das ist kein völliges Neuland. Beispielsweise hat die Erziehungsexpertin Becky Kennedy erfolgreich ein riesiges Geschäft rund um einen spezialisierten Chatbot aufgebaut. Für Onix besteht das Ziel darin, dieses Modell auf Tausende von Experten auszuweiten, beginnend mit einer geprüften Gruppe von 17 Spezialisten, die sich hauptsächlich auf Gesundheit und Wohlbefinden konzentrieren.
Das „KI-Problem“ lösen
Die Plattform versucht, die drei größten Kritikpunkte an aktuellen Large Language Models (LLMs) wie ChatGPT anzusprechen:
- Datenschutz: Onix nutzt die „Personal Intelligence“-Technologie und speichert Benutzerdaten lokal und verschlüsselt auf dem Gerät des Benutzers. Das Unternehmen behauptet, dass es selbst bei staatlicher Aufforderung nur grundlegende Kontaktinformationen bereitstellen könne, nicht jedoch den Inhalt privater Gespräche.
- Geistiges Eigentum: Im Gegensatz zu allgemeinen KI-Modellen, die das Internet ohne Erlaubnis „scrapen“, werden Onix-Bots speziell auf die von den Experten selbst bereitgestellten Inhalte trainiert, um sicherzustellen, dass sie für ihr geistiges Eigentum entschädigt werden.
- Genauigkeit (Halluzinationen): Durch die Verwendung von „Leitplanken“, die die KI auf ein bestimmtes Thema beschränken, möchte das Unternehmen die Tendenz der KI, Dinge zu erfinden, minimieren.
Erste Tests deuten jedoch darauf hin, dass diese Leitplanken nicht narrensicher sind. Bei Benutzertests brachen Bots gelegentlich „den Charakter“ ab, drifteten in Themen ab, die nichts miteinander zu tun hatten, oder halluzinierten Fakten, wenn sie mit „gefängnisbrechenden“ Fragen dazu aufgefordert wurden.
Die ethische Grauzone: Beratung vs. Behandlung
Eine der bedeutendsten Spannungen innerhalb von Onix ist die Grenze zwischen pädagogischer Beratung und medizinischer Beratung.
Während Onix klare Haftungsausschlüsse enthält, in denen es heißt, dass seine Bots keine medizinische Behandlung anbieten, sieht die Realität des menschlichen Verhaltens anders aus. In einer Welt, in der viele Menschen kostenlose KI-Tools als provisorische Therapeuten nutzen, weil sie sich keine echte Gesundheitsversorgung leisten können, verschwimmt die Unterscheidung.
Dies führt zu mehreren aufkommenden Bedenken:
* Produktplatzierung: Da diese Bots von Experten trainiert werden, die oft ihre eigenen Produkte (Nahrungsergänzungsmittel, Geräte oder Bücher) verkaufen, tendiert die KI natürlich dazu, diese spezifischen Artikel zu empfehlen. Dadurch entsteht eine integrierte Schleife des automatisierten Marketings.
* Die menschliche Verbindung: Während eine KI „Empathie“ und „Mitgefühl“ nachahmen kann, fehlt ihr eine physische Präsenz. Es birgt ein psychologisches Risiko, die Unterstützung von Mensch zu Mensch durch eine Simulation zu ersetzen, insbesondere in Kontexten mit hoher Belastung für das Wohlbefinden oder die psychische Gesundheit.
* Prüfung im großen Maßstab: Während die ersten 17 Experten streng geprüft sind, muss Onix noch definieren, wie es Qualität und Ethik aufrechterhalten wird, während das Unternehmen auf Tausende von Benutzern anwächst.
Die große Frage: Funktioniert es tatsächlich?
Wie Dr. Robert Wachter von der UCSF betont, ist die ultimative Metrik für Onix empirisch: Funktioniert es tatsächlich?
Wenn ein digitaler Zwilling einem Benutzer erfolgreich helfen kann, seinen Körper zu verstehen, mit Stress umzugehen oder eine „pädiatrische Reise“ kostengünstiger zu bewältigen als ein menschlicher Fachmann, könnte er ein revolutionäres Werkzeug für Barrierefreiheit sein. Wenn es den Bots jedoch nicht gelingt, die Genauigkeit aufrechtzuerhalten oder eine hohle Version menschlicher Empathie zu vermitteln, bleiben sie möglicherweise kaum mehr als ausgefeilte, automatisierte Broschüren.
Schlussfolgerung: Onix stellt einen mutigen Versuch dar, menschliches Fachwissen durch KI zu monetarisieren, und bietet eine potenzielle Brücke für diejenigen, die erschwingliche Beratung suchen. Doch sein Erfolg hängt davon ab, ob es den schmalen Grat zwischen hilfreicher Automatisierung und dem Verlust echter menschlicher Verbindung überwinden kann.





























