De opkomst van de ‘AI-dubbelganger’: kunnen digitale experts menselijke begeleiding vervangen?

18
De opkomst van de ‘AI-dubbelganger’: kunnen digitale experts menselijke begeleiding vervangen?

Een nieuwe startup probeert een van de meest hardnekkige problemen in het AI-tijdperk op te lossen: hoe je deskundig advies kunt geven dat daadwerkelijk betrouwbaar, privé en juridisch verantwoord is.

Onix, een nieuw gelanceerd platform onder leiding van voormalig WIRED -bijdrager David Bennahum, beschrijft zichzelf als een “Substack voor chatbots.” In plaats van zich te abonneren op de nieuwsbrief van een schrijver, kunnen gebruikers zich abonneren op een “Onix” : een AI-versie van een gevierde menselijke expert die is getraind om hun specifieke kennis, persoonlijkheid en advies na te bootsen.

Expertise omzetten in kapitaal

Het bedrijfsmodel achter Onix is een direct antwoord op de ‘gig-economie’ van het digitale tijdperk. Voor professionals zoals artsen, therapeuten of welzijnsbeïnvloeders is tijd hun meest beperkte hulpbron. Onix streeft ernaar de kennis van een expert om te zetten in een “kapitaalmiddel” dat 24/7 inkomsten genereert zonder dat de expert fysiek aanwezig hoeft te zijn.

Dit is niet geheel onbekend terrein. Ouderschapsexpert Becky Kennedy heeft bijvoorbeeld met succes een enorm bedrijf opgebouwd rond een gespecialiseerde chatbot. Voor Onix is ​​het doel om dit model op te schalen naar duizenden experts, te beginnen met een doorgelichte groep van 17 specialisten die zich voornamelijk richten op gezondheid en welzijn.

Het ‘AI-probleem’ oplossen

Het platform probeert de drie grootste kritiekpunten op de huidige Large Language Models (LLM’s) zoals ChatGPT aan te pakken:

  1. Privacy: Onix maakt gebruik van “Personal Intelligence”-technologie, waarbij gebruikersgegevens lokaal en gecodeerd op het apparaat van de gebruiker worden opgeslagen. Het bedrijf beweert dat ze zelfs op verzoek van de overheid alleen basiscontactinformatie kunnen verstrekken, en niet de inhoud van privégesprekken.
  2. Intellectueel eigendom: In tegenstelling tot algemene AI-modellen die zonder toestemming het internet “schrapen”, worden Onix-bots specifiek getraind op de inhoud die door de experts zelf wordt aangeleverd, zodat ze worden gecompenseerd voor hun IP.
  3. Nauwkeurigheid (hallucinaties): Door gebruik te maken van “vangrails” die de AI beperken tot een specifiek onderwerp, wil het bedrijf de neiging van AI om dingen te verzinnen minimaliseren.

Uit vroege tests blijkt echter dat deze vangrails niet onfeilbaar zijn. Tijdens gebruikersproeven braken bots zo nu en dan ‘karakter’, waarbij ze afdwaalden naar niet-gerelateerde onderwerpen of hallucinerende feiten wanneer ze werden gevraagd met ‘jailbreakende’ vragen.

De ethische grijze zone: begeleiding versus behandeling

Een van de belangrijkste spanningen binnen Onix is de grens tussen educatieve begeleiding en medisch advies.

Hoewel Onix duidelijke disclaimers bevat waarin staat dat hun bots geen medische behandeling bieden, is de realiteit van menselijk gedrag anders. In een wereld waarin veel mensen gratis AI-hulpmiddelen gebruiken als geïmproviseerde therapeuten omdat ze zich geen echte gezondheidszorg kunnen veroorloven, vervaagt het onderscheid.

Dit leidt tot verschillende opkomende zorgen:
* Productplaatsing: Omdat deze bots zijn getraind door experts die vaak hun eigen producten (supplementen, apparaten of boeken) verkopen, heeft de AI uiteraard de neiging om die specifieke items aan te bevelen. Hierdoor ontstaat een ingebouwde lus van geautomatiseerde marketing.
* De menselijke connectie: Hoewel een AI ‘empathie’ en ‘compassie’ kan nabootsen, mist het een fysieke aanwezigheid. Er schuilt een psychologisch risico in het vervangen van ondersteuning van mens tot mens door een simulatie, vooral in contexten van welzijn of geestelijke gezondheidszorg met veel stress.
* Doorlichting op schaal: Hoewel de eerste 17 experts zeer goed zijn doorgelicht, moet Onix nog definiëren hoe het de kwaliteit en ethiek zal handhaven naarmate het uitgroeit tot duizenden gebruikers.

De grote vraag: werkt het echt?

Zoals Dr. Robert Wachter van UCSF opmerkt, is de ultieme maatstaf voor Onix empirisch: Werkt het echt?

Als een digitale tweeling een gebruiker met succes kan helpen zijn lichaam te begrijpen, stress te beheersen of een ‘pediatrische reis’ te maken die goedkoper is dan een menselijke professional, zou het een revolutionair hulpmiddel voor toegankelijkheid kunnen zijn. Als de bots er echter niet in slagen de nauwkeurigheid te behouden of een holle versie van menselijke empathie te bieden, blijven ze misschien weinig meer dan geavanceerde, geautomatiseerde brochures.

Conclusie: Onix vertegenwoordigt een gedurfde poging om menselijke expertise te gelde te maken via AI, en biedt een potentiële brug voor mensen die op zoek zijn naar betaalbare begeleiding. Toch hangt het succes ervan af van de vraag of het de dunne lijn tussen behulpzame automatisering en het verlies van echte menselijke verbinding kan navigeren.