Une nouvelle startup tente de résoudre l’un des problèmes les plus persistants de l’ère de l’IA : comment fournir des conseils d’experts réellement dignes de confiance, privés et juridiquement valables.
Onix, une plateforme récemment lancée et dirigée par David Bennahum, ancien contributeur de WIRED, se décrit comme une « sous-stack pour les chatbots ». Au lieu de s’abonner à la newsletter d’un écrivain, les utilisateurs peuvent s’abonner à un “Onix”, une version IA d’un célèbre expert humain formé pour imiter ses connaissances, sa personnalité et ses conseils spécifiques.
Transformer l’expertise en capital
Le modèle économique derrière Onix est une réponse directe à la « gig economy » de l’ère numérique. Pour les professionnels comme les médecins, les thérapeutes ou les influenceurs du bien-être, le temps est la ressource la plus limitée. Onix vise à transformer les connaissances d’un expert en un “actif capital” qui génère des revenus 24h/24 et 7j/7 sans que l’expert ait besoin d’être physiquement présent.
Ce n’est pas un territoire entièrement inconnu. Par exemple, l’experte en parentalité Becky Kennedy a réussi à bâtir une entreprise massive autour d’un chatbot spécialisé. Pour Onix, l’objectif est d’étendre ce modèle à des milliers d’experts, en commençant par un groupe sélectionné de 17 spécialistes axés principalement sur la santé et le bien-être.
Résoudre le « problème de l’IA »
La plateforme tente de répondre aux trois plus grandes critiques des grands modèles linguistiques (LLM) actuels comme ChatGPT :
- Confidentialité : Onix utilise la technologie « Personal Intelligence », stockant les données utilisateur localement et cryptées sur l’appareil de l’utilisateur. L’entreprise affirme que même à la demande du gouvernement, elle ne peut fournir que des informations de contact de base, et non le contenu des conversations privées.
- Propriété intellectuelle : Contrairement aux modèles d’IA généraux qui « grattent » Internet sans autorisation, les robots Onix sont formés spécifiquement sur le contenu fourni par les experts eux-mêmes, garantissant ainsi qu’ils sont rémunérés pour leur propriété intellectuelle.
- Précision (Hallucinations) : En utilisant des « garde-fous » qui limitent l’IA à un sujet spécifique, l’entreprise vise à minimiser la tendance de l’IA à inventer des choses.
Cependant, les premiers tests suggèrent que ces garde-corps ne sont pas infaillibles. Au cours des essais utilisateur, les robots ont parfois « brisé le caractère », dérivant vers des sujets sans rapport ou des faits hallucinants lorsqu’on leur a posé des questions de « jailbreak ».
La zone grise éthique : orientation ou traitement
L’une des tensions les plus importantes au sein d’Onix est la frontière entre l’orientation pédagogique et les conseils médicaux.
Même si Onix inclut des avertissements clairs indiquant que leurs robots ne fournissent pas de soins médicaux, la réalité du comportement humain est différente. Dans un monde où de nombreuses personnes utilisent des outils d’IA gratuits comme thérapeutes de fortune parce qu’elles ne peuvent pas se permettre de véritables soins de santé, la distinction devient floue.
Cela conduit à plusieurs préoccupations émergentes :
* Placement de produits : Étant donné que ces robots sont formés par des experts qui vendent souvent leurs propres produits (suppléments, appareils ou livres), l’IA a naturellement tendance à recommander ces articles spécifiques. Cela crée une boucle intégrée de marketing automatisé.
* La connexion humaine : Même si une IA peut imiter « l’empathie » et la « compassion », elle n’a pas de présence physique. Il existe un risque psychologique à remplacer le soutien interhumain par une simulation, en particulier dans des contextes de bien-être ou de santé mentale très stressants.
* Vérification à grande échelle : Bien que les 17 experts initiaux soient hautement sélectionnés, Onix n’a pas encore défini comment il maintiendra la qualité et l’éthique à mesure qu’il grandit pour inclure des milliers d’utilisateurs.
La grande question : est-ce que ça marche vraiment ?
Comme le souligne le Dr Robert Wachter de l’UCSF, la mesure ultime pour Onix est empirique : Est-ce que ça marche réellement ?
Si un jumeau numérique peut aider un utilisateur à comprendre son corps, à gérer son stress ou à suivre un « voyage pédiatrique » à un prix plus abordable qu’un professionnel humain, il pourrait s’agir d’un outil révolutionnaire en matière d’accessibilité. Cependant, si les robots ne parviennent pas à maintenir la précision ou à fournir une version creuse de l’empathie humaine, ils risquent de ne rester que des brochures sophistiquées et automatisées.
Conclusion : Onix représente une tentative audacieuse de monétiser l’expertise humaine grâce à l’IA, offrant un pont potentiel pour ceux qui recherchent des conseils abordables. Pourtant, son succès dépend de sa capacité à franchir la frontière ténue entre une automatisation utile et la perte d’un véritable lien humain.




























