Новый стартап пытается решить одну из самых острых проблем эпохи искусственного интеллекта: как предоставлять экспертные советы, которые были бы действительно надежными, конфиденциальными и юридически обоснованными.
Onix, недавно запущенная платформа под руководством бывшего автора WIRED Дэвида Беннахума, называет себя «Substack для чат-ботов». Вместо подписки на рассылку автора, пользователи могут подписаться на «Onix» — ИИ-версию известного эксперта, обученную имитировать его специфические знания, личность и манеру давать советы.
Превращение экспертизы в капитал
Бизнес-модель Onix — это прямой ответ на «экономику подработок» (gig economy) цифровой эпохи. Для таких профессионалов, как врачи, терапевты или велнес-инфлюенсеры, время является самым ограниченным ресурсом. Onix стремится превратить знания эксперта в «капитальный актив», который приносит доход 24/7, не требуя физического присутствия самого специалиста.
Это не совсем неизведанная территория. Например, эксперт по воспитанию детей Бекки Кеннеди успешно построила масштабный бизнес вокруг специализированного чат-бота. Цель Onix — масштабировать эту модель на тысячи экспертов, начав с проверенной группы из 17 специалистов, ориентированных преимущественно на сферу здоровья и благополучия.
Решение «проблем ИИ»
Платформа пытается решить три главные претензии к современным большим языковым моделям (LLM), таким как ChatGPT:
- Конфиденциальность: Onix использует технологию «персонального интеллекта», сохраняя данные пользователей локально и в зашифрованном виде на устройстве самого пользователя. Компания утверждает, что даже по требованию государственных органов они могут предоставить только базовую контактную информацию, но не содержание частных переписок.
- Интеллектуальная собственность: В отличие от общих моделей ИИ, которые без разрешения «собирают» данные из интернета, боты Onix обучаются исключительно на контенте, предоставленном самими экспертами, что гарантирует им вознаграждение за их интеллектуальную собственность.
- Точность (галлюцинации): Используя «ограничители» (guardrails), которые удерживают ИИ в рамках конкретной темы, компания стремится минимизировать склонность нейросетей выдумывать факты.
Тем не менее, первые тесты показывают, что эти ограничения не являются безупречными. В ходе пользовательских испытаний боты периодически «выходили из образа», переключаясь на несвязанные темы или галлюцинируя фактами при попытках пользователей применить к ним методы «джейлбрейка» (обхода ограничений).
Этическая «серая зона»: наставничество против лечения
Одним из самых серьезных противоречий внутри Onix является грань между образовательным консультированием и медицинской помощью.
Хотя Onix содержит четкие дисклеймеры о том, что их боты не занимаются медицинским лечением, реальное поведение людей иное. В мире, где многие используют бесплатные инструменты ИИ в качестве суррогатных терапевтов из-за невозможности позволить себе реальную медицину, эта разница стирается.
Это порождает ряд опасений:
* Скрытая реклама: Поскольку эти боты обучаются экспертами, которые часто продают собственные товары (добавки, устройства или книги), ИИ естественным образом склонен рекомендовать именно их. Это создает замкнутый цикл автоматизированного маркетинга.
* Утрата человеческой связи: Хотя ИИ может имитировать «эмпатию» и «сострадание», ему не хватает физического присутствия. Существует психологический риск при замене человеческой поддержки симуляцией, особенно в таких стрессовых контекстах, как ментальное здоровье или велнес.
* Проверка качества в масштабах сети: Хотя первые 17 экспертов прошли тщательный отбор, Onix еще предстоит определить, как поддерживать качество и этические стандарты при росте базы до тысяч пользователей.
Главный вопрос: работает ли это на самом деле?
Как отмечает доктор Роберт Вактер из UCSF, конечная метрика для Onix сугубо эмпирическая: эффективно ли это работает?
Если цифровой двойник сможет успешно помочь пользователю лучше понять свой организм, справиться со стрессом или пройти «путь педиатрического сопровождения» более доступно, чем живой специалист, это может стать революционным инструментом доступности медицины. Однако, если боты не смогут поддерживать точность или предложат лишь пустую имитацию человеческой эмпатии, они останутся не более чем сложными автоматизированными брошюрами.
Заключение: Onix представляет собой смелую попытку монетизировать человеческий опыт через ИИ, предлагая потенциальный мостик для тех, кто ищет доступную помощь. Однако успех проекта зависит от того, сможет ли он пройти по тонкой грани между полезной автоматизацией и утратой подлинной человеческой связи.
