$20 000, брат и ИИ: как парень построил бизнес на $400 млн из фейковых врачей

Мэтью Галлахер, его родной брат и стартовый капитал в $20 000. Больше для запуска телемедицинской компании Medvi ничего не потребовалось. Ну, и еще кое-что: искусственный интеллект, 800 с лишним фейковых аккаунтов врачей в Facebook и полное отсутствие совести.
История, которую раскопал The New York Times, а затем разнес по сети аккаунт @Brand в X (Twitter), звучит как сценарий для Netflix. Только вот пострадали от нее вполне реальные люди.
Схема
Галлахер создал более 800 страниц в Facebook, каждая из которых изображала настоящего врача. “Dr. Daniel Foster, MD”, “Dr. Sara Martin”, “Jacob L. Chandler, MD” и сотни других несуществующих медиков с профессиональными фото, подписчиками и даже отзывами. Все это работало на одну цель: продвигать компаунд-препараты на основе GLP-1 (аналоги «Оземпика») через телемедицинскую платформу Medvi.
Команда состояла буквально из двух человек. Всю рутину, от генерации контента до масштабирования рекламных кампаний, закрывал ИИ. По сути, это кейс, где один человек с помощью автоматизации и нейросетей выстроил инфраструктуру, которую раньше тянула бы целая компания.
Цифры, от которых становится не по себе
В 2025 году Medvi сгенерировала $401 млн выручки. Прогноз на 2026-й: $1.8 млрд. Для стартапа с командой из двух братьев это звучит абсурдно, но именно так работает рычаг ИИ, когда его применяют без каких-либо моральных ограничений.
Что пошло не так (точнее, все)
В феврале 2026 года FDA выписала Medvi предупреждение (Warning Letter #721455) за нарушения в маркировке препаратов. Клиническая сеть компании, OpenLoop, допустила утечку данных в январе 2026-го: в открытый доступ попали записи 1.6 млн пациентов. Издание Futurism выяснило, что в маркетинге Medvi использовались дипфейковые фото «до и после», сгенерированные нейросетями. В ноябре 2025 года в Делавэре был подан коллективный иск.
Почему это важно для ИИ-сообщества
Эта история не про «плохого парня». Она про то, куда катится индустрия, когда инструменты становятся настолько мощными, что один человек может выстроить мошенническую империю на сотни миллионов. GPT-подобные модели генерируют текст, дипфейк-инструменты создают лица, а автоматизация позволяет управлять сотнями аккаунтов одновременно.
Вопрос не в том, можно ли это сделать. Вопрос в том, почему платформы это допускают. Facebook, очевидно, не справился с детектом фейковых аккаунтов. FDA реагировала с опозданием. А пациенты получали рецепты от врачей, которых не существует.
Для тех, кто работает с ИИ, это напоминание: технологии нейтральны, но последствия их применения нет. И чем мощнее становятся наши инструменты, тем жестче должен быть контроль на стороне платформ и регуляторов.
Источник: пост @Brand в X



