El caso de MEDVi expone el lado oscuro del boom de la inteligencia artificial: crecimiento explosivo, automatización extrema y prácticas cuestionables. Desde perfiles médicos falsos hasta advertencias regulatorias, el modelo pone en debate los límites éticos y legales de la IA en salud.
La promesa de la inteligencia artificial como motor de nuevas empresas “unipersonales” encontró en MEDVi un caso emblemático… y también polémico. La startup de telemedicina fundada por Matthew Gallagher, un emprendedor de 41 años basado en Los Ángeles, logró facturar U$S 401 millones en 2025 con apenas U$S 20.000 de inversión inicial, apoyado en herramientas de IA. Para 2026, proyecta ingresos por U$S 1.800 millones.
El relato, impulsado inicialmente por The New York Times, parecía confirmar una narrativa cada vez más instalada en Silicon Valley: que la IA permite crear compañías multimillonarias con estructuras mínimas. Sin embargo, nuevos datos revelan un panorama mucho más complejo.
Marketing automatizado… con médicos que no existen
Uno de los pilares del crecimiento de MEDVi fue una agresiva estrategia de marketing digital basada en redes sociales. Según se conoció, la empresa creó más de 800 perfiles falsos en Facebook que simulaban ser médicos reales.
Nombres como “Dr. Daniel Foster”, “Dr. Jacob L. Chandler” o “Dr. Alistair Whitmore” eran, en realidad, identidades generadas por IA, con imágenes sintéticas utilizadas para generar confianza en potenciales pacientes, principalmente mujeres de entre 35 y 55 años interesadas en tratamientos para adelgazar.
El propio sitio web de MEDVi también incluía imágenes generadas por IA y referencias a medios como Bloomberg o The Times, sugiriendo cobertura editorial que en realidad correspondía a publicidad.
La advertencia de la FDA y los límites regulatorios
El 20 de febrero de 2026, la Food and Drug Administration (FDA) envió a MEDVi una carta de advertencia (número #721455), en el marco de un conjunto de comunicaciones dirigidas a 30 empresas de telemedicina.
El organismo identificó dos problemas clave. Por un lado, la empresa utilizaba la etiqueta “MEDVi” en sus productos, lo que podía inducir a pensar que era fabricante de los medicamentos, cuando en realidad actuaba como intermediario. Por otro, frases como “mismo principio activo que Wegovy® y Ozempic®” podían llevar a los consumidores a creer que los productos contaban con aprobación regulatoria.
La FDA aclaró que los medicamentos compuestos comercializados por MEDVi no pasan por el mismo proceso de evaluación que los fármacos aprobados.
Un producto cuestionado
El negocio de MEDVi se apoyaba en la venta de tirzepatida oral compuesta, un tratamiento que no cuenta con aprobación de la FDA. A diferencia de otros medicamentos GLP-1, la variante oral requiere condiciones específicas de absorción y no existe evidencia validada sobre su efectividad en este formato.
Laboratorios como Eli Lilly ya habían advertido sobre este tipo de productos e incluso iniciaron acciones legales para frenar su comercialización. En paralelo, pacientes iniciaron demandas contra varias empresas de telemedicina por vender lo que califican como “aceite de serpiente”.
Brechas de seguridad y datos expuestos
A los cuestionamientos comerciales y regulatorios se suma un incidente crítico en materia de seguridad. MEDVi terceriza su infraestructura médica en OpenLoop Health, una plataforma que gestiona médicos, farmacias y cumplimiento normativo.
En enero de 2026, un ciberataque comprometió datos de aproximadamente 1,6 millones de pacientes, incluyendo información sensible como nombres, fechas de nacimiento y registros médicos. La empresa confirmó que al menos 68.000 afectados correspondían al estado de Texas.
Crecimiento acelerado y prácticas bajo investigación
El crecimiento inicial de MEDVi también enfrenta cuestionamientos legales. La compañía fue demandada en California por presuntas violaciones a leyes anti-spam, utilizando técnicas de marketing afiliado con información falsificada y dominios suplantados para evadir filtros.
Gallagher había señalado que el lanzamiento de la empresa implicó apenas U$S 20.000 en software y marketing inicial. Sin embargo, no está claro cuánto de ese crecimiento se apoyó en prácticas hoy bajo investigación.
El debate de fondo: IA, escala y ética
El caso MEDVi refleja una tensión central en la nueva economía de la inteligencia artificial. Por un lado, demuestra el potencial de la tecnología para escalar negocios de forma inédita. Por otro, expone los riesgos de operar en sectores sensibles como la salud sin controles adecuados.
La historia que parecía validar el modelo de startups “unipersonales” impulsadas por IA ahora plantea preguntas más profundas: ¿qué sucede cuando la automatización se combina con prácticas engañosas? ¿Y cómo deben responder los reguladores ante modelos de negocio que escalan más rápido que la supervisión?
En un contexto donde la IA redefine industrias enteras, MEDVi se convierte en un caso testigo: no solo de lo que es posible construir, sino también de los límites que la tecnología aún no puede —ni debería— cruzar.

