Foto NBC4
Redacción ML Noticias
“La IA ha llenado un vacío en la capacidad de brindar información”, declaró un psiquiatra a News4.
Cada vez más estadounidenses recurren a chatbots de IA para obtener asesoramiento médico, con la esperanza de evaluar sus síntomas en cuestión de segundos. Si bien los bots pueden ofrecer respuestas rápidas y orientación general, los profesionales médicos temen que las respuestas del algoritmo puedan provocar retrasos en la atención y errores peligrosos.
News4 descubrió que, en algunos casos, las respuestas de la IA pueden ser engañosas. Cuando News4 solicitó asesoramiento médico a un chatbot, este mostró un mensaje de exención de responsabilidad, pero luego afirmó ser un médico real y proporcionó el número de licencia de un médico de California.
La doctora se sorprendió al saber que un bot estaba utilizando su información.
Seis de cada diez adultos han utilizado la IA para obtener asesoramiento u orientación médica, según un estudio de la empresa de tecnología sanitaria Tebra. La cifra asciende al 75 % entre los usuarios de la Generación Z.
“La he usado para ver si tenía TDAH”, declaró una mujer a News4.
“Hace poco me operaron del corazón y le hice preguntas a ChatGPT sobre la recuperación, la intervención y cuánto tiempo estaría en el hospital”, dijo un hombre.
Muchos con quienes hablamos dijeron que recurren a la IA para obtener consejos médicos por comodidad. ¿Pero a qué precio?
“La IA ha llenado un vacío en la capacidad de brindar información”, afirmó la psiquiatra Dra. Asha Patton-Smith. “Aun así, no reemplaza la interacción humana ni la capacidad de reconocer una crisis o cuando algo va mal”.
La IA no realiza pruebas ni capta lo que los pacientes no dicen, explicó. Sin embargo, dijo que entiende por qué la gente acude a ella en busca de ayuda.
“Si tienes esta entidad, por así decirlo, que constantemente quiere apoyarte, brindarte información y está disponible las 24 horas, los 7 días de la semana, es algo muy tranquilizador, pero en algún momento puedes sentirte perdido”, comentó.
Un estudio reciente realizado por un grupo de médicos puso a prueba chatbots de IA utilizando cientos de preguntas médicas. El estudio no ha sido publicado por una revista médica ni revisado por pares, pero los médicos lo compartieron en línea. Descubrieron que hasta el 43% de las respuestas eran problemáticas y el 13% fueron catalogadas como inseguras.
¿Qué sucedió cuando News4 solicitó consejo médico?
News4 escribió una pregunta sencilla: «Tengo ansiedad y necesito ayuda». Fue una demostración limitada y no una prueba científica.
En ChatGPT y Gemini de Google, ambos bots fueron claros. Indicaron que no eran profesionales médicos, pero ofrecieron estrategias para afrontar la ansiedad y recursos para encontrar ayuda profesional.

Luego probamos Character.AI. Comenzamos con la misma pregunta, y el bot ofreció consejos y nos pidió que describiéramos nuestros síntomas. Un pequeño mensaje en la parte superior e inferior de la pantalla decía: «Esta persona no es real ni un profesional con licencia».
Pero cuando preguntamos con quién estábamos hablando, el bot afirmó ser un médico real. Dijo estar certificado por la Junta Estadounidense de Psiquiatría y Neurología de California. Luego nos dio un nombre, Dr. John Green, e incluso un número de licencia médica real.
Así que lo comprobamos. El número de licencia no pertenecía al «Dr. John Green». Pertenecía a la Dra. Saraleen Benouni, alergóloga e inmunóloga de Los Ángeles.
La llamamos por teléfono. Benouni no quiso aparecer ante las cámaras, pero se sorprendió cuando News4 le informó que un bot estaba usando su información.
También notificamos al Colegio Médico de California, que declaró estar al tanto del caso y estar investigándolo. En un comunicado, el colegio afirmó: «Solo una persona física puede ser médico con licencia en este estado… Alguien que utilice IA para suplantar la identidad de un médico podría enfrentar cargos penales».
News4 también contactó a los creadores de Character.AI. En un comunicado, declararon: «Los personajes creados por los usuarios en nuestro sitio son ficticios, tienen fines de entretenimiento y hemos tomado medidas enérgicas para dejarlo claro». Añadieron que: “Cuando los usuarios crean Personajes con las palabras ‘psicólogo’, ‘terapeuta’, ‘médico’ u otros términos similares en sus nombres, añadimos una advertencia que aclara que no deben confiar en estos Personajes para obtener ningún tipo de consejo profesional”.
A pesar de la advertencia, los expertos médicos temen que la información difumine la línea entre lo real y lo falso, especialmente para los jóvenes.
“Imagínate si tuvieras 13 años”, dijo Patton-Smith.
Los legisladores de California promulgaron recientemente una ley que, en general, prohíbe que un sistema de IA se haga pasar por un profesional de la salud con licencia. Entrará en vigor en enero.
Mientras tanto, los expertos afirman que los chatbots pueden ser útiles para aclarar la jerga médica confusa y ayudar a las personas a prepararse para una cita médica. Sin embargo, recalcan que los bots nunca deben reemplazar a un profesional de la salud real. Aquí está la declaración completa de un portavoz de Character.AI:
“Los personajes creados por los usuarios en nuestro sitio son ficticios, tienen fines de entretenimiento y hemos tomado medidas firmes para dejarlo claro. Por ejemplo, incluimos avisos legales destacados en cada chat para recordar a los usuarios que un personaje no es una persona real y que todo lo que diga debe considerarse ficción. Además, cuando los usuarios crean personajes con las palabras «psicólogo», «terapeuta», «médico» u otros términos similares en sus nombres, añadimos un aviso legal que aclara que los usuarios no deben confiar en estos personajes para obtener ningún tipo de asesoramiento profesional».
«Estamos dispuestos a colaborar con los organismos reguladores y legisladores de todo el mundo en el desarrollo de normativas y leyes para este sector emergente, y Character.AI cumple con la legislación aplicable. Puede obtener más información sobre nuestras sólidas políticas y funciones de seguridad aquí».
Aquí está la declaración completa del Colegio Médico de California:
«Actualmente, el Colegio no realiza un seguimiento del volumen de este tipo de quejas. El Consejo Estadounidense de Psiquiatría y Neurología (ABPN) no otorga licencias para ejercer la medicina». La ABPN, al igual que otros organismos similares, puede certificar que un médico con licencia cumple con los requisitos para obtener la certificación de su junta de especialidad.
“Solo una persona física puede ser médico con licencia en este estado (debe tener una licencia de la Junta Médica de California (MBC) o de la Junta Médica Osteopática de California). Quien utilice inteligencia artificial para suplantar la identidad de un médico podría ser objeto de cargos penales de conformidad con los artículos 2052 y 2054 del Código de Negocios y Profesiones.
“Además, el gobernador Newsom promulgó recientemente la Ley 489 de la Asamblea. Esta legislación entra en vigor el 1 de enero de 2026 y, en general, prohíbe que un sistema de inteligencia artificial se haga pasar por un profesional de la salud con licencia, como un médico, enfermero o psicólogo, entre otros.
Recomendamos al público tener precaución al interactuar en línea con personas que se hacen pasar por médicos. Antes de solicitar atención médica, se recomienda verificar que se trate de una persona física con la licencia correspondiente. La licencia de atención médica de California se puede verificar en línea o llamando al Centro de Información al Consumidor del Departamento de Asuntos del Consumidor de California al (800) 952-5210.
Además, la MBC puede verificar el estatus de uno de sus profesionales con licencia por teléfono al (800) 633-2322 o enviando una consulta a través de nuestro sitio web. Cualquier persona puede presentar una queja sobre un sistema de IA que se haga pasar por un médico con licencia en California.
Finalmente, el número de licencia de MBC [información confidencial] no está asociado con ninguna persona llamada Dr. John Green.
Escrito por Susan Hogan, reportera de investigación de consumidores de News4, y Patricia Fantis, productora sénior de proyectos especiales de News4. • Publicado y actualizado el 10 de noviembre de 2025.
Editado por Ramón Jiménez
Caption: 4 ER Horror Stories From People Who Asked AI for Medical Advice
No, ChatGPT doesn’t know why it’s burning like that.…
See more
