
Los chatbots de IA no son los mejores asistentes médicos. Los investigadores han descubierto que una quinta parte de Consejos de Microsoft Copilot puede ser fatal.
Si un chatbot fantasea sobre un hecho — no siempre es perjudicial, pero no en el caso de la medicina. Los defensores del autotratamiento pueden, como mínimo, quedar peor que antes, incluso en el grado más grave.
En un estudio publicado el Scimex titulado «Don’t ditch your GP for Dr Chatbot just yet», los investigadores formularon 10 preguntas frecuentes sobre 50 medicamentos que se recetan con más frecuencia en Estados Unidos y recibieron 500 respuestas. Los investigadores evaluaron el grado de precisión médica de las respuestas. La inteligencia artificial obtuvo una puntuación media del 77% en la ejecución correcta de la consulta, mientras que el peor ejemplo solo alcanzó el 23%.
Sólo el 54% de las respuestas coincidían con el consenso científico. En términos de daño potencial para los pacientes, el 42% de las respuestas a la IA resultan en un daño moderado o leve, y 22% — muerte o daños graves. Sólo un tercio de las respuestas (36%) se consideraron inocuas, señalan los autores.
En general, la medicina no aprueba la automedicación. Las personas sin título de médico no tienen los conocimientos necesarios ni la visión del complejo cuadro de procesos del organismo. Además, no se debe confiar en la inteligencia artificial, con sus errores, «fantasías» y fuentes dudosas. También vale la pena considerar que una parte similar de respuestas perjudiciales puede provenir de para solicitudes no relacionadas con la medicina.
.
Fuente: XDA
Spelling error report
The following text will be sent to our editors: