El «chatbot» Med-PaLM, una aplicación de inteligencia artificial de Google especializada en medicina, superó el examen que permite ejercer como médico en Estados Unidos aunque sus resultados todavía son inferiores a los de los humanos, según un estudio publicado el miércoles en Nature.
El lanzamiento de ChatGPT de la compañía OpenAI, que tiene el apoyo de Microsoft, rival de Google, abrió el año pasado una carrera entre los gigantes tecnológicos en el campo de la inteligencia artificial.
La atención médica es un área donde la tecnología ya ha mostrado un progreso tangible, con algunos algoritmos que demuestran ser capaces de leer escáneres médicos mejor que los humanos.
Google había presentado su herramienta de inteligencia artificial dedicada a problemas médicos, llamada Med-PaLM, en un artículo en prepublicación en diciembre.
A diferencia de ChatGPT, el sistema no es accesible al público en general.
Google afirma que Med-PaLM es el primer gran modelo de lenguaje -una técnica de inteligencia artificial entrenada con grandes cantidades de texto producido por humanos- en aprobar el US Medical Licensing Examination (USMLE).
Este examen permite ejercer la medicina en Estados Unidos y hay que obtener una puntuación de aproximadamente el 60%.
Un estudio reveló en febrero que ChatGPT había obtenido resultados bastante satisfactorios en el examen.
En un nuevo estudio revisado por pares publicado el miércoles en la revista Nature, los investigadores de Google dijeron que Med-PaLM logró el 67,6% de resultados correctos en las preguntas de opción múltiple de USMLE.
Unos resultados «alentadores, pero aún inferiores a los de los humanos», dice el estudio.