Med-PaLM superó la nota mínima con un 67,6% de aciertos, lee los escáners mejor que los humanos y se convirtió en el primer dispositivo de inteligencia artificial en promocionar el US Medical Licensing Examination
El chatbot Med-PaLM, una aplicación de inteligencia artificial de Google especializada en medicina, superó el examen que permite ejercer como médico en Estados Unidos, según un artículo publicado este miércoles en la revista especializada Nature que remarcó que pese a superar la marca necesaria, los resultados todavía son inferiores a los de los humanos.
El lanzamiento de ChatGPT de la compañía OpenAI, que tiene el apoyo de Microsoft, rival de Google, abrió el año pasado una carrera entre los gigantes tecnológicos en el campo de la inteligencia artificial.
La atención médica es un área donde la tecnología demostró un progreso concreto con algunos algoritmos que demuestran ser capaces de leer escáneres médicos mejor que los humanos, consignó un despacho de la agencia de noticias AFP.
En este marco, Google presentó una herramienta de inteligencia artificial dedicada a problemas médicos, llamada Med-PaLM, en un artículo en prepublicación en diciembre, aplicación que, a diferencia de ChatGPT, no es accesible al público en general.
En su lanzamiento, Google detalló que Med-PaLM es el primer gran modelo de lenguaje -una técnica de inteligencia artificial entrenada con grandes cantidades de texto producido por humanos- en aprobar el US Medical Licensing Examination (Usmle).
Este examen permite ejercer la medicina en Estados Unidos, para aprobarlo hay que obtener una puntuación de aproximadamente el 60%, el resultado de Med-PaLM fue de 67,6, lo que, según el artículo, son “resultados alentadores, pero aún inferiores a los de los humanos”.