Introducción
La Administración de Alimentos y Medicamentos de Estados Unidos (FDA) ha implementado recientemente una herramienta de inteligencia artificial (IA) conocida como Elsa, en un intento por optimizar su funcionamiento interno. Sin embargo, los resultados iniciales de su uso han generado preocupación entre los empleados de la agencia, quienes la consideran apresurada y poco confiable. Este artículo examina las implicaciones de esta situación, especialmente en el contexto del mercado europeo y español, donde la regulación de tecnologías emergentes es fundamental.

Desarrollo de Elsa y sus objetivos
Elsa es un modelo de lenguaje de gran tamaño (LLM) diseñado para asistir a los empleados de la FDA en diversas tareas, desde la revisión de protocolos clínicos hasta la identificación de objetivos de inspección prioritarios. En su anuncio, la FDA destacó que esta herramienta podría resumir eventos adversos, realizar comparaciones de etiquetas más rápidas y generar código para ayudar en el desarrollo de bases de datos para aplicaciones no clínicas [4].

Rápida implementación y expectativas
La FDA lanzó Elsa semanas antes de lo previsto, lo que fue celebrado por el comisionado de la agencia, Marty Makary. Según Makary, la herramienta se implementó dentro de un presupuesto ajustado y con la colaboración de expertos internos [2]. Sin embargo, esta rapidez ha suscitado críticas sobre la eficacia y precisión de la herramienta.

Problemas reportados con Elsa
A pesar de las expectativas iniciales, los empleados de la FDA han reportado que Elsa presenta numerosos errores y limitaciones. En pruebas recientes, se descubrió que la herramienta proporcionaba resúmenes incorrectos sobre productos aprobados por la FDA y otros datos públicos [1]. Además, los empleados han expresado que las capacidades de Elsa han sido exageradas por la dirección de la agencia, sugiriendo que debería ser utilizada exclusivamente para tareas administrativas y no científicas.
Reacciones del personal y preocupaciones éticas
El personal ha manifestado su preocupación por la falta de políticas adecuadas para el uso de la IA, lo que podría llevar a decisiones erróneas en un ámbito tan crítico como la salud pública. Un empleado señaló que "no estoy seguro de que en su prisa por lanzar la herramienta, alguien esté pensando en la política y el uso" [1].
Implicaciones para el mercado europeo y español
La situación de la FDA con Elsa plantea interrogantes sobre la adopción de herramientas de IA en el ámbito regulatorio europeo y español. Con el creciente interés en la IA y sus aplicaciones en la salud y otros sectores, es crucial que las agencias reguladoras europeas aprendan de estos errores. La implementación de tecnologías emergentes debe ir acompañada de evaluaciones exhaustivas y una planificación cuidadosa para evitar problemas similares en Europa, donde los estándares de regulación son estrictos.
Conclusión
La implementación de Elsa en la FDA subraya la importancia de un enfoque cauteloso y bien fundamentado en la adopción de inteligencia artificial en el sector público. Aunque la IA tiene el potencial de transformar la eficiencia operativa, su aplicación apresurada puede resultar en consecuencias graves, especialmente en campos que afectan la salud y la seguridad pública. La experiencia de la FDA debe servir de lección para otras agencias, tanto en España como en el resto de Europa, en la búsqueda de un balance entre innovación y responsabilidad.
Fuentes
- [1] FDA's AI tool for medical devices struggles with simple tasks - NBC News
- [2] FDA rolls out AI tool agency-wide, weeks ahead of schedule - STAT
- [3] FDA's early AI debut sparks questions - POLITICO
- [4] FDA Launches Agency-Wide AI Tool to Optimize Performance for the American People
- [5] FDA launches agency-wide AI tool 'Elsa' ahead of schedule
Sobre la autora
El autor de este artículo es Martina Torres, una reportera sénior de noticias internacionales para ElPulsoGlobal especializada en asuntos globales y política internacional.