Visitas: 7
La sesión del Instituto Colombiano de Estudios Bioéticos-ICEB y la Academia Nacional de Medicina denominada “Inteligencia artificial, salud y bioética. Una realidad inminente” fue dirigida por el Dr. Ricardo Andrés Roa-Castellanos, director del ICEB, quien esbozó la historia de la Inteligencia Artificial (IA) cuyas raíces se remontan a los años 50, cuando Alan Turing propuso un test para evaluar la “inteligencia” de las máquinas. Durante este período posguerra, se comenzaron a explorar las interacciones entre humanos y máquinas, alimentadas por la ciencia ficción y los avances tecnológicos. Estos desarrollos impulsaron la simplificación y optimización de los procesos informáticos, y en los años 80, la tecnología informática comenzó a tener una presencia significativa en varios países.
En la década de los 2000, el campo del Machine Learning o aprendizaje automático ganó relevancia, permitiendo avances significativos en el procesamiento de datos y la interacción con las máquinas. La proliferación del internet y la necesidad de procesos más eficientes impulsaron aún más estos desarrollos, llevándonos a una era en la que la IA se ha convertido en una herramienta para diversas aplicaciones, incluyendo la medicina y la telemedicina. Sin embargo, este avance también ha planteado desafíos éticos y normativos, como la protección de la privacidad, la seguridad, el manejo de sesgos en los algoritmos de IA, sus implicaciones en el medio ambiente, en el empleo, entre otros, que han impulsado un gran número de peticiones para crear leyes y regulaciones en el ámbito de la IA.
A, B, C de la inteligencia artificial en la salud y la bioética
Charla a cargo del Dr. Luis Alirio Rodríguez. Ingeniero de Sistemas, miembro del ICEB. Doctorado en Bioética y Profesor de la Universidad El Bosque.
El término “Inteligencia Artificial” fue mencionado por primera vez por John McCarthy en 1956 durante la Conferencia de Dartmouth pero comenzó a ganar relevancia con el test de Turing, propuesto por Alan Turing, que establece que una máquina podría ser considerada inteligente si no se puede distinguir de un ser humano en una conversación. Sin embargo, algunos expertos debaten si este test se ha cumplido y si el término “Inteligencia Artificial” es apropiado, ya que la inteligencia como tal aún se considera exclusiva de los seres humanos.
La Inteligencia Artificial, como la entendemos hoy, involucra el uso de algoritmos y programas diseñados para simular capacidades humanas como razonar, aprender, resolver problemas y planificar. Estos algoritmos forman la base de la tecnología actual y también se aplican en sistemas robóticos que buscan replicar ciertas funciones humanas. Un algoritmo es una serie de instrucciones ordenadas para resolver problemas, similar a una receta de cocina que debe seguirse paso a paso. La Inteligencia Artificial opera en base a grandes cantidades de datos, que permiten identificar patrones y hacer predicciones. La información recolectada de internet, correos electrónicos y redes sociales ayuda a refinar estos algoritmos.
Las aplicaciones de la IA pueden ser muy variadas, por ejemplo, el reconocimiento facial que permite en aeropuertos la identificación por medio de datos biométricos o el análisis de gustos de cada individuo para temas de mercadeo en redes sociales.
La precisión en los diagnósticos se apoya en matemáticas y probabilidades. La calidad de los resultados depende en gran medida de la calidad de los datos utilizados. Datos incorrectos o sesgados pueden llevar a respuestas erróneas. La IA se ha dividido en 3 categorías principales: la Inteligencia Artificial débil (o generativa) que se limita a generar resultados y que existe actualmente, la Inteligencia Artificial fuerte (o general) que se espera en el futuro y excedería las capacidades humanas, y la singularidad tecnológica, una noción teórica donde una entidad tecnológica superior se mejoraría a sí misma constantemente.
En la práctica, la Inteligencia Artificial ya está presente en aplicaciones como GPS y Waze, que facilitan la navegación. Asistentes de voz como Siri, Cortana, y Alexa, en juegos y aplicaciones de entretenimiento, como el ajedrez con programas avanzados que pueden vencer a campeones humanos, en herramientas para la creación de imágenes y videos a partir de simples instrucciones, en modelos GPT (Generative Pre-trained Transformer) para la creación de textos y generación de contenido que han tenido un impacto significativo los últimos años. En el ámbito de la tecnología, se están desarrollando vehículos autónomos que utilizan sensores para navegar de manera autónoma y robots con capacidades avanzadas para desarrollar diversas tareas que para un humano podrían tornarse monótonas, repetitivas o ser peligrosas.
El creador de ChatGPT, Sam Altman, señaló que el verdadero desafío de la inteligencia artificial (IA) no es tanto la creación de imágenes, sino cómo se manejan lo que ha planteado riesgos reales en la proliferación de noticias falsas. Entre los dilemas éticos de la IA están la privacidad y la discriminación. Los sistemas pueden recopilar más información de la que creemos y, al procesar datos, podrían perpetuar sesgos, como se ha visto en programas de identificación facial que fallaron con ciertas razas.
Otro problema es la responsabilidad en las decisiones tomadas por máquinas, los vehículos autónomos por ejemplo, han causado accidentes. La seguridad en general es un área crítica, ya que ataques cibernéticos pueden afectar sistemas completos. La UNESCO ha propuesto principios éticos para la IA, en seguridad y protección, transparencia y responsabilidad, ética y derechos humanos, innovación responsable y competitividad global.
A partir del 1 de agosto de 2024, el Parlamento Europeo implementó un enfoque regulatorio para la IA basado en riesgos: mínimo, alto e inadmisible. Las aplicaciones de bajo riesgo como filtros de correo no deseado o videojuegos, no están sujetos a obligaciones específicas, mientras que las de alto riesgo, como las usadas en medicina, requieren cumplir con requisitos estrictos como el uso de datos de alta calidad y la supervisión humana. En riesgo inadmisible se consideran los sistemas de IA que permiten “puntuación humana” (por creencia, raza, identidad sexual, antecedentes, etc) y que han sido prohibidas para el uso de gobiernos o empresas pues son una amenaza para los derechos fundamentales.
La IA está aquí para quedarse y se debe considerar como una herramienta útil. Se requiere regulación para manejar sus riesgos, asegurar la transparencia y restringir los usos indebidos.
El Dr. Rodríguez sugiere que los desarrolladores deberían dejar algún indicador que permita identificar los resultados provenientes de IA para reconocer noticias falsas, trabajos académicos o defender el trabajo desarrollado por humanos. Para él, la IA bien implementada puede tener desarrollos notables que beneficien a la humanidad, manteniendo siempre un control ético y responsable.
::::::::::::::::::::
Intervenciones en:
ICEB – INTELIGENCIA ARTIFICIAL, SALUD Y BIOÉTICA. UNA REALIDAD INMINENTE
Nota. Victoria Rodríguez G. Comunicaciones Academia Nacional de Medicina