Visitas: 328
La inteligencia artificial ha llegado para quedarse, y una de las herramientas que más ha llamado la atención es ChatGPT lanzada en 2022. Un modelo de lenguaje que usa aprendizaje por refuerzo a partir de retroalimentación humana (RLHF), entrenado para ser capaz de tener conversaciones de forma natural y que de acuerdo a sus creadores (OpenAI) hace posible que responda preguntas de seguimiento, admita sus errores, cuestione premisas incorrectas y rechace solicitudes inapropiadas. Utiliza redes neuronales profundas para generar texto en función de la entrada que recibe.
El modelo ha sido diseñado para generar texto de tipo humano, lo que lo hace útil en una serie de escenarios en los que se desea una interacción similar a la de una persona. Sin embargo, es importante tener en cuenta que, si bien ChatGPT puede generar texto de alta calidad, no tiene la capacidad de pensar, razonar o comprender el significado del texto que genera de la misma manera que lo hace un ser humano.
Está basado en el modelo de lenguaje GPT-3 (Generative Pre-training Transformer), que es una red neuronal que ha sido entrenada para realizar tareas de procesamiento del lenguaje natural, como la traducción, la resolución de problemas de comprensión del lenguaje y la generación de texto. ChatGPT ha sido diseñado específicamente para tener conversaciones, y ha sido entrenado utilizando grandes cantidades de datos de conversación para aprender a imitar el lenguaje y la forma en que las personas interactúan entre sí. Al ser un modelo de lenguaje de OpenAI, ChatGPT es capaz de aprender y adaptarse a nuevos contextos y tareas de forma autónoma, lo que le permite mantener conversaciones de forma natural y flexible.
ORIGEN
OpenAI es una organización centrada en la investigación y desarrollo de proyectos de inteligencia artificial con sede en USA, pero a diferencia de otras empresas que usan la IA como parte de sus desarrollos, se promociona como una organización sin ánimo de lucro cuyo objetivo es que la evolución de la inteligencia artificial sea beneficiosa para toda la humanidad.
Como en toda actividad que involucre inteligencia artificial hay puntos de vista a favor y en contra. Hay quienes defienden, – incluso en la comunidad científica-, los beneficios que supondría para la humanidad el desarrollo de esta tecnología. Para otro sector despierta desconfianza el saber que detrás del proyecto hay personajes como Elon Musk y gigantes informáticos como Microsoft que acaba de anunciar una inversión multimillonaria en OpenAI, lo que haría perder la independencia que decía mantener.
Sin embargo, sus fundadores afirman ser parte de una corriente que propone como solución -ante el avance inevitable de la IA-, no prohibirla sino promover su desarrollo de forma comunitaria y responsable. Se apuesta en teoría por el sistema Open Source (fuente abierta) para que cualquier persona tenga acceso a esta tecnología y nadie la controle en detrimento de los demás. Sólo el tiempo dirá si esto es real.
EN EL CAMPO MÉDICO
Una de las preocupaciones más grandes es irónicamente ese libre acceso al código de cualquier proyecto por miedo al uso que se le podría dar. Con GPT-3 no han publicado el código, sino que han creado una API (Application Programming Interfaces) para poder supervisar quién y cómo lo usa.
Específicamente en el campo médico y científico, las alarmas se han encendido con la reciente noticia de que varios científicos han incluido a ChatGPT como coautor de artículos científicos, suscitando reacciones de la comunidad de investigadores y de los editores de revistas revisadas por pares.
Pero ChatGPT parece tener un concepto de la ética más profundo que incluso algunos humanos que han usado la plataforma para estos fines.
A la pregunta hecha directamente desde la Academia Nacional de Medicina a ChatGPT. ¿Es ético usar ChatGPT como coautor de artículos científicos? ChatGPT respondió:
“El uso de ChatGPT o cualquier otro modelo de lenguaje de IA como coautor de un artículo científico plantea algunas preocupaciones éticas. El problema principal es que un modelo de IA como ChatGPT no tiene la capacidad de comprender el contexto o el significado de la información que genera. Simplemente está haciendo predicciones basadas en patrones en los datos con los que ha sido entrenado. Como resultado, es posible que la información generada por el modelo no siempre sea precisa, relevante o apropiada para un caso de uso particular.
En el caso de artículos científicos, es importante asegurarse de que la información presentada sea precisa, relevante y respaldada por evidencia. El uso de un modelo de IA como coautor podría dar lugar a la difusión de información incorrecta o engañosa, lo que podría tener consecuencias negativas para la comunidad científica y para la sociedad en su conjunto.
Por estas razones, no se considera ético usar ChatGPT o cualquier otro modelo de lenguaje de IA como coautor de un artículo científico. Es responsabilidad de los autores humanos garantizar la exactitud e integridad de la información presentada en el artículo”.
Como respuesta a este hecho, editoriales de revistas científicas prohibieron o restringieron a sus colaboradores el uso de cualquier bot, basado en inteligencia artificial, ante la preocupación de que la literatura médica y científica pueda llenarse de investigaciones falsas, incompletas, sin contraste, deficientes e incluso falsas.
Holden Thorp, redactor jefe de Science, anunció una actualización de su política editorial, prohibiendo el uso de textos de ChatGPT. “Debido a que las principales revistas científicas exigen que los autores firmen un formulario en el que se declaran responsables de su contribución al trabajo, el programa de IA no puede ser autor”, afirmó.
FUENTES: OPENAI, COMPUTER HOY, EL ESPECTADOR
Nota resumen. Victoria Rodríguez G., responsable plataformas digitales ANM