Por: Karen Corredor
“ChatGPT es una herramienta de inteligencia artificial que puede ser utilizada en diversas áreas de la ciencia. Desde la generación de hipótesis hasta la comunicación de resultados, puede ayudar a los científicos a ahorrar tiempo y recursos valiosos, analizar grandes conjuntos de datos y hacer que los conceptos científicos sean más accesibles y comprensibles para una audiencia más amplia”. Esto es lo que responde el chat cuando se le consulta acerca del rol que puede ocupar en la ciencia. En los últimos meses, los usos de la inteligencia artificial (IA) aplicada al procesamiento de lenguaje han aumentado en interés y en el volumen de discusiones que suceden sobre el tema dentro y fuera de internet.
Este es quizá el salto cualitativo más visible en la evolución de los modelos complejos de aprendizaje de máquinas, pero no es el único ni el primero. Pesquisa Javeriana consultó con Leonardo Flórez Valencia, director de la maestría en inteligencia artificial de la Pontificia Universidad Javeriana, sobre lo que implica este nuevo actor en el escenario tecnológico, académico, científico y ético.
Un poco de contexto
La tecnología ha estado inmersa en diferentes aspectos de nuestra vida cotidiana desde que apareció la primera herramienta de contar y calcular. Contarnos las noticias relevantes del día justo después de despertarnos o de llevar una memoria detallada de nuestra experiencia humana en fotos, videos, registros sonoros y muchos correos electrónicos es solo una parte del rol fundamental que juegan los adelantos tecnológicos en nuestras vidas e incluso en materia de supervivencia.
Pero el salto a una experiencia como la de ChatGPT basada en la arquitectura GPT-3.5 de OpenAI implica algo más: incluir en nuestro registro de lo que es tecnología aplicada y aplicable el concepto de inteligencia artificial. Para Flórez Valencia, cuando se habla de IA se menciona todo lo que aborda términos como algoritmos, instrucciones para resolver un problema o completar una tarea.
Algo similar a una receta de cocina que indica los ingredientes, cantidades y orden de la preparación. Así como el chef va adquiriendo experiencia en preparar mejor la receta, el algoritmo va haciendo más claras y prácticas las instrucciones que utiliza para cumplir su función. La inteligencia artificial se trata entonces de un programa de computador que repite, mejora y hace más eficaces millones de recetas de cocina a la vez, obteniendo en cada preparación más y mejores platos.
La IA con la que interactuamos en plataformas como la de ChatGPT están basadas en el aprendizaje de máquinas; este tipo de programación implica el uso de algoritmos que no están concebidos para tareas en particular, pasos como prender el fogón o agregar sal y pimienta que sirven para más de una receta. Los algoritmos están creados para funcionar de manera genérica para diferentes tareas, similar a como funciona el cerebro humano, una entrada de información como un sonido o una imagen puede generar una respuesta diferente dependiendo de la manera como el estímulo se interpreta. En el caso del programa de computador, este recibe información (los ingredientes) y de acuerdo con las reglas o recetas que tiene insertas, genera respuestas o preparaciones en una u otra dirección, y como el cerebro humano, mejora con la experiencia.
Una nueva herramienta
Los primeros algoritmos de IA se crearon para jugar culebrita. La primera culebrita siempre se chocaba con las paredes y después de cierto número intentos comenzó a evitar las paredes. Este proceso se llama aprendizaje por refuerzo: al repetir las respuestas que funcionan para evitar las paredes, la máquina va “aprendiendo” y lo que se ha hecho en los últimos años es hacer que esas funciones sean más complejas y puedan ejecutarse a partir de muchos más datos.
Una herramienta como ChatGPT puede explicarse, dice Flórez, con la idea de ir al bazar del pueblo a conseguir algo, pero sin necesidad de ir puesto por puesto preguntando quién tiene la información o el producto que necesitamos. En este nuevo escenario vamos a encontrar la respuesta de manera más rápida al saber exactamente la mejor manera de navegar todo el conocimiento reunido en el bazar.
Por ejemplo, para entender imágenes médicas, área en la que el profesor desarrolla su investigación, se usan algoritmos especializados que se adaptan al tipo de información que contiene una imagen y al resultado que esperan los profesionales de la salud para tomar una decisión respecto al curso de un tratamiento.
Y aquí viene una parte clave para entender los modelos de procesamiento basados en inteligencia artificial: nos permiten organizar información en grandes volúmenes para poder tomar decisiones. Es incorrecto pensar que los modelos de lenguaje son los que toman la decisión, esa es una perspectiva que, de acuerdo con Flórez, “es perezosa pero también peligrosa. Si usamos inteligencia artificial para que la decisión esté tomada queda faltando el juicio del humano para tomar una buena decisión”.
Adaptar en función de la eficiencia
Existe una regla en el diseño, por ejemplo, de páginas web, que dice que todo lo que interactúe con el usuario debe tener entre tres y siete elementos principales. Esta regla se basa en la capacidad de la memoria humana para atender y retener información en un momento dado. Pero actualmente estamos recibiendo una cantidad de datos mucho mayor a nuestra capacidad de cálculo y esto limita la toma de decisiones informadas que consideren todas las variables.
Estas herramientas sirven en situaciones donde los humanos nos sentimos abrumados con la cantidad de información que estamos recibiendo y permiten llevar esos datos a un espacio de información más fácil de interpretar y, por ende, con mejores posibilidades de tomar una buena decisión, explica el profesor Flórez.
Un ser humano experto en un área tiene muchas posibilidades de hacer mejor su trabajo si cuenta con una herramienta que permita filtrar la información para luego resolver o atender un problema de manera directa en lugar de gastar tiempo revisando cada alternativa.
ChatGPT en la academia
Al profesor Flórez la entrada de ChatGPT a la academia le recuerda lo que sucedió con la calculadora en los colegios. Se prohibía su uso porque podría afectar la habilidad de hacer cálculos matemáticos y hoy en día muchos pueden tener problemas para hacer sumas sencillas sin ella. Todos logran entender la suma como proceso, pero la capacidad aritmética puede entrar un poco en desuso y eso en parte es una consecuencia lógica de las herramientas: liberan la capacidad atencional y la dejan disponible para ocuparla con algo nuevo, el uso que se le dé a ese espacio ganado depende de cada uno.
Estos programas son herramientas que pueden facilitar el trabajo en la academia, tareas como parafrasear conceptos complejos con el objetivo de llegar a personas que no tienen experiencia o encontrar palabras clave que sirvan de insumo para crear una ecuación de búsqueda especializada, pueden ser parte del espacio que libere ChatGPT en la exploración de nuevas posibilidades.
Pero si las herramientas se usan irresponsablemente, los resultados van a ser distintos. Redactar parciales o preparar resúmenes de clase solo limitaría los procesos de aprendizaje y creación de conocimiento. El rol del profesor no puede quedarse solo en la entrega de información y el del estudiante en la memorización de conceptos; el proceso formativo implica adaptar el contenido y enganchar desde lo emocional la adquisición de nuevo conocimiento.
Para Flórez, esta generación de conocimiento tiene mucho de subjetividad, de tripas, “del problema al que yo me enfrento y como lo quiero solucionar”. Pero de usarlo mal, la máquina puede llevarnos a un punto estable donde no hay más problemas por resolver y no se avance más.
Los modelos de procesamiento de lenguaje como herramientas terminarán por encaminar y casi que obligar a todos, en las diferentes áreas de conocimiento, a hacer cosas más interesantes, pero solo si la tecnología se usa bien, analiza Flórez.
Es difícil decir a dónde vamos
Frente a la perspectiva de futuro de estas herramientas, el investigador considera dos posibles caminos: “o se expande la frontera de la creatividad o nos quedamos rezagados, depende del uso que le demos. Es muy tentador no hacer nada y que la máquina resuelva todo, pero esa comodidad inmediata puede llevar a cosas no tan cómodas a largo plazo”.
La expectativa es mejorar la capacidad creativa, haciendo que el cerebro se concentre en problemas realmente difíciles y deje los que son repetitivos a la máquina, de manera que se pueda usar la herramienta para encontrar una solución que ya esté disponible y generar un juicio para su implementación o modificación. Pero si se es perezoso y se asume que la respuesta del programa es la correcta, ahí comienza el problema.
“La máquina me ayudó a tomar la decisión de gastar mis tardes viendo películas en vez de ir a hacer deporte, en lo inmediato es chévere, pero a largo plazo nos enfrenta a problemas de salud por causa del sedentarismo”.
La discusión importante con ChatGPT
Cuando se habla de la viabilidad del uso de estas herramientas en contextos profesionales o académicos, el profesor Flórez apunta que la discusión no debe girar en torno a la tecnología porque esta ineludiblemente seguirá avanzando. Debe darse alrededor de la ética del uso de esa tecnología, a la conversación “sobre qué debemos y no, o qué podemos y qué no hacer con estas herramientas”.
Desde una mirada técnica se puede discriminar fácilmente un texto escrito por ChatGPT y ya existen las herramientas para verificarlo. Pero estos programas seguirán integrando a sus recetas de cocina la información que se usa para realizar una consulta o aclarar un concepto, y cada vez será más difícil discriminar la creación humana de la artificial.
Que un programa de generación de lenguaje escriba un artículo o un reporte de investigación termina siendo indiferente. Finalmente hay una fuente de motivación que fue una persona que se hizo la pregunta y recopiló los datos. Pero de nuevo la cuestión retorna al juicio acerca del uso de esta herramienta: “tengo una idea original que quiero desarrollar de manera eficiente para contribuir al bienestar de la humanidad o quiero publicar para “engordar” mi currículo y ganar puntos en el lugar donde trabajo”, comenta el profesor.
Es necesario entonces generar espacios para tener una discusión ética del uso de los chats, de lo que se considera correcto o incorrecto, continua Flórez, “porque la tecnología va a estar ahí, la van a estar usando y si lo prohibimos va a ser peor”. Como se trata de conocimiento, es clave fomentar espacios para sacar estas conclusiones de discusiones científicas, donde se busque el punto común y “ojalá universidades como la Javeriana se vuelvan líderes en la enseñanza de este tipo de tecnologías que equilibre lo tecnológico con lo ético”.
Karen Corredor: Psicóloga, MSc, PhD. Trabaja con la Academia Colombiana de Ciencias Exactas, Físicas y Naturales en procesos de comunicación de ciencia. Le interesan temas relacionados con la verificación de productos derivados de la ciencia. Es investigadora y docente en áreas de neurociencia y comportamiento. Actualmente cursa la maestría en Periodismo Científico en la Pontificia Universidad Javeriana.
Nota publicada en Pesquisa Javeriana, reproducida en PCNPost con autorización
Posts relacionados:
ChatGPT: Un nuevo actor en el escenario académico y social
ChatGPT y educación: ¿oportunidad, amenaza o desafío?
¿Puede la inteligencia artificial desplazar la creatividad?
¿Puede la inteligencia artificial desplazar la creatividad?
Los riesgos de la inteligencia artificial y algunas soluciones
Las grandes oportunidades de la Inteligencia Artificial en el sector público de América Latina
¿Puede la Inteligencia Artificial contribuir en la lucha contra la pobreza?
Inteligencia artificial puede anticipar fenómenos migratorios en Centroamérica
Países del G7 acercan posturas sobre la inteligencia artificial
La inteligencia artificial, bajo la lupa de los empresarios en Davos
Debes loguearte para poder agregar comentarios ingresa ahora