IA: nuevos sentidos para las relaciones humano-maquina

Por: Karen Corredor

Las Inteligencias Artificiales tienen el potencial de resignificar las nociones de herramientas, trabajo y uso del tiempo a las que estamos acostumbrados. Andrés Moreno, profesor de la maestría en Inteligencia artificial de la PUJ, nos comparte su perspectiva y algunas de las posibilidades que trae la adopción de las IA.

Lo primero que uno se imagina cuando piensa en inteligencia artificial (IA) es un robot o algún sistema sofisticado cercano a las ficciones que han acompañado la imaginación humana por décadas. Con la proliferación de inteligencias artificiales generativas, del tipo ChatGPT, Copilot o Gemini, es fácil concluir que en eso consiste la IA: un sistema con el que podemos establecer una suerte de conversación y que entrega rápidamente respuestas a las cuestiones que le presentamos.

El interés por emular habilidades consideradas humanas en las IA ha estado presente desde el inicio de la computación. Lo que ha cambiado es el impacto de estos sistemas en nuestras vidas. Hoy la disponibilidad de datos y la capacidad de cómputo acumulada, hace posible tener interacciones complejas con IA generativas que antes eran difíciles de imaginar. Así lo expresa Andrés Moreno, profesor de la Facultad de Ingeniería de la Pontificia Universidad Javeriana.


inteligencia artificial Pesquisa Javeriana

Ante los desafíos que plantea la inteligencia artificial en las relaciones humano-máquina, se hace necesario discutir sobre las perspectivas y aplicaciones de esta, así como sus consideraciones éticas. Foto ThisIsEngineering en Pexel.


No se trata de una sola inteligencia artificial

La inteligencia artificial es la capacidad que pueden tener maquinas o sistemas computarizados para realizar tareas complejas que tradicionalmente requerirían la intervención humana. Fenómenos como el aprendizaje, la percepción, las decisiones y la solución de problemas son susceptibles de ser implementados de manera autónoma por un sistema basado en IA.

Existen varias formas de IA: el aprendizaje automático, la visión por computadora, la robótica y el procesamiento del lenguaje natural. Con este último, hemos interactuado mucho en los últimos meses.

Antes del surgimiento de los modelos generativos, recursos como los chatbots o asistentes virtuales han sido utilizados para mejorar la experiencia de interacción con sistemas de información complejos, facilitando tareas como agendar una cita médica o comprar en internet. Otro ejemplo son los motores de búsqueda o las bases de datos; de fondo estamos interactuando con la misma información, simplemente estamos usando herramientas que la hacen más fácil de digerir.

La inteligencia artificial generativa, base funcional de ChatGPT y sus análogos, consiste en programas de computador capaces de entender una gran cantidad de datos y dar en poco tiempo respuesta a solicitudes a través de una interfaz intuitiva que facilita la consulta.

A diferencias de otros sistemas de IA, no es fácil entender el funcionamiento de los modelos generativos. Uno puede entender un bordado de punto de cruz o una pieza de crochet dándole la vuelta a la labor y revisando la dirección y el sentido de cada puntada; para los expertos, no es tan fácil seguir la dirección de los hilos y entender cómo el sistema llega a cierto razonamiento, pues se desconocen las reglas que llevan a una respuesta.

Aunque es posible explicar el proceso de entrenamiento del modelo, así como es posible enseñar la manera de usar la aguja de bordado o de crochet, desconocemos la lógica que emplea el programa para tomar decisiones específicas. Es una suerte de caja negra que puede preocupar a muchas personas.

Este escenario ha motivado a los expertos a construir prácticas sobre cómo adoptar y gestionar las IA de manera transparente y segura. Existen guías que orientan acerca de las preguntas de monitoreo que se le deberían hacer a una IA generativa para garantizar que las respuestas que produzca sean confiables y seguras. Ante la caja negra, se ponen las garantías afuera y no dentro del sistema y así asegurar que esté siendo transparente y siga las reglas que le fueron entrenadas.

Si bien muchos enfoques de seguridad consideran los modelos como cajas negras, también existen procesos que los examinan como cajas blancas, con el objetivo de comprender y, posiblemente, corregir algunos de los mecanismos internos de las redes. Sin embargo, estas aproximaciones suelen ser más complejas y todavía falta mucho por aprenderle a estos procesos.

Adopción de las IA

Las aplicaciones de inteligencia artificial se hacen cada vez más presentes. En el sector financiero, realizan análisis predictivos del mercado. En el transporte, los vehículos autónomos usan IA para mejorar la seguridad vial y las aplicaciones del tráfico orientan sobre las mejores rutas. Incluso en la educación, se implementan sistemas de tutoría inteligente para personalizar la enseñanza.

El profesor Andrés Moreno, quien trabaja en la academia y en la industria, comenta que, con la adopción de sistemas basados en IA, los modelos de negocio están cambiando. Por ejemplo, empresas de tecnología que manejan documentos y cuyo mercado ha sido salvaguardar la información, ven oportunidades de negocio en entender lo que hay en los datos y aprovechar las miradas que ofrece la IA sobre grandes volúmenes de información.

Necesidades que surgen de la IA

La adopción de sistemas basados en IA necesita de capital humano especializado en estas tecnologías. La industria se inclina cada vez más hacia tecnologías emergentes; sin embargo, la escasez de talento en el país plantea un desafío.

Para Andrés Moreno, urge la necesidad de capacitar personas en el uso, adopción y comprensión de estas tecnologías, pues depender de la importación de productos no es estratégico para la soberanía tecnológica del país. Además, la representatividad de los datos utilizados para entrenar estos modelos es un tema que debe estar presente en todas las reflexiones sobre IA, ya que en su mayoría provienen de textos en inglés y contienen la visión de mundo de autores en países desarrollados. Es crucial, enfatiza Moreno, desarrollar sistemas propios y adaptados a las particularidades de nuestros contextos, sesgos y perspectivas culturales.

Decisiones basadas en IA

Aunque las herramientas tecnológicas pueden facilitar el análisis de información y la toma de decisiones, existe incertidumbre sobre la capacidad de estos sistemas para tomar decisiones autónomas basadas en datos. La posibilidad de evaluar la idoneidad de las respuestas es un desafío dado a la opacidad de su funcionamiento interno.

“A mí me gusta decir que estos sistemas responden a cualquier pregunta como cualquier persona lo haría”, comenta Andrés Moreno, y el criterio de que esa respuesta está bien o mal depende del experto, entonces “lo importante es qué se hace con eso que dice la máquina”.

Las decisiones no se deben dejar a la máquina, comenta el investigador, las IA ofrecen una mirada más amplia y en menos tiempo de un problema de lo que podrían lograr las personas usando sólo la capacidad de procesamiento de su cerebro. Sin embargo, la responsabilidad de tomar decisiones debe seguir recayendo en expertos capacitados, pues son quienes poseen el conocimiento y la experiencia necesarios para hacerlo.

Salud basada en IA

Los problemas de salud tienen muchísimos datos disponibles explica el profesor Andrés Moreno. Todos generamos datos cuando vamos al médico, los exámenes y las imágenes diagnósticas se suman a la historia clínica de cada paciente; esto brinda muchas posibilidades de sistematización y análisis que pueden contribuir al funcionamiento del sistema de salud.

Las aplicaciones de inteligencia artificial en medicina han mostrado un notable aporte, especialmente en el análisis automatizado de varios tipos de exámenes, como imágenes diagnósticas. La adopción de Inteligencia artificial puede ser un valioso respaldo, particularmente en lugares donde la disponibilidad de personal especializado es limitada, puntualiza el profesor Andrés Moreno.

La medicina se beneficia de la inteligencia artificial principalmente en términos de capacidad de procesamiento y análisis rápido de grandes volúmenes de información para tomar decisiones. La integración rápida de conocimientos sobre el funcionamiento del cuerpo humano con sistemas de información y el uso de inteligencia artificial permiten entender patologías y tomar decisiones de salud pública.

Riesgos basados en IA

Con las IA existe el riesgo de que se pierda la confianza en la toma de decisiones por parte de especialistas. Cualquier decisión, humana o artificial, está sujeta a sesgos que pueden ser difíciles de identificar y generan un falso sentido de imparcialidad. Ante esto, es crucial que las personas estén capacitadas para interpretar la información proveniente de los modelos y detectar errores y sesgos, pues en salud, las decisiones incorrectas pueden ser costosas.

La cautela en la adopción de nuevas tecnologías es necesaria, la transición desde pruebas de concepto hasta productos probados y precisos requiere tiempo y recursos. Este proceso necesita una orientación política y regulatoria que establezca el marco de operación de los nuevos desarrollos y los límites que pueden cruzar o no las herramientas basadas en IA.

Seguridad de los datos

Existe una preocupación real de evitar el uso indebido de la IA en temas críticos como la salud. Aunque no hay una solución clara, muchas personas están trabajando en encontrar una respuesta a este desafío comenta el profesor Andrés Moreno. Se necesita una colaboración entre quienes formulan políticas y quienes desarrollan sistemas para establecer protocolos de uso seguro y ético, para establecer el juego limpio de la IA.

La tensión se centra en los avances que la inteligencia artificial puede ofrecer a las personas frente a las restricciones y trabas en los procesos regulatorios. Es crucial encontrar un equilibrio entre el uso seguro de estas tecnologías considerando los lineamientos éticos establecidos por entidades como la UNESCO para garantizar un uso ético de las herramientas tecnológicas.

Dada la falta de regulación de la adopción, implementación y práctica de estas tecnologías, el panorama no es alentador. El uso seguro, justo y ético de la inteligencia artificial, especialmente en el contexto de la seguridad de los datos tiene mucho trabajo por hacer.

Reemplazo basado en IA

Una de las preocupaciones que surge de cualquier revolución es la posibilidad de ser reemplazado por una máquina, como sucedió con las personas que operaban las máquinas de fax, los vendedores de enciclopedias a domicilio o los diseñadores de las páginas amarillas. Para Andrés Moreno la posibilidad de que esto pase es latente, las herramientas de trabajo siempre están cambiando, y si bien existe el riesgo de que la profesión o labor se transforme con el uso de estas herramientas, también es una oportunidad para mejorar y potenciar el trabajo.

Los avances tecnológicos han generado cambios y llevado a las personas a desplazarse hacia nuevas actividades conforme las máquinas asumen tareas antes consideradas fundamentales. Este cambio ha creado oportunidades para nuevas actividades humanas y aunque la preocupación principal es la seguridad financiera y el sustento de las personas, considerar alternativas como un ingreso mínimo garantizado puede aliviar estas tensiones. En última instancia, si el trabajo llegara a agotarse, argumenta el investigador podríamos explorar nuevas formas de organización social que permitan encontrar sustento y usar el tiempo en actividades más satisfactorias y significativas. Quizá tener tiempo para explorar nuestra curiosidad y sensibilidades y encontrar en ello nuevas formas habitar el mundo.


Nota publicada en Pesquisa Javeriana, reproducida en PCNPost con autorización

Karen Corredor: Psicóloga, MSc, PhD. Trabaja con la Academia Colombiana de Ciencias Exactas, Físicas y Naturales en procesos de comunicación de ciencia. Le interesan temas relacionados con la verificación de productos derivados de la ciencia. Es investigadora y docente en áreas de neurociencia y comportamiento. Actualmente cursa la maestría en Periodismo Científico en la Pontificia Universidad Javeriana.


Posts relacionados:

Proyecto Guacamaya: Inteligencia Artificial para preservar la Amazonía

La inteligencia artificial puede contribuir a la transformación de los modelos de desarrollo en América Latina y el Caribe para hacerlos más productivos, inclusivos y sostenibles

¿Cómo la Inteligencia Artificial puede ayudar a las pymes de América Latina?

Los riesgos de la inteligencia artificial y algunas soluciones

Las grandes oportunidades de la Inteligencia Artificial en el sector público de América Latina

¿Puede la Inteligencia Artificial contribuir en la lucha contra la pobreza?

Inteligencia artificial puede anticipar fenómenos migratorios en Centroamérica

Países del G7 acercan posturas sobre la inteligencia artificial

El jefe de DeepMind admite que la inteligencia artificial conlleva “riesgos”

La 5G y la inteligencia artificial, platos fuertes del MWC en Barcelona

La inteligencia artificial, bajo la lupa de los empresarios en Davos


 

 

 

Debes loguearte para poder agregar comentarios ingresa ahora