InicioSociedadInteligencia artificial, la nueva realidad

Inteligencia artificial, la nueva realidad

Hasta el 2015, más o menos, la combinación de estas dos palabras (Inteligencia Artificial) no decía mucho a nadie. Sin embargo, su nombre abreviado, IA, sintetiza hoy la llegada de una transformación histórica; una nueva era que ya está cambiando las reglas de juego de toda la sociedad humana, en lo social, económico, político, incluyendo la relación entre las naciones. Lo es porque va más allá de lo que cada uno puede llegar a saber aún desde sus mismas profesiones, al brindar una información que supera lo que un ser humano puede adquirir en toda su vida. Esto nos obliga a una reflexión.

La IA no es un producto industrial, ni una disciplina, ni un dominio, sino un complemento que facilita a todas las ramas de la actividad humana llegar a una información o conocimiento final sobre un tema, no prevista con anticipación por la mente de quienes la usan, al margen de su nivel de preparación. Esto no quiere decir que la información o solución provista por la IA sea una verdad absoluta. Puede que sí. Puede que no. Su respuesta es técnica, basada en la información acumulada sobre un item en una base de datos de alcance universal, que supera la capacidad de un individuo.

Lo nuevo y sorprendente de su operatoria es que para llegar a un resultado y ofrecer su respuesta, en primer lugar la IA, como plataforma de búsqueda, es dotada electrónicamente con la capacidad tecnológica para aprender, comparar y sacar conclusiones no en un sentido humano, sino a través del acceso a toda la información existente sobre cualquier tema a nivel universal, algo imposible de lograr para un ser humano o grupo, aun sumando el largo de sus respectivas vidas. En segundo lugar está la rapidez con que llega su respuesta, que sobrepasa la velocidad humana en el procesamiento de datos, no en la lógica de los procedimientos. El ejemplo que se cita para demostrar su eficiencia ocurrió en 2017 con el programa AlphaCero desarrollado por la compañía DeepMind de Google, donde la computadora preparada con ese programa no sólo aprendio a mover las piezas del juego de ajedrez, sino que acumuló en su memoria electrónica todas las variantes posibles del juego, que son cientos, para poder derrotar finalmente a los mejores jugadores de ajedrez del mundo. (The age of AI. John Murray, 2021)

Pero mucho más impresionante fue la aplicación que se hizo en el Instituto de Tecnología de Massachusetts (MIT en EE.UU.) en 2020, donde los requerimientos de búsqueda, al revés del juego de ajedrez, se contaron por decenas de miles Aquí se trató de explorar e identificar en una base de datos moleculares de 60.000 drogas, la posibilidad de la existencia de una droga que pudiera derrotar a todas las variantes de bacterias resistentes al tratamiento con antibióticos. Para diseñar el programa de IA se usaron los datos conocidos de 2.000 drogas antibacterianas. La IA halló combinaciones moleculares que nunca antes habían sido identificadas como antibacterianas por el ser humano en un laboratorio.

La concreción del éxito se identificó como Halicin, una droga antibiótico, capaz de derrotar a todas las variantes de bacterias hasta ahora resistentes a los antibióticos. Su uso todavía está en el proceso de aprobación por la FDA en EE.UU. Este éxito de la IA, que en una investigación humana normal puede tomar años y aún no llegar a un resultado, solo tomó tres días. Lo sorpendente de todo esto es que los investigadores no saben ni pueden entender cómo la IA pudo hacer esto. Es el misterio que rodea a este recurso y lleva a muchos a creer en que la IA ha superado a la inteligencia humana. (https://news.mit.edu/2020/artificial-intelligence-identifies-new-antibiotic-0220 ).

Ahora bien, este uso sofisticado que se da a la IA en la investigación científica no debe llevar a creer que su uso se da solamente a nivel científico. Usted, amigo lector, la está usando en cada momento en su cell o computadora cuando escribe una pregunta. Ella le completa la palabra que está tecleando o le corrige la gramática o le pone un acento, sin preguntarle. El más común de todos es posiblemente el de OpenIA GPT (Generative pre-trained transformer) que, como su nombre lo indica, está entrenado para generar textos e incluso poder escribir un ensayo, lo cual, dicho sea de paso, está causando problemas en la enseñanza, al momento de evaluar la capacidad real de un estudiante.

Sin embargo, la IA no es culpable del fin que el usuario le da. En primer lugar, la IA es un modelo de lenguage de comunicación que comprende lo que se le pregunta y contesta en base a lo que informan las bases de datos, las cuales pueden ser correctas, imprecisas, contener errores o ser tendenciosas, lo cual obliga al receptor de la información a verificar la respuesta. La IA no tiene conciencia, ni ningún sentido de moralidad. No puede pensar de forma independiente, ni pensar emocionalmente en las consecuencias. Al ser simplemente como una máquina y no una persona, los efectos personales o sociales de su información corren por cuenta de quien o quienes la usan.

Como dice Sundar Pichai, jefe ejecutivo de Goggle a la BBC de Londres, “No confíe ciegamente en lo que la IA le informe”. Dijo que “todos los modelos de IA son susceptibles de cometer errores” y que es necesario usar otros medios para verificar lo que la IA informa. Su comentario corrobora la opinión de la BBC de que encontró “significantes inexactitudes” en los sumarios de noticias editados por ChatGPT propiedad de OpenAI, Copilot de Microsoft y Gemini y Perplexity de Google (su propia compañía). Culpó de tales problemas a la diferencia de velocidad entre las nuevas aplicaciones creadas y y el diseño de mitigaciones ante las consecuencias de errores.(https://www.graphic.com.gh/tech-news/google-boss-warns-no-company-is-going-to-be-immune-if-ai-bubble-burst.html)

En efecto, la CEO de la BBC Deborah Turness llamó a una mesa redonda a gente de esas plataformas de IA y les entregó una información para leer, para luego hacerles preguntas sobre lo leído. Las respuestas, según luego contó en su blog, contenían “significantes inexactitudes” y distorsiones, al punto de preguntarse “¿cuánto tiempo tiene que pasar todavía antes de que una noticia distorsionada de primera plana, cause un daño significante en el mundo” El 51% de las respuestas de la gente que participó en el panel tenían problemas de alguna forma. El 19% contenían errores factuales, tales como declaraciones falsas, números y fechas (https://www.bbc.com/news/articles/c0m17d8827ko).

La llegada de la Inteligencia Artificial está agregando niveles de información y conocimiento antes imposibles de adquirir para un ser humano. Ya no es como antes, en que el conocimiento se construía paso a paso y se asentaba en lo que se sabía antes del presente. Ahora, la IA provee respuestas sin necesidad de saber cual es la cadena de razonamientos y conocimientos que lleva a una conclusión. Y la provee a una velocidad difícil de entender, pero que puede ser correcta, lo cual puede generar una dependencia o reverencia ante el poder de la tecnología. ¿Qué relación entre tecnología y ser humano o sociedad puede crearse desde esta relación de dependencia? No lo sabemos. Pero es una nueva realidad ante la cual la sociedad tiene que redefinir su conducta.

Más noticias
Noticias Relacionadas