Inteligencia Artificial (IA) demasiado humana y muy preocupante

Publicado por: Antonio Marco
03/05/2023 02:25 PM
Reprods.: 261

La Inteligencia Artificial (IA) es una expresión que se refiere a la capacidad que tienen algunas máquinas como los ordenadores, los teléfonos, los robots, de “tomar decisiones” y llevar a cabo acciones que hasta ahora parecían exclusivas de la inteligencia humana natural.

 

Este tema existe como tal al menos desde mediados del siglo pasado, y como elemento de ciencia ficción mucho antes en la imaginación de autores literarios o cinematográficos,  pero es en los últimos años cuando la IA ha adquirido una importancia y presencia en nuestras vidas reales que la hace ya imprescindible.

 

La IA hoy se utiliza para buscar y recomendarnos cualquier producto de cualquier tipo, desde un destino vacacional a una máquina de afeitar o a una compañera/-o ocasional, desde la información sobre el tiempo y el cambio climático a la gestión e información del tráfico de vehículos, sobre la economía, la bolsa y la inversión financiera, sobre todo tipo de gestiones con la Administración, sobre la atención sanitaria, incluida la intervención robótica, etc..


 
Y según los expertos estamos en los momentos iniciales del desarrollo de la IA, momento al que llaman Inteligencia Artificial Específica o IA débil; vendrá después la etapa de Inteligencia Artificial General con las mismas capacidades que la inteligencia humana e incluso llegará una tercera etapa de Superinteligencia, que los propios humanos no podremos comprender porque superará nuestras capacidades.
 

En los últimos meses y días es insistente la información sobre el sorprendente ChatGPT un sistema de chat (sistema de comunicación entre varios usuarios de ordenadores interconectados simultáneamente) con más de 175 millones de parámetros, que utiliza enormes cantidades de texto para dialogar con el usuario sobre cualquier tarea relacionada con el lenguaje, desde la traducción de y a cualquier otra lengua hasta la generación de documentos y textos sobre cualquier tema, incluidos los temas científicos. Es decir, puedo formular cualquier pregunta y ChatGPT me responderá como si de un humano se tratara porque está diseñado para dialogar y no para responder con un texto inmóvil o pasivo, como ocurría hasta ahora. La máquina, pues, parece empatizar con el hombre usuario, que fácilmente puede engañarse creyendo que es un humano el que le responde. ChatGPT no es el único existente ni el único que se está desarrollando a gran velocidad en estos momentos.

 

La IA también es capaz de presentar como fotografías auténticas y verdaderas lo que no son sino falsas imágenes digitales compuestas de manera similar a la de un texto artificial. Hace unos días veíamos la imagen falsa (fake) del Papa Francisco vistiendo un enorme abrigo de plumas blanco. Lo mismo ocurre con textos de voz, lo que pone en duda la viabilidad de la autentificación por voz que utilizan muchos dispositivos. Esto ha llevado, por ejemplo, a Toby Walsh, jefe del Instituto de IA de la Universidad de Nueva Gales del Sur a aconsejar a quien utilice los medios online “Cuando se trata de cualquier dato digital que vea, audio o video, debe considerar la idea de que alguien lo ha falsificado”. ¡Terrible pero cierto!

 

Pero la IA tiene ya tal incidencia en nuestra vida que no tiene  sentido alguno plantear enfrentamientos teóricos y rechazos imposibles, como ha ocurrido en diversas ocasiones a lo largo de la Historia con algunos avances hoy absolutamente integrados en nuestras vidas: Platón rechazaba, por boca de Sócrates, la escritura porque su generalización impediría el desarrollo de la memoria. Lo hacía en su diálogo Fedro y en su Séptima carta dirigida a los parientes y amigos de Dion ¿Cómo podíamos imaginar que el propio humanista y editor valenciano Herónimo Squarciafico iba a criticar a la propia imprenta que él utilizaba profusamente porque “la abundancia de libros hace a los hombres menos estudiosos, destruye la memoria y debilita el pensamiento porque le releva del trabajo excesivo”?. ¿O incluso que Rousseau fuera también crítico con la Imprenta en su Emilio o Sobre la Educación:  “Yo odio los libros, porque enseñan a hablar de lo que no se sabe”; “Ningún otro libro que el mundo, ninguna otra instrucción que los hechos. El muchacho que lee no piensa, no hace más que leer: y no se instruye porque no aprende más que palabras”? Hoy la escritura la tenemos absolutamente interiorizada, al menos los de alguna edad, a quienes mucho nos agradaría que nuestros muchachos leyeran muchos más libros de los que leen.

 

Cosas parecidas se han dicho de las calculadoras, de los ordenadores  en la escuela, de los teléfonos actuales, etc. máquinas potentísimas que llevan camino de integrarse en nuestro interior como ya lo está la escritura. Ahora le toca la crítica a una aplicación potentísima de los instrumentos digitales, la llamada Inteligencia Artificial (IA) y muy en concreto en estos días al ChatGpt.

 

Pues bien, aun estando en la primera etapa, el problema es que  ChatGPT, por ejemplo, se parece demasiado a la inteligencia humana, aun sin ser humana y ni siquiera inteligencia; en realidad sus productos se basan en la utilización de millones y millones de datos y textos almacenados, los big data, en potentísimos ordenadores, y la capacidad para predecir qué grupo de letras vienen frecuentemente una a continuación de otras y extraer frases y relaciones de palabras existentes y ordenarlas en un documento inteligible aparentemente coherente. 

 

El problema es, pues, que cuando leemos un texto producido por un humano en realidad estamos interpretando lo que esa persona piensa y quiere comunicarnos, pero ante un texto de IA , ¿a quién representa? ¿de dónde ha extraído las secuencias de letras formando frases, es decir, cuáles son las fuentes, que por su enorme cantidad parecen inabarcables?

 

Así que admitamos que la IA nos ayuda, como la escritura, como la imprenta, como el propio ordenador, como el teléfono móvil. ¿Qué más querría yo que a la cuestión, por ejemplo: “Desarrollo del culto imperial en la Península Ibérica en época del emperador Constantino y su incidencia en el desarrollo del Cristianismo”  me respondiese ChatGPT,  o cualquier otro instrumento similar, con un documento extenso en el que me resumiese y sintetizase todo lo publicado al respecto en los últimos años en revistas científicas de calidad y reconocido prestigio?  Entre otros beneficios habría utilizado y leído por mí, haciéndolos asequibles, varios o muchos de los textos que todos los días se publican sobre cualquier tema susceptible de atención humana y que ningún humano puede ya abarcar. Curiosamente es tal la cantidad de datos e información sobre cualquier asunto que hoy se producen que uno de los riesgos actuales es el de la desinformación, perdidos precisamente en un océano de información imposible de procesar mentalmente.

 

Pero un serio problema es que la IA comete muchos errores, como la inteligencia natural de los humanos, y hasta puede dar datos y conclusiones falsas, como la inteligencia humana también. Y hasta puede mentir, es decir, dar datos falsos para confundir y engañar al lector si se le ha preparado para ello, como con demasiada frecuencia hacen los propios humanos. Una de las consecuencias de todo ello es que esta enorme potencia de las máquinas nos produce miedo, terror, porque de entrada es imposible identificar al autor de la respuesta y las fuentes de que ha bebido. Nos plantea además serios problemas éticos porque el producto que emita puede ser éticamente rechazable si se ha documentado en fuentes inaceptables éticamente o puede producir engaño y falsa información, y los humanos de mejor comportamiento ético piensan que la mentira nunca es admisible.

 

Geoffrey Hinton, uno de los padres de la IA, que ha trabajado más de 50 años en el tema y que acaba de abandonar Google asustado por la peligrosa capacidad de estas máquinas, nos advierte en el New York Times del pasado día 1 de mayo: “Es difícil ver cómo puedes evitar que los malos actores lo usen para cosas malas”.

 

Y esto es lo que hay que combatir realmente, el resultado de insuficiente calidad del producto de la IA y sobre todo su utilización para producir y  propagar a la velocidad de la luz mentiras y engaños interesados. De tal magnitud es el riesgo que recientemente cientos de expertos piden a las empresas implicadas y a los propios gobiernos que intervengan para ralentizar la carrera de la IA hasta tanto se alcance un acuerdo global para que estos sistemas  “sean más precisos, seguros, interpretables, transparentes, robustos, neutrales, confiables y leales”. Lo ha planteado The Future of Life Institute, (https://futureoflife.org/), institución cuyo objetivo es “Dirigir la tecnología transformadora hacia el beneficio de la vida y alejarla de los riesgos extremos a gran escala”, en una carta abierta a cuya firma pueden sumarse los científicos y personas que lo deseen. La llamada hasta el momento no ha tenido ni mucha receptividad ni mucho eco.

 

Y sin embargo no se me ocurre nada mejor que algunos controles legales necesarios para defensa y funcionamiento armónico de la propia sociedad. Esos controles bien definidos y respetuosos con el principio de “libertad de expresión” han de ser aceptados por todos los humanos de buena voluntad, aunque debemos ser conscientes de la escasa buena voluntad en muchos casos. Recordemos la frase anterior de Geoffrey Hinton.

 

Sería también muy útil que el propio documento se autoidentificase como producto de un programa de IA y que se nos indicase como se ha entrenado a ese programa para reconocer textos o que ofreciese la documentación o fuentes utilizadas, qué big data está utilizando, por qué esos y no otros, con qué intención…

 

Pero la medida más eficaz, más humana, más enriquecedora y más eficaz solo puede ser la de una buena formación crítica de todos los ciudadanos, que asimilen toda la información de que sean capaces y sobre todo que aprendan a dudar de todo, como Descartes, a ser críticos, es decir, a discernir, a discriminar lo cierto de la mentira (fake), lo bueno de lo malo informativa y éticamente, a separar el grano de la paja, a valorar la información que reciben e integrarla en su inteligencia natural para tomar decisiones en el momento y en el futuro, porque la experiencia de conocimiento crítico le ayudará a ser más preciso con los nuevos conocimientos.

 

 Así podrá tranquilo confiar en lo que le aporte la IA y dedicar parte de su vida y de su tiempo a interactuar con sus congéneres, a empatizar con ellos, a vivir más feliz en la sociedad que tenemos, que puede ser un paraíso o un infierno, y eso depende de nosotros, y la buena IA nos puede ayudar a ello.

 

Naturalmente, una buena formación crítica es la que debe proporcionar a todos los ciudadanos un buen sistema de educación, general, universal, gratuita, adaptada a las personas y durante toda la vida, porque ya no son suficientes las “cuatro reglas”, que desgraciadamente a veces faltan incluso ahora. Una vez más resalta la necesidad de una buena educación que, con un buen sistema de salud y una buena atención en los momentos de dificultad, deben ser las prioridades que una sociedad cohesionada y feliz debe fijarse como objetivos de su vida política.

 

Antonio Marco es catedrático de Latín jubilado y expresidente de las Cortes de Castilla-La Mancha.

Vídeos de la noticia

Imágenes de la noticia

Categorías:
Powered by WebTV Solutions