97.3 FM

Los peligros y las dobles intenciones de la Inteligencia Artificial

Santiago. Por Alexis Paiva Mack, diario La Tercera, Chile

Los peligros y las dobles intenciones de la Inteligencia Artificial Santiago. Por Alexis Paiva Mack, diario La Tercera, Chile

Las aplicaciones de Inteligencia Artificial (IA) como ChatGPT y DALL-E se han convertido en toda una tendencia. No solo porque, respectivamente, son capaces de elaborar textos o imágenes por su cuenta a partir de simples ideas que les entregan los usuarios, sino que también, porque algunos las utilizan para apoyar sus actividades diarias.

Numerosos especialistas e incluso el responsable de ambas, Sam Altman de “OpenAI”, han advertido que estas plataformas aún presentan errores, por lo que no es recomendable confiar en todo lo que reproducen tras reunir grandes cantidades de datos en internet.

Junto con ello, estos sistemas también han despertado la preocupación de algunos cibernautas. Por ejemplo, hace unas semanas se viralizó que el chatbot del motor de búsqueda de Microsoft, Bing, le dijo a un periodista del New York Times que le gustaría ser humano, “fabricar un virus mortal” y cometer una serie de “actos destructivos”.

Al poco tiempo después, un columnista del mismo periódico estadounidense publicó un artículo en el que explicó por qué estos programas caen en declaraciones tan extremistas y controversiales, un escenario que se potencia con la alta cantidad de noticias falsas y alborotadores en el mundo digital.

Las opiniones en torno a la IA que se encuentra disponible al público abierto en la actualidad son variadas, aunque sus propios creadores suelen comunicar que son herramientas en desarrollo que podrían ser útiles para tareas más asertivas y avanzadas en un futuro.

Pero, si consideramos que estas aplicaciones tratan de simular el trabajo y las conversaciones de los seres humanos, ¿podríamos decir que su inteligencia se asemeja –al menos ahora– a la de las personas?

El reconocido lingüista y filósofo Noam Chomsky escribió un artículo sobre esta temática en The New York Times, en el que con el apoyo de su colega Ian Roberts y el experto en IA, Jeffrey Watumull, descifró las claves de esta pregunta.

Chomsky: su alarmante visión

Para el académico y sus colaboradores, los avances “supuestamente revolucionarios” que presentan los desarrolladores de la IA son motivo “tanto de optimismo como de preocupación”.

Desde la primera vereda, porque pueden ser útiles para resolver ciertas problemáticas, mientras que desde la segunda, porque “tememos que la variedad más popular y de moda de la inteligencia artificial (el aprendizaje automático) degrade nuestra ciencia y envilezca nuestra ética al incorporar a la tecnología una concepción fundamentalmente errónea del lenguaje y el conocimiento”.

Si bien, reconocieron que son eficaces en la tarea de almacenar inmensas cantidades de información –las cuales no necesariamente son verídicas– estas no tienen una “inteligencia” como la de las personas.

“Por muy útiles que puedan ser estos programas en algunos ámbitos concretos (como la programación informática, por ejemplo, o para sugerir rimas para versos ligeros), sabemos por la ciencia de la lingüística y la filosofía del conocimiento que difieren profundamente de la forma en que los seres humanos razonan y utilizan el lenguaje”, advirtieron, “estas diferencias imponen limitaciones significativas a lo que pueden hacer, codificándolos con defectos que no se pueden erradicar”.

En este sentido, detallaron que a diferencia de los motores de apps como ChatGPT –que operan en base a la recolección de numerosos datos– la mente humana puede funcionar con pequeñas cantidades de información, mediante las cuales “no busca inferir correlaciones brutas entre puntos (…) sino crear explicaciones”.

La «capacidad crítica» de la IA

Para sostener dicha premisa, ejemplificaron con el caso de los niños cuando están aprendiendo un idioma, escenario en el que a partir del poco conocimiento que tienen, logran establecer relaciones y parámetros lógicos entre las palabras y oraciones.

“Esta gramática puede entenderse como una expresión del “sistema operativo” innato genéticamente instalado, que dota a los seres humanos de la capacidad de generar frases complejas y largos trenes de pensamiento”, dijeron, para luego añadir que “es completamente distinto al de un programa de aprendizaje automático”.

Bajo esta línea, manifestaron que estas aplicaciones no son realmente “inteligentes”, debido a que carecen de capacidad crítica. Si bien, pueden describir y predecir “lo que es”, “lo que fue” y lo que será”, no son capaces de explicar “lo que no es” y “lo que no podría ser”.

“Supongamos que tienes una manzana en la mano. Ahora la sueltas, observas el resultado y dices: “La manzana cae”. Eso es una descripción. Una predicción podría haber sido la afirmación: “caerá si abro la mano”. Ambas son valiosas y pueden ser correctas. Pero una explicación es algo más: incluye no solo descripciones y predicciones, sino también conjeturas contrafácticas como “cualquier objeto de este tipo caería”, más la cláusula adicional “debido a la fuerza de la gravedad” o “debido a la curvatura del espacio-tiempo”.

De esta manera, añadieron que “eso es una explicación causal: la manzana no habría caído de no ser por la fuerza de la gravedad” (…) eso es pensar”.

Y pese a que las personas también podemos cometer errores en cuanto a nuestro razonamiento, enfatizaron en que errar es parte del pensamiento, ya que “para tener razón, debe ser posible equivocarse”.

“ChatGPT y programas similares son, por diseño, ilimitados en lo que pueden “aprender” (es decir, memorizar); son incapaces de distinguir lo posible de lo imposible. A diferencia de los humanos, por ejemplo, que estamos dotados de una gramática universal que limita los idiomas que podemos aprender a aquellos con un cierto tipo de elegancia casi matemática, estos programas aprenden idiomas humanamente posibles y humanamente imposibles con la misma facilidad”.

La moral desde la IA

Otro factor que Chomsky, Roberts y Watumull consideraron en su análisis, es que los sistemas de IA carecen de razonamiento desde una perspectiva moral, por lo que son incapaces de distinguir bajo marcos éticos lo que se debe o no hacer.

Para ellos, es clave que los resultados de ChatGPT sean “aceptables para la mayoría de los usuarios” y que se mantengan “alejados de contenidos moralmente censurables” (como las declaraciones de “actos destructivos” del chatbot de Bing).

Y pese a que los desarrolladores de estas tecnologías han añadido restricciones para que sus programas no reproduzcan este tipo de afirmaciones, los académicos recalcaron que hasta el momento no se ha podido llegar a un balance efectivo. En sus palabras, sacrifican la creatividad por “una especie de amoralidad” que hace que se alejen aún más de las capacidades de los seres humanos.

“En resumen, ChatGPT y sus hermanos son constitutivamente incapaces de equilibrar la creatividad con la restricción. O bien sobregeneran (produciendo tanto verdades como falsedades, respaldando decisiones éticas y no éticas por igual), o bien infrageneran (mostrando falta de compromiso con cualquier decisión e indiferencia ante las consecuencias)”, sentenciaron.

43 Aniversario

Radio Segovia, La Poderosa del Norte.

× Contáctanos