Entrevista al Dr. Benjamin Lange, experto en ética en la inteligencia artificial

Embed

EUvsDisinfo: Es usted experto en ética en la inteligencia artificial y desinformación, entre otros campos. ¿Qué significa eso en la práctica? ¿Qué hace un experto en ética en este campo?

Dr. Benjamin Lange: Como experto en ética, tengo dos facetas. La primera es la académica. Mis investigaciones como filósofo se centran en la desinformación y la inteligencia artificial. Por ejemplo, estudio los distintos riesgos de daño ético que plantea la lucha contra la desinformación. Aunque nadie duda de la necesidad de contener y mitigar la desinformación, especialmente a gran escala y cuando hay Estados detrás, desde el punto de vista de la ética, existen formas mejores y peores de hacerlo.

Otra línea de investigación en la que trabajo es la conceptualización de la desinformación, con especial atención a la operativa de nuestros mecanismos de detección. En este ámbito, la herramienta filosófica del análisis conceptual puede resultar de utilidad y contribuir a nuestra comprensión.

Mi segunda faceta es de carácter más práctico. Como consultor en cuestiones éticas, ayudo a organizaciones que se dedican a desmentir, contener o combatir la desinformación a realizar esta labor basándose en principios éticos sólidos y de forma que ayude a los analistas en los casos que se encuentran en la zona gris y requieren mucho juicio crítico. Para estos casos difíciles puede ser necesario desarrollar marcos y herramientas de toma de decisiones o de reflexión que permitan conceptualizar la desinformación y la forma en que se incrusta en las cadenas de detección, así como procesos que nos ayuden a evaluar la proporcionalidad de las medidas empleadas para combatir la desinformación.

EUvsDisinfo: En los próximos años, la inteligencia artificial ejercerá toda clase de efectos en nuestras sociedades. Ya estamos experimentando algunos de ellos, como el uso de generadores de texto o imágenes en trabajos creativos y de otros tipos. No obstante, muchos de estos impactos, y en particular los más fundamentales, son aún mera especulación. En EUvsDisinfo nos interesa especialmente la interacción entre la inteligencia artificial y la manipulación de la información. ¿Podría dar a nuestros lectores unas pinceladas sobre los últimos avances del pensamiento sobre esta cuestión? ¿Qué debería preocuparnos? ¿En qué deberíamos fijarnos?

BL: Pienso que, como usted dice, lo que ha acaparado nuestras mentes durante este año es el impacto de la inteligencia artificial generativa, ya se trate de generadores de texto a partir de texto o a partir de imagen. Se trata de un campo incipiente y en muchos aspectos aún por definir, pero la cuestión más preocupante es, sin duda, el efecto catalizador que la inteligencia artificial generativa puede tener en la difusión masiva de desinformación e información errónea, ya sea en forma de texto o de imágenes.

Es, por lo tanto, un área de especial interés. En particular, me gustaría invitar a todo el mundo a prestar atención y tratar de comprender mejor cómo funcionan algunos de estos modelos —por ejemplo, cómo generan textos o imágenes— y cómo identificar los resultados de la inteligencia artificial generativa. Podemos guiarnos por ciertas pistas, como los patrones sintácticos del texto (el orden adecuado de las palabras dentro de una frase, o la propia estructura de esta) o determinados elementos de las imágenes que la inteligencia artificial aún no domina (manos, proporciones lógicas, dimensiones relativas de los elementos, fondos con muchos detalles, etc.). Ello también significa que las técnicas contrastadas de comprobación de hechos, como la verificación de los materiales empleados como fuente, adquieren aún más importancia.

No todo son malas noticias: nuestras capacidades técnicas aumentan y también lo hacen en lo que se refiere a la detección de desinformación, como en el caso de las ultrafalsificaciones, o deepfakes. No obstante, existen pruebas preocupantes de que los modelos actuales no resultan eficaces con la información errónea generada mediante inteligencia artificial. Pero, en definitiva, aún no es posible saber si pronto vamos a sufrir una avalancha de desinformación obra de la inteligencia artificial generativa.

EUvsDisinfo: ¿Qué cree que podría hacerse de forma inmediata para mitigar las amenazas que plantea la inteligencia artificial en nuestros entornos de información? ¿Hay alguna idea arriesgada y visionaria que pudiese requerir más tiempo y dinero pero que, a la larga, reportaría beneficios mucho mayores?

BL: Esta cuestión se enmarca en un debate más amplio sobre la gestión responsable de la inteligencia artificial, y requiere una respuesta armonizada de todas las partes interesadas de los ámbitos de la política, la industria, la investigación y la sociedad en su conjunto. En tanto en cuanto nos preocupa la amenaza que supone la inteligencia artificial específicamente en el entorno de información, debemos aplicar, mediante la autorregulación y una legislación estricta, mecanismos de protección adecuados para el uso de estas tecnologías. Se trata de exigir que se añadan protecciones técnicas, como marcas de agua digitales, a las interfaces de programación de aplicaciones (API) del software asistido por inteligencia artificial para mitigar el riesgo de abuso y manipulación de la información.

Por otra parte, y probablemente entramos en el terreno de lo arriesgado y visionario, podríamos alejarnos de la mitigación reactiva de los riesgos, que no deja de ser necesaria, y poner todo nuestro empeño en educar a la población en materia de inteligencia artificial y su relación con nuestro consumo de información y creación de hábitos, empezando por las escuelas. Crear resiliencia y habilidades críticas a gran escala para poder navegar en el entorno de información en esta era de la inteligencia artificial me parece mucho más útil que centrarse exclusivamente en las medidas reactivas.

EUvsDisinfo: ¿Puede citar posibles usos positivos de la inteligencia artificial que sirvan para combatir la manipulación de la información?

BL: Pienso que los usos positivos se refieren a la detección de casos sencillos de manipulación de la información. Aunque, como ya he dicho, investigaciones recientes apuntan a que la inteligencia artificial generativa es un verdadero escollo para estos esfuerzos de detección automática. Me refiero a cuentas falsas o cuentas bot que divulgan masivamente determinadas historias, o a la detección automática de vídeos, texto e imágenes que ya han sido etiquetados como desinformación y solo se han alterado levemente. Por ejemplo, hay casos en los que es posible detectar pequeños cambios sintácticos en el patrón de textos que ya han sido etiquetados como desinformación por analistas humanos. Existen técnicas similares para las ultrafalsificaciones o la desinformación basada en imágenes, que representa un número mucho mayor de casos de manipulación de la información; pensemos en las infografías, fotografías e imágenes por satélite adulteradas. Las variaciones y modificaciones de este tipo de material pueden, hasta cierto punto, detectarse automáticamente.

Categorías

Cláusula de exención de responsabilidad

Los casos de la base de datos de EUvsDisinfo se centran en mensajes del espacio informativo internacional que ofrecen una representación parcial, distorsionada o falsa de la realidad y que difunden mensajes pro-Kremlin claves. Sin embargo, esto no implica necesariamente que un determinado medio esté vinculado al Kremlin o que su línea editorial sea pro-Kremlin, ni que haya pretendido desinformar de forma intencionada. Las publicaciones de EUvsDisinfo no representan la postura oficial de la UE, puesto que la información y las opiniones expresadas se basan en los informes y análisis de los medios de comunicación del Grupo de Trabajo East StratCom.

    COMPARTA SUS COMENTARIOS CON NOSOTROS

    Información sobre protección de datos *

      Subscribe to the Disinfo Review

      Your weekly update on pro-Kremlin disinformation

      Data Protection Information *

      The Disinformation Review is sent through Mailchimp.com. See Mailchimp’s privacy policy and find out more on how EEAS protects your personal data.