2024, el año de la IA malintencionada

20 de Mayo de 2024

2024, el año de la IA malintencionada

Beyond algorithms: Sandra Rodriguez hacks AI tools for art

(FILES) This picture taken on April 26, 2023 in Toulouse, southwestern France, shows screens displaying the logo of Midjourney an articial intelligence application. Canadian artist and academic Sandra Rodriguez, by hacking artificial intelligence, hopes to demystify the novel technology topping the news of late, while showcasing its power and potential to brighten but also disrupt our lives. (Photo by Lionel BONAVENTURE / AFP)

/

LIONEL BONAVENTURE/AFP

Foto: AFP

El alto número de elecciones que habrá a nivel mundial aumentará el contenido de odio generado por inteligencia artificial, señala un estudio

Se prevé que para mediados de 2024, las comunidades centradas en el odio, o “malos actores”, estarán utilizando distintas formas de inteligencia artificial (IA) todos los días; esto sucederá “justo antes de las elecciones de Estados Unidos y otras elecciones mundiales”, señalan un equipo de investigación, que también establece rutas para poder controlar este fenómeno.

El estudio, publicado hoy en la revista Proceedings of the National Academy of Sciences, hizo primero un mapa del actual “campo de batalla” de los malos actores en línea que promueven debates y desinformación sobre temas como la Covid-19, aborto, elecciones o cambio climático y encontró que esas comunidades incluyen a más de mil millones de personas a nivel global.

La investigación también predice que, para impulsar continuamente el contenido tóxico, estas comunidades enfocadas en el odio utilizaran herramientas de IA de las primeras generaciones, “ya que estos programas tienen menos filtros diseñados para evitar su uso por parte de malos actores”, están disponibles de manera gratuita y son lo suficientemente pequeños como para estar instalados en una computadora portátil.

Lee también: Contaminación, el otro lado de la inteligencia artificial

Desafíos constantes

El equipo de investigación, del Laboratorio de Redes Dinámicas en Línea de la Universidad George Washington, señala en su reporte que estos hallazgos “aclaran algunos de los desafíos importantes para los moderadores de plataformas y la legislación, planteados por malos actores (equipados) con solo versiones básicas de IA”.

También proponen una “matriz de políticas” (públicas o para las plataformas) que podrían conducir a alcanzar en cierta medida dos resultados deseables: la contención de esta actividad o su eliminación, y que puede ser “potencialmente valiosa para la gestión de las amenazas”.

A manera de conclusión, señalan que existe “la necesidad de una investigación continua en este campo, especialmente considerando el rápido avance de las tecnologías de IA y el panorama en constante cambio del ecosistema de la comunidad en línea”.

SIGUE LEYENDO |

Alertan en EU sobre uso de inteligencia artificial por parte del narco

La moral de los artefactos con IA

Te Recomendamos: