ESTADOS UNIDOS - Un video manipulado que imita la voz de la vicepresidenta de Estados Unidos, Kamala Harris, para que parezca que dijo cosas que nunca dijo está suscitando preocupaciones por el poder que tiene la inteligencia artificial para engañar, a sólo tres meses de que se realicen las elecciones generales.
El video acaparó la atención después de que el multimillonario Elon Musk lo compartiera en su plataforma de redes sociales X el viernes por la noche sin señalar explícitamente que se había publicado originalmente como parodia.
El video utiliza muchos de los elementos visuales de un anuncio real que Harris, la probable candidata demócrata a la presidencia, publicó la semana pasada para lanzar su campaña. Pero el video cambia la voz en off por otra que suplanta de forma convincente a Harris.
Recibe las noticias locales y los pronósticos del tiempo directo a tu email. Inscríbete para recibir newsletters de Telemundo Houston aquí.
“Yo, Kamala Harris, soy su candidata demócrata a la presidencia porque Joe Biden finalmente sacó a la luz su senilidad en el debate”, dice la voz en el video. Afirma que Harris es alguien “contratada por la diversidad” porque es mujer y persona no blanca, y dice que no sabe “lo más mínimo sobre cómo dirigir el país”. El video mantiene la marca “Harris para Presidenta”. También añade algunos clips auténticos de Harris que fueron tomados en el pasado.
Mia Ehrenberg, portavoz del equipo de campaña de Harris, dijo en un correo electrónico enviado a The Associated Press que “creemos que el pueblo estadounidense quiere la verdadera libertad, oportunidad y seguridad que ofrece la vicepresidenta Harris, no las mentiras falsas y manipuladas de Elon Musk y Donald Trump”.
El video, que ha sido ampliamente compartido, es un ejemplo de cómo se han utilizado imágenes, videos o clips de audio generados por inteligencia artificial tanto para burlarse como para engañar con respecto a la política, a medida que Estados Unidos se acerca a las elecciones presidenciales. Expone cómo, conforme las herramientas de IA de alta calidad se han vuelto mucho más accesibles, sigue sin haber una acción federal significativa hasta ahora para regular su uso, dejando las normas que rigen la IA en la política en gran medida a los estados y las plataformas de medios sociales.
El video también plantea cuestiones sobre la mejor manera de tratar los contenidos que desdibujan los límites de lo que se considera un uso apropiado de la IA, sobre todo si entran en la categoría de sátira.
El usuario original que publicó el video, un youtuber conocido como Mr Reagan, ha indicado tanto en YouTube como en X que el video manipulado es una parodia. Pero el post de Musk, que ha sido visto más de 123 millones de veces, según la plataforma, sólo incluye el comentario “Esto es increíble”, con un emoji de risa.
Los usuarios de X que estén familiarizados con la plataforma sabrán que deben hacer clic en la publicación de Musk para ir a la publicación del usuario original, donde la aclaración acerca de la parodia es visible. El pie de foto de Musk no les indica que lo hagan.
Aunque algunos usuarios de ”notas de la comunidad″ de X —una función que sirve para añadir contexto a las publicaciones— han sugerido etiquetar la publicación de Musk, hasta el domingo por la tarde no se había añadido ninguna etiqueta. Algunos usuarios se preguntaban si su publicación podría violar las políticas de X, que dicen que los usuarios no pueden “compartir de forma engañosa contenido multimedia falso o alterado que probablemente causaría daño”.
La red social X prevé una excepción para los memes y la sátira siempre que no causen “confusión significativa sobre la autenticidad de los medios”.
Musk apoyó este mes al candidato republicano, el expresidente Donald Trump. Ni el youtuber Mr Reagan ni Musk respondieron por ahora a las solicitudes de comentarios enviadas por correo electrónico el domingo.
Dos expertos en contenidos multimedia generados por IA revisaron el audio del anuncio falso y confirmaron que gran parte de éste se había generado con tecnología de IA.
Uno de ellos, Hany Farid, experto en análisis forense digital de la Universidad de California, campus Berkeley, dijo que el video es una muestra del poder de la IA generativa y los videos manipulados digitalmente.
“La voz generada por la IA es muy buena”, afirma en un correo electrónico. “Aunque la mayoría de la gente no creerá que es la voz de la vicepresidenta Harris, el video es mucho más impactante cuando las palabras salen con su voz”.
Farid dijo que las empresas de IA generativa que ponen a disposición del público herramientas de clonación de voz y otras herramientas de IA deberían esforzarse más por garantizar que sus servicios no se utilicen de forma que puedan perjudicar a las personas o a la democracia.
Rob Weissman, copresidente del grupo de defensa Public Citizen, discrepó de Farid y dijo que creía que el video engañaría a mucha gente.
“No creo que sea obvio que se trata de una broma”, dijo Weissman en una entrevista. “Estoy seguro de que la mayoría de la gente que lo ve no asume que es una broma. La calidad no es muy buena, pero sí lo suficiente. Y precisamente porque se alimenta de temas preexistentes que han circulado a su alrededor, la mayoría de la gente creerá que es real”.
Weissman, cuya organización aboga ante el Congreso, las agencias federales y los estados para que regulen la IA generativa, dijo que el video es “el tipo de cosas sobre las que hemos estado advirtiendo”.
Otros deepfakes de IA generativa, tanto en Estados Unidos como en otros países, habrían intentado influir en los votantes con desinformación, humor o ambas cosas. En Eslovaquia, en 2023, unos clips de audio falsos suplantaron a un candidato que hablaba de planes para amañar unas elecciones y subir el precio de la cerveza días antes de la votación. En Luisiana, en 2022, un anuncio satírico de un comité de acción política superpuso la cara de un candidato a alcalde a la de un actor que lo representaba como un estudiante de secundaria con bajo rendimiento.
El Congreso aún no ha aprobado una normativa sobre el uso de la IA en la política, y las agencias federales sólo han tomado medidas limitadas, dejando la mayor parte de la regulación estadounidense existente en manos de los estados. Más de un tercio de los estados han creado sus propias leyes para regular el uso de la IA en campañas y elecciones, según la Conferencia Nacional de Legislaturas Estatales.
Además de X, otras empresas de redes sociales también han desarrollado políticas relativas a los contenidos multimedia alterados y manipulados que se comparten en sus plataformas. Los usuarios de la plataforma de videos YouTube, por ejemplo, deben revelar si han utilizado inteligencia artificial generativa para crear videos o se enfrentarían a una suspensión.