A pocos días de las elecciones generales de Chaco se filtró un supuesto audio del candidato a gobernador de Juntos por el Cambio, Leandro Zdero, donde acusa al radical Ángel Rozas de ser un "cagador" y en Juntos por el Cambio culparon a la inteligencia artificial.
"Ya arreglé con Valdés, arreglé con Horacio, arreglé con Patricia. Arreglé con la madre de la chica esa, y se quieren quedar con mi gobierno", dice Zdero en el audio.
La alusión sería a Gloria Romero, que llamó a votar por Zdero en las primarias. Romero es la madre de Cecilia Strzyzowski, la joven desaparecida en junio de este año. Por la investigación de su posible femicidio fueron detenidos César Sena junto a sus padres Emerenciano Sena y Marcela Acuña, una familia de dirigentes sociales de vínculos con el gobernador Jorge Capitanich.
El audio que está circulando también hace referencia al histórico líder radical Ángel Rozas. "Ángel siempre fue un cagador" dice supuestamente Zdero. "Cuando ellos metieron la mano en la lata, yo me hice el boludo. Cuando asuma los dejo afuera de todo", dice el audio.
En el sector de Zdero salieron a denunciar que el audio es falso y forma parte de una campala sucia del peronismo. "Son tan truchos que esta ni si quiera es la voz de Zdero, usan mal la inteligencia artificial, están desesperados desde la casa de Gobierno", dijeron en la UCR chaqueña.
"Esto es inteligencia artificial, pero la verdad que muy mala la clonación de la voz", agregaron las fuentes.
Más allá de la disputa chaqueña, la difusión del audio pone en debate el avance de la inteligencia artificial en la política. Esta semana se viralizaron dos videos en forma humorística: uno de Alberto Fernández hablando en italiano desde la Antártida y otro de Javier Milei hablando en alemán. En estos casos la falsedad es evidente, pero la similitud de las voces que logra la IA, sumada a la gesticulación que adapta la propia tecnología, es un caldo de cultivo para la proliferación de fake news.
El avance de la inteligencia artificial es un tema que preocupa en todo el planeta. El multimillonario Elon Musk, dueño de Twitter y Tesla, junto a más de 1000 investigadores tecnológicos, firmaron en marzo una carta para pedir el freno del desarrollo de las IA por seis meses.
"Los sistemas de inteligencia artificial pueden suponer un profundo riesgo para la sociedad y la humanidad. Por desgracia, no se está desarrollando con el nivel de planificación y cuidado adecuado", dice la carta, que advierte que "se ha producido una carrera descontrolada para desarrollar sistemas cada vez más poderosos que nadie, ni siquiera sus creadores, entienden, predicen o pueden controlar con fiabilidad".
"Por esto, hacemos un llamamiento dirigido a todos los laboratorios de inteligencia artificial para que pausen de forma inmediata los desarrollos más potentes que GPT-4 durante al menos seis meses. Esta pausa deberá ser pública y verificable, e incluir a todos los actores clave. Si esta pausa no llega rápidamente, los Gobiernos deberían dar un paso al frente e imponerla", dijeron los tecnológicos.
LPO le preguntó al ChatGPT si se puede falsear la voz de un político con inteligencia artificial y esta fue la respuesta:
Sí, es posible utilizar la inteligencia artificial (IA) para falsificar la voz de un político. Esto se hace mediante una técnica llamada síntesis de voz por IA o clonación de voz. Con esta tecnología, es posible tomar grabaciones de audio existentes de una persona y utilizar algoritmos de IA para generar una voz que parezca ser la suya. Esto puede incluir la imitación de su tono, entonación y estilo de habla.
Es importante señalar que esta tecnología plantea preocupaciones éticas y de seguridad significativas. La falsificación de la voz de un político con IA podría utilizarse para difundir información falsa o engañosa, lo que podría tener graves consecuencias en la política y la sociedad. Por lo tanto, es fundamental que se establezcan regulaciones y mecanismos de detección efectivos para abordar este tipo de problemas.
La clonación de voz es solo una forma de la creciente preocupación sobre la manipulación de medios y la desinformación con la ayuda de la IA. En muchos países, se están considerando leyes y regulaciones para abordar estos problemas y proteger la integridad de la información y la comunicación. También se están desarrollando herramientas de detección de manipulación de medios para identificar contenido falso o generado por IA.
Por favor no corte ni pegue en la web nuestras notas, tiene la posibilidad de redistribuirlas usando nuestras herramientas.
es 100% verdad, Rozas y Ayala se afanaron media provincia y el la miró pasar.