¿Quien puede controlar una alma nómada?, siempre en movimiento, siguiendo al viento hacia lo desconocido, como la mente y el pensamiento, incontrolable y variable.. y si vaga nuestro pensamiento mejor que sea por las curiosidades de la historia, las descripciones de sus personalidades o las maravillas desconocidas de los territorios que nos son ajenos.
La tecnología, esa gran aliada y compañera que nos asiste a diario y facilita ( usualmente) nuestra vida,
también ha demostrado tener un enorme potencial para el extremo opuesto, llegando a nublar tanto la realidad que se está volviendo difícil distinguir la diferencia. Un perfecto ejemplo de estas aplicaciones maliciosas son los populares "deepfake" que abundan en la web.
Profundamente falso:
Los "Deep fake" son archivos de video, imagen o voz manipulados utilizando un software de inteligencia artificial, que según estudios han alcanzado un nivel, en el que ya no son solo fotorrealistas, sino casi indistinguibles. No son pocos los investigadores que advierten del peligro que representa este realismo extremo, pues estas imágenes fraudulentas pueden ser fácilmente utilizadas para propagar la desinformación o propiciar el fraude y la extorsión.
El valle inquietante
Por ejemplo, cuando miramos la imagen de Messi en un videojuego, es claramente visible que cada vez está mejor lograda, sus rasgos lucen más reales y el parecido es innegable, sin embargo hay algo que aún no cuaja. Su mirada y sus gestos son claramente robóticos. Esa impresión se conoce entre los creadores gráficos como "el valle inquietante" y marca el límite entre la creencia de que un personaje es de carne y hueso o solo un humanoide en 3D. Con la llegada d nuevas generaciones de gráficos generados por inteligencia artificial esa barrera se ha roto y el "valle inquietante" ha desaparecido. Haciendo extremadamente sencillo crear una imagen de cualquier figura pública haciendo trucos simpáticos o incluso una tuya en contextos íntimos que puede ser utilizada para extorsionarte, aunque no seas realmente tú.
El experimento:
Para comprobar hasta que punto es fácil engañarnos, un equipo de investigadores de la Universidad de
Lancaster, en el Reino Unido, mostraron a un grupo de personas un conjunto de imágenes de rostros reales y digitales. Los participantes se dividieron en tres grupos. El primero obtuvo una media de acierto del 48%, el segundo, que contó con ayuda de los investigadores, acertó solo el 59% y el último, encargado de puntuar la confianza generada por los rostros, otorgó una calificación de 4,82 a los rostros artificiales, mientras que a los reales solo 4,48.
Sophie Nightingale, profesora de psicología asegura: " No estamos diciendo que todas las imágenes generadas sean indistinguibles de un rostro real, pero un número significativo de ellas lo son". En las conclusiones del estudio, los científicos alertan sobre el peligro inminente que suponen estas tecnologías: " cualquiera puede crear contenidos sintéticos sin necesidad de tener conocimientos especializados de Photoshop o gráficos generados por ordenador".
Se hace entonces necesaria la creación de herramientas que sean capaces de detectar y alertar cuando estamos en presencia de un "Deep fake" y sean implementadas en las plataformas de redes sociales, para combatir los posibles efectos secundarios de estas tecnologías. Aún así su avance es imparable. Muchos hablan de insertar marcas de agua en los dispositivos que se utilizan para crear estos "fakes" o del uso de blockchain para que cada una de estas imágenes tenga una firma única que se pueda rastrear. Nada es seguro aún.
Lo único certero es que vivimos un momento importante en referencia al desarrollo de estas tecnologías. Respecto a ello la doctora Nightingale y su equipo declaran: " en este momento crucial, y al igual que han hecho otros campos de la ciencia y la ingeniería, animamos a la comunidad de gráficos y visión a desarrollar directrices para la creación y distribución de tecnologías de medios sintéticos que incorporen pautas éticas para investigadores, editores y distribuidores de medios."
Además alientan a dichos desarrolladores a considerar si son mayores los riesgos asociados a estas tecnologías que los beneficios que ofrecen.
Un nuevo tópico en el debate filosófico de tantos años concerniente a si la técnica puede ser intrínsecamente "mala" o es el ser humano el que la torna "mala" o "buena" según el uso qué le dé. Ejemplos sobran desde el mismo surgimiento de la humanidad.Gracias.
2 comentarios
Un nuevo tópico en el debate filosófico de tantos años concerniente a si la técnica puede ser intrínsecamente "mala" o es el ser humano el que la torna "mala" o "buena" según el uso qué le dé.
REPLYEjemplos sobran desde el mismo surgimiento de la humanidad.Gracias.
Inquietante!
REPLY