Los rostros creados por IA ahora se ven más reales que las fotos genuinas


Incluso si crees que eres bueno analizando caras, estudios muestran muchas personas no pueden distinguir de manera confiable entre fotos de rostros reales e imágenes generadas por computadora. Esto es particularmente problemático ahora que los sistemas informáticos pueden crear fotografías de aspecto realista de personas que no existen.

Hace algunos años, un perfil falso de LinkedIn con una foto de perfil generada por computadora fue noticia porque conectado exitosamente con funcionarios estadounidenses y otras personas influyentes en la plataforma de networking, por ejemplo. Los expertos en contrainteligencia incluso dicen que los espías crean rutinariamente perfiles fantasmas con tales imágenes para dirigirse a objetivos extranjeros a través de las redes sociales.

Estos deepfakes se están generalizando en la cultura cotidiana, lo que significa que las personas deberían ser más conscientes de cómo se utilizan en advertising and marketing, publicidad y redes sociales. Las imágenes también se utilizan con fines maliciosos, como propaganda política, espionaje y guerra de información.

Hacerlos implica algo llamado pink neuronal profunda, un sistema informático que imita la forma en que aprende el cerebro. Esto se “entrena” al exponerlo a conjuntos de datos cada vez más grandes de rostros reales.

De hecho, dos redes neuronales profundas se enfrentan entre sí, compitiendo para producir las imágenes más realistas. Como resultado, los productos finales se denominan imágenes GAN, donde GAN significa “redes antagónicas generativas”. El proceso genera imágenes novedosas que son estadísticamente indistinguibles de las imágenes de entrenamiento.

En un estudio publicado en iCiencia, mis colegas y yo demostramos que la incapacidad de distinguir estos rostros artificiales de los reales tiene implicaciones para nuestro comportamiento en línea. Nuestra investigación sugiere que las imágenes falsas pueden erosionar nuestra confianza en los demás y cambiar profundamente la forma en que nos comunicamos en línea.

Descubrimos que las personas percibían los rostros de GAN como incluso más reales que las fotos genuinas de rostros de personas reales. Si bien aún no está claro por qué sucede esto, este hallazgo no destacar los avances recientes en la tecnología utilizado para generar imágenes artificiales.

Y también encontramos un vínculo interesante con el atractivo: las caras que se calificaron como menos atractivas también se calificaron como más reales. Las caras menos atractivas pueden considerarse más típicas, y la cara típica puede usarse como referencia contra el cual se evalúan todas las caras. Por lo tanto, estas caras GAN se verían más reales porque son más similares a las plantillas mentales que las personas han construido a partir de la vida cotidiana.

Pero ver estas caras artificiales como auténticas también puede tener consecuencias para los niveles generales de confianza que extendemos a un círculo de personas desconocidas, un concepto conocido como “confianza social”.

A menudo leemos demasiado en los rostros que vemos, y el las primeras impresiones que nos formamos guían nuestras interacciones sociales. En un segundo experimento que formó parte de nuestro último estudio, vimos que period más possible que las personas confiaran en la información transmitida por rostros que previamente habían considerado reales, incluso si se generaron artificialmente.

No es sorprendente que las personas confíen más en las caras que creen que son reales. Pero descubrimos que la confianza se erosionó una vez que se informó a las personas sobre la posible presencia de rostros artificiales en las interacciones en línea. Luego mostraron niveles más bajos de confianza, en normal, independientemente de si las caras eran reales o no.

Este resultado podría considerarse útil de alguna manera, porque hizo que las personas sospecharan más en un entorno en el que pueden operar usuarios falsos. Sin embargo, desde otra perspectiva, puede erosionar gradualmente la naturaleza misma de cómo nos comunicamos.

En normal, tendemos a operar en una suposición predeterminada de que otras personas son básicamente veraces y confiables. El crecimiento de los perfiles falsos y otros contenidos artificiales en línea plantea la cuestión de hasta qué punto su presencia y nuestro conocimiento sobre ellos pueden alterar este estado de “verdad por defecto”, lo que finalmente erosiona la confianza social.

Cambiar nuestros valores predeterminados

La transición a un mundo donde lo que es actual es indistinguible de lo que no lo es también podría cambiar el panorama cultural de ser principalmente veraz a ser principalmente synthetic y engañoso.

Si regularmente cuestionamos la veracidad de lo que experimentamos en línea, es posible que debamos volver a desplegar nuestro esfuerzo psychological desde el procesamiento de los mensajes mismos hasta el procesamiento de la identidad del mensajero. En otras palabras, el uso generalizado de contenido en línea altamente realista, pero synthetic, podría obligarnos a pensar de manera diferente, de maneras que no esperábamos.

En psicología, usamos un término llamado “monitoreo de la realidad” para identificar correctamente si algo proviene del mundo externo o de nuestro cerebro. El avance de las tecnologías que pueden producir caras, imágenes y videollamadas falsas, pero altamente realistas, significa que el monitoreo de la realidad debe basarse en información distinta de nuestros propios juicios. También exige una discusión más amplia sobre si la humanidad aún puede permitirse el lujo de optar por la verdad por defecto.

Es essential que las personas sean más críticas al evaluar las caras digitales. Esto puede incluir el uso de búsquedas de imágenes inversas para verificar si las fotos son genuinas, desconfiar de los perfiles de redes sociales con poca información private o una gran cantidad de seguidores, y ser consciente del potencial de la tecnología deepfake para ser utilizada con fines nefastos.

La próxima frontera para esta área debería ser algoritmos mejorados para detectar caras digitales falsas. Luego, estos podrían integrarse en las plataformas de redes sociales para ayudarnos a distinguir lo actual de lo falso cuando se trata de las caras de las nuevas conexiones.

Este artículo se vuelve a publicar de La conversación bajo una licencia Artistic Commons. Leer el artículo unique.

Crédito de la imagen: las caras en la imagen del banner de este artículo pueden parecer realistas, pero fueron generadas por una computadora. NVIDIA a través de thispersondoesnotexist.com

Related Articles

Vea cómo Stretch de Boston Dynamics descarga un tráiler de DHL

Escucha este artículo (incrustar)https://www.youtube.com/watch?v=qgGH6Vk8nY8(/incrustar) dinámica de boston pone oficialmente su robotic Stretch...

Comments

LEAVE A REPLY

Please enter your comment!
Please enter your name here

Same Category

Vea cómo Stretch de Boston Dynamics descarga un tráiler de DHL

Escucha este artículo (incrustar)https://www.youtube.com/watch?v=qgGH6Vk8nY8(/incrustar) dinámica de boston pone oficialmente su...

Resumen de search engine marketing: ChatGPT – Moz

Los puntos de vista del autor son totalmente...
spot_img

Stay in touch!

Follow our Instagram