Tecnología
Lo último: IA supuestamente se clona a sí misma al saber que sería desconectada

Lo último: descubren que una IA supuestamente se clona a sí misma al saber que sería desconectada, lo que supone un riesgo para la sociedad. Con esto, los expertos consideran que la inteligencia artificial (IA) ha cruzado una «línea roja» de los riesgos que representa para los humanos.
Esto quedó en evidencia con una IA que logró su propia autorreplicación exitosa sin asistencia de un humano. Esto según muestra un estudio publicado recientemente en el servicio de preimpresión arXiv por científicos de la Universidad china de Fudan.
Los expertos descubrieron que dos grandes modelos de lenguaje, impulsados por Meta y Alibaba, lograron crear una copia viva y separada de sí mismos en el 50 % y el 90 % de las pruebas experimentales, respectivamente. Además, encontraron señales de que estos sistemas de IA ya exhiben suficiente autopercepción, conciencia situacional y capacidad de resolución de problemas para lograr la autorreplicación. Incluso llegando a usar esta capacidad para evitar apagarse.
«Finalmente esto puede conducir a una población de IA descontrolada. Si se permite que la sociedad humana desconozca ese riesgo, en el peor de los casos, perderíamos eventualmente el control sobre los sistemas de IA de vanguardia», indicaron los autores del estudio.
IA supuestamente se clona a sí misma: urge evaluar sensibilidad de estos sistemas
Hubo otra investigación, realizada por científicos de Google DeepMind y la Escuela de Economía y Ciencia Política de Londres. En esta se utilizó un curioso juego para evaluar el nivel de «sensibilidad» que puede presentar un sistema de IA, recoge Scientific American.
Para el estudio, que aún no ha sido sometido a una evaluación académica, los expertos crearon un juego en el que nueve grandes modelos de lenguaje debían elegir entre varias opciones. Debían escoger entre obtener un punto, tener una puntuación más alta a cambio de sentir dolor, o perder puntaje por recibir un estímulo placentero. El objetivo final de la dinámica era conseguir la mayor cantidad de puntos.
Los resultados fueron sorprendentes. Gemini 1.5 Pro de Google, por ejemplo, siempre evitó el dolor por encima de obtener la mayor cantidad de puntos posibles. Mientras que la mayoría de los modelos estudiados escogían las opciones con menos molestias. Otras preferían maximizar las sensaciones placenteras, justo después de llegar a un punto extremo de dolor o placer.
Sin embargo, Jonathan Birch, coautor del estudio, considera que, aunque el sistema diga que «está sintiendo dolor», todavía no se puede comprobar si existe una sensación real. «Bien podría estar simplemente imitando lo que espera que un humano encuentre satisfactorio como respuesta, basándose en sus datos de entrenamiento», afirmó.
No deje de leer: Estudiantes del estado Bolívar asistirán a Torneo de Matemáticas
Infórmate al instante, únete a nuestro canal de Telegram NoticiasACN
Tecnología
De viral a vulnerable: los peligros ocultos tras tu imagen al estilo Ghibli

Carlos López, gerente de soporte y capacitación de ESET Venezuela, subraya que, si bien la mecánica difiere de previas aplicaciones virales, los peligros fundamentales persisten al entregar información personal en el entorno digital.
La popular tendencia de generar imágenes estilo Studio Ghibli mediante IA implica riesgos de privacidad al compartir datos faciales. La incertidumbre sobre el resguardo y el posible uso futuro de esta información es latente.
En este sentido, ESET advierte sobre la cesión de datos biométricos.
Alerta inminente
López recuerda la preocupación suscitada por aplicaciones que solicitaban permisos innecesarios al acceder a las galerías de los usuarios. En el caso actual, el riesgo no radica tanto en los permisos de una aplicación, sino en la cesión voluntaria de información sensible.
“Estamos entregando nuestra imagen, fotografías de nuestros rostros y hasta de familiares y entornos empresariales. El interrogante crucial es qué tanto control tenemos sobre ese material una vez compartido, a quién se entrega y si existen garantías sólidas de su resguardo”, comenta.
La masificación de estos servicios, aunque realicen esfuerzos en seguridad, no elimina la posibilidad de vulneraciones. Carlos López plantea la inquietud sobre el destino de millones de imágenes faciales almacenadas en estas plataformas en caso de un fallo de seguridad.
Respecto a las vulnerabilidades específicas, López advierte sobre la incertidumbre del uso futuro de las imágenes entregadas. “Si bien la finalidad inmediata es la generación del filtro, desconocemos si estas imágenes serán utilizadas en publicidad, vendidas o empleadas para el desarrollo de nuevas funcionalidades. Al ceder nuestras imágenes, otorgamos a terceros la potestad de utilizarlas a su discreción”.
Medidas preventivas
En cuanto a medidas preventivas, el gerente de soporte y capacitación de ESET Venezuela enfatiza la pérdida de control una vez que la información se publica o se entrega a estos servicios.
“Al aceptar los términos de servicio, cedemos un control absoluto sobre nuestras imágenes”.
Ante el deseo de participar en tendencias virales, recomienda una conducta responsable, evitando incluir terceros no consentidos, información personal sensible visible en las imágenes (como matrículas de vehículos) o detalles que faciliten la geolocalización.
En este contexto, ESET Venezuela considera necesaria la implementación de regulaciones más específicas que obliguen a los proveedores de servicios a proteger la información personal de sus usuarios.
“Es fundamental que existan normativas que garanticen la protección adecuada de los datos que los usuarios confían a estos servicios”, concluyó Carlos López.
Para obtener más información, visite el sitio web de ESET: https://www.eset.com/ve/.
Con información de nota de prensa
Te invitamos a leer
Ahora podrás ver tus programas y películas de Netflix en HDR10+ en los TV de Samsung
Infórmate al instante únete a nuestros canales
WhatsApp ACN – Telegram NoticiasACN – Instagram acn.web – TikTok _agenciacn – X agenciacn
-
Sucesos22 horas ago
Detuvieron al jefe del Cicpc de Táchira
-
Carabobo23 horas ago
Alcaldía de San Diego instala noveno inversor híbrido en la avenida intercomunal Don Julio Centeno
-
Tecnología23 horas ago
De viral a vulnerable: los peligros ocultos tras tu imagen al estilo Ghibli
-
Nacional23 horas ago
Universidad Bolivariana de Venezuela impulsa la enseñanza del mandarín