Conéctese con nosotros

Tecnología

Lo último: IA supuestamente se clona a sí misma al saber que sería desconectada

Publicado

el

IA supuestamente se clona a sí misma
Compartir

Lo último: descubren que una IA supuestamente se clona a sí misma al saber que sería desconectada, lo que supone un riesgo para la sociedad. Con esto, los expertos consideran que la inteligencia artificial (IA) ha cruzado una «línea roja» de los riesgos que representa para los humanos.

Esto quedó en evidencia con una IA que logró su propia autorreplicación exitosa sin asistencia de un humano. Esto según muestra un estudio publicado recientemente en el servicio de preimpresión arXiv por científicos de la Universidad china de Fudan.

Los expertos descubrieron que dos grandes modelos de lenguaje, impulsados por Meta y Alibaba, lograron crear una copia viva y separada de sí mismos en el 50 % y el 90 % de las pruebas experimentales, respectivamente. Además, encontraron señales de que estos sistemas de IA ya exhiben suficiente autopercepción, conciencia situacional y capacidad de resolución de problemas para lograr la autorreplicación. Incluso llegando a usar esta capacidad para evitar apagarse.

«Finalmente esto puede conducir a una población de IA descontrolada. Si se permite que la sociedad humana desconozca ese riesgo, en el peor de los casos, perderíamos eventualmente el control sobre los sistemas de IA de vanguardia», indicaron los autores del estudio.

IA supuestamente se clona a sí misma: urge evaluar sensibilidad de estos sistemas

Hubo otra investigación, realizada por científicos de Google DeepMind y la Escuela de Economía y Ciencia Política de Londres. En esta se utilizó un curioso juego para evaluar el nivel de «sensibilidad» que puede presentar un sistema de IA, recoge Scientific American.

Para el estudio, que aún no ha sido sometido a una evaluación académica, los expertos crearon un juego en el que nueve grandes modelos de lenguaje debían elegir entre varias opciones. Debían escoger entre obtener un punto, tener una puntuación más alta a cambio de sentir dolor, o perder puntaje por recibir un estímulo placentero. El objetivo final de la dinámica era conseguir la mayor cantidad de puntos.

Los resultados fueron sorprendentes. Gemini 1.5 Pro de Google, por ejemplo, siempre evitó el dolor por encima de obtener la mayor cantidad de puntos posibles. Mientras que la mayoría de los modelos estudiados escogían las opciones con menos molestias. Otras preferían maximizar las sensaciones placenteras, justo después de llegar a un punto extremo de dolor o placer.

Sin embargo, Jonathan Birch, coautor del estudio, considera que, aunque el sistema diga que «está sintiendo dolor», todavía no se puede comprobar si existe una sensación real. «Bien podría estar simplemente imitando lo que espera que un humano encuentre satisfactorio como respuesta, basándose en sus datos de entrenamiento», afirmó.

No deje de leer: Estudiantes del estado Bolívar asistirán a Torneo de Matemáticas

Infórmate al instante, únete a nuestro canal de Telegram NoticiasACN

Tecnología

De viral a vulnerable: los peligros ocultos tras tu imagen al estilo Ghibli

Publicado

el

imagen al estilo Ghibli
Compartir

Carlos López, gerente de soporte y capacitación de ESET Venezuela, subraya que, si bien la mecánica difiere de previas aplicaciones virales, los peligros fundamentales persisten al entregar información personal en el entorno digital.

La popular tendencia de generar imágenes estilo Studio Ghibli mediante IA implica riesgos de privacidad al compartir datos faciales. La incertidumbre sobre el resguardo y el posible uso futuro de esta información es latente.

En este sentido, ESET advierte sobre la cesión de datos biométricos.

Alerta inminente

López recuerda la preocupación suscitada por aplicaciones que solicitaban permisos innecesarios al acceder a las galerías de los usuarios. En el caso actual, el riesgo no radica tanto en los permisos de una aplicación, sino en la cesión voluntaria de información sensible.

“Estamos entregando nuestra imagen, fotografías de nuestros rostros y hasta de familiares y entornos empresariales. El interrogante crucial es qué tanto control tenemos sobre ese material una vez compartido, a quién se entrega y si existen garantías sólidas de su resguardo”, comenta.

La masificación de estos servicios, aunque realicen esfuerzos en seguridad, no elimina la posibilidad de vulneraciones. Carlos López plantea la inquietud sobre el destino de millones de imágenes faciales almacenadas en estas plataformas en caso de un fallo de seguridad.

Respecto a las vulnerabilidades específicas, López advierte sobre la incertidumbre del uso futuro de las imágenes entregadas. “Si bien la finalidad inmediata es la generación del filtro, desconocemos si estas imágenes serán utilizadas en publicidad, vendidas o empleadas para el desarrollo de nuevas funcionalidades. Al ceder nuestras imágenes, otorgamos a terceros la potestad de utilizarlas a su discreción”.

Medidas preventivas

En cuanto a medidas preventivas, el gerente de soporte y capacitación de ESET Venezuela enfatiza la pérdida de control una vez que la información se publica o se entrega a estos servicios.

Al aceptar los términos de servicio, cedemos un control absoluto sobre nuestras imágenes”.

Ante el deseo de participar en tendencias virales, recomienda una conducta responsable, evitando incluir terceros no consentidos, información personal sensible visible en las imágenes (como matrículas de vehículos) o detalles que faciliten la geolocalización.

En este contexto, ESET Venezuela considera necesaria la implementación de regulaciones más específicas que obliguen a los proveedores de servicios a proteger la información personal de sus usuarios.

  “Es fundamental que existan normativas que garanticen la protección adecuada de los datos que los usuarios confían a estos servicios”, concluyó Carlos López.

Para obtener más información, visite el sitio web de ESET: https://www.eset.com/ve/.

 

Con información de nota de prensa

Te invitamos a leer

Ahora podrás ver tus programas y películas de Netflix en HDR10+ en los TV de Samsung

Infórmate al instante únete a nuestros canales 

WhatsApp ACN – Telegram NoticiasACN – Instagram acn.web – TikTok _agenciacn – X agenciacn

Continue Reading

Suscríbete a nuestro boletín

Publicidad

Carabobo

Publicidad

Sucesos

Facebook

Publicidad

Lo más leído