Conéctese con nosotros

Tecnología

Alarmantes denuncias de los empleados de OpenAI sobre la imprudente carrera por dominio absoluto

Publicado

el

Denuncias de los empleados de OpenAI - Agencia Carabobeña de Noticia - Agencia ACN - Noticias tecnología
Compartir

Un grupo de empleados de OpenAI está denunciando lo que consideran una cultura de imprudencia y secretismo en la empresa de inteligencia artificial de San Francisco, que se apresura a construir los sistemas de inteligencia artificial más potentes jamás creados.

El grupo, que incluye a nueve empleados y ex empleados de OpenAI, se ha reunido en los últimos días en torno a la preocupación compartida de que la empresa no ha hecho lo suficiente para evitar que sus sistemas de inteligencia artificial se vuelvan peligrosos.

Denuncias de los empleados de OpenAI

Los miembros afirman que OpenAI, que comenzó como un laboratorio de investigación sin ánimo de lucro y saltó a la luz pública con el lanzamiento en 2022 de ChatGPT, está dando prioridad a los beneficios y al crecimiento en su intento de crear inteligencia artificial general, o I.A.G., el término industrial para un programa informático capaz de hacer cualquier cosa que pueda hacer un humano.

También afirman que OpenAI ha utilizado tácticas de mano dura para evitar que los trabajadores expresen sus preocupaciones acerca de la tecnología, incluyendo acuerdos restrictivos de no desprestigio que se pidió firmar a los empleados salientes.

“OpenAI está realmente entusiasmada con la creación de la I.G.A., y están corriendo temerariamente para ser los primeros en ello”, dijo Daniel Kokotajlo, antiguo investigador de la división de gobernanza de OpenAI y uno de los organizadores del grupo.

Te puede interesar: Elon Musk confirma que desvió chips de Nvidia destinados a Tesla a sus compañías X y xAI

Pero nada ha calado tanto como la acusación de que OpenAI ha sido demasiado arrogante con la seguridad.

El mes pasado, dos investigadores de alto nivel –Ilya Sutskever y Jan Leike– abandonaron OpenAI bajo una nube de sospechas. El Dr. Sutskever, que había formado parte del consejo de OpenAI y votó a favor del despido del Sr. Altman, había hecho saltar las alarmas sobre los riesgos potenciales de los potentes sistemas de inteligencia artificial. Su marcha fue vista por algunos empleados preocupados por la seguridad como un revés.

También lo fue la marcha del Dr. Leike, que junto con el Dr. Sutskever había dirigido el equipo de «superalineación» de OpenAI, centrado en la gestión de los riesgos de los potentes modelos de inteligencia artificial. En una serie de mensajes públicos anunciando su marcha, el Dr. Leike dijo que creía que “la cultura y los procesos de seguridad han pasado a un segundo plano frente a los productos brillantes”.

Ni el Dr. Sutskever ni el Dr. Leike firmaron la carta abierta escrita por antiguos empleados. Pero sus salidas impulsaron a otros antiguos empleados de OpenAI a pronunciarse.

“Cuando me inscribí en OpenAI, no lo hice con esta actitud de ‘Vamos a poner las cosas en el mundo y ver qué pasa y arreglarlas después’”, dijo el Sr. Saunders.

Algunos de los antiguos empleados están vinculados al altruismo efectivo, un movimiento de inspiración utilitarista que en los últimos años se ha preocupado por prevenir las amenazas existenciales de la Inteligencia Artificial. Los críticos han acusado al movimiento de promover escenarios catastrofistas sobre la tecnología, como la idea de que un sistema de Inteligencia Artificial fuera de control podría tomar el poder y acabar con la humanidad.

Kokotajlo, de 31 años, se unió a OpenAI en 2022 como investigador de gobernanza y se le pidió que pronosticara el progreso de la inteligencia artificial. No era, por decirlo suavemente, optimista.

En su anterior trabajo en una organización de seguridad de la Inteligencia Artificial, predijo que la Inteligencia Artificial podría llegar en 2050. Pero después de ver lo rápido que mejoraba la I.A., acortó sus plazos. Ahora cree que hay un 50% de posibilidades de que la I.G.A. llegue en 2027, en sólo tres años.

También cree que la probabilidad de que la I.A. avanzada destruya o dañe catastróficamente a la humanidad -una sombría estadística a menudo abreviada como «p(doom)» en los círculos de I.A.- es del 70%.

En OpenAIKokotajlo vio que, aunque la empresa tenía protocolos de seguridad -incluido un esfuerzo conjunto con Microsoft conocido como “consejo de seguridad de despliegue”, que se suponía que revisaba los nuevos modelos en busca de riesgos importantes antes de que se hicieran públicos-, rara vez parecían frenar algo.

Con información de ACN / infobae

No dejes de leer: Capturado “influencer” colombiano que filmaba retos sexuales con estudiantes

Infórmate al instante únete a nuestro canal de Telegram NoticiasACN

Tecnología

De viral a vulnerable: los peligros ocultos tras tu imagen al estilo Ghibli

Publicado

el

imagen al estilo Ghibli
Compartir

Carlos López, gerente de soporte y capacitación de ESET Venezuela, subraya que, si bien la mecánica difiere de previas aplicaciones virales, los peligros fundamentales persisten al entregar información personal en el entorno digital.

La popular tendencia de generar imágenes estilo Studio Ghibli mediante IA implica riesgos de privacidad al compartir datos faciales. La incertidumbre sobre el resguardo y el posible uso futuro de esta información es latente.

En este sentido, ESET advierte sobre la cesión de datos biométricos.

Alerta inminente

López recuerda la preocupación suscitada por aplicaciones que solicitaban permisos innecesarios al acceder a las galerías de los usuarios. En el caso actual, el riesgo no radica tanto en los permisos de una aplicación, sino en la cesión voluntaria de información sensible.

“Estamos entregando nuestra imagen, fotografías de nuestros rostros y hasta de familiares y entornos empresariales. El interrogante crucial es qué tanto control tenemos sobre ese material una vez compartido, a quién se entrega y si existen garantías sólidas de su resguardo”, comenta.

La masificación de estos servicios, aunque realicen esfuerzos en seguridad, no elimina la posibilidad de vulneraciones. Carlos López plantea la inquietud sobre el destino de millones de imágenes faciales almacenadas en estas plataformas en caso de un fallo de seguridad.

Respecto a las vulnerabilidades específicas, López advierte sobre la incertidumbre del uso futuro de las imágenes entregadas. “Si bien la finalidad inmediata es la generación del filtro, desconocemos si estas imágenes serán utilizadas en publicidad, vendidas o empleadas para el desarrollo de nuevas funcionalidades. Al ceder nuestras imágenes, otorgamos a terceros la potestad de utilizarlas a su discreción”.

Medidas preventivas

En cuanto a medidas preventivas, el gerente de soporte y capacitación de ESET Venezuela enfatiza la pérdida de control una vez que la información se publica o se entrega a estos servicios.

Al aceptar los términos de servicio, cedemos un control absoluto sobre nuestras imágenes”.

Ante el deseo de participar en tendencias virales, recomienda una conducta responsable, evitando incluir terceros no consentidos, información personal sensible visible en las imágenes (como matrículas de vehículos) o detalles que faciliten la geolocalización.

En este contexto, ESET Venezuela considera necesaria la implementación de regulaciones más específicas que obliguen a los proveedores de servicios a proteger la información personal de sus usuarios.

  “Es fundamental que existan normativas que garanticen la protección adecuada de los datos que los usuarios confían a estos servicios”, concluyó Carlos López.

Para obtener más información, visite el sitio web de ESET: https://www.eset.com/ve/.

 

Con información de nota de prensa

Te invitamos a leer

Ahora podrás ver tus programas y películas de Netflix en HDR10+ en los TV de Samsung

Infórmate al instante únete a nuestros canales 

WhatsApp ACN – Telegram NoticiasACN – Instagram acn.web – TikTok _agenciacn – X agenciacn

Continue Reading

Suscríbete a nuestro boletín

Publicidad

Carabobo

Publicidad

Sucesos

Facebook

Publicidad

Lo más leído