Conéctese con nosotros

Tecnología

EEUU abrió investigación sobre OpenAI y ChatGPT para determinar si pone en riesgo los usuarios

Publicado

el

investigacion CHATGPT
Compartir

La Comisión Federal de Comercio (FTC, en inglés) ha abierto una amplia investigación sobre OpenAI, para determinar si su chatbot con inteligencia artificial (IA) ChatGPT ha infringido las leyes de protección al consumidor al poner en riesgo la reputación y los datos personales de los usuarios, según informó este jueves The Washington Post.

La comisión envió esta semana una demanda de investigación civil de 20 páginas a la startup liderada por Sam Altman donde plantea a OpenAI varias preguntas, como sus prácticas para entrenar modelos de IA y su manejo de la información personal de los usuarios.

Investigación sobre OpenAI y ChatGPT

Entre los diversos ejemplos que detalla la larga carta, a la que tuvo acceso The Washington Post, estaba un incidente de 2020 en el que la empresa reveló un error que permitía a los usuarios ver información sobre otros chats e información relacionada con el pago de otros usuarios.

ChatGPT obtuvo gran popularidad tras su lanzamiento público y gratuito el noviembre pasado y consiguió un récord de 100 millones de descargas en 2 meses.

La FTC pidió a OpenAI que proporcionara descripciones detalladas de todas las quejas que había recibido de sus productos que hacían declaraciones “falsas, engañosas, despectivas o dañinas”.

Además, según la misiva, la comisión está investigando si la empresa participó en prácticas desleales o engañosas que resultaron en un “daño a la reputación” de los consumidores.

En una de sus respuestas, ChatGPT dijo que un abogado (que realmente existía) había hecho comentarios sexualmente sugerentes e intentó tocar a un estudiante en un viaje escolar, citando un artículo que, según dijo el chatbot, había aparecido en The Washington Post.

Pero tal artículo no existía, el viaje nunca ocurrió y el abogado afirmó que nunca fue acusado de acosar a un estudiante.

La agencia también exigió una descripción detallada de los datos que OpenAI usa para entrenar sus productos y cómo está trabajando para evitar lo que se conoce en la industria de la tecnología como «alucinaciones», problema que se da cuando las respuestas del chatbot están bien estructuradas pero son completamente incorrectas.

Si la FTC determina que una empresa viola las leyes de protección al consumidor, puede imponer multas o someter a la empresa a un decreto de consentimiento, que puede dictar cómo la empresa maneja los datos.

Con información de ACN/EFE

No dejes de leer: Instagram implementará herramientas de contenido de marca a Threads

Infórmate al instante únete a nuestro canal de Telegram NoticiasACN

Tecnología

De viral a vulnerable: los peligros ocultos tras tu imagen al estilo Ghibli

Publicado

el

imagen al estilo Ghibli
Compartir

Carlos López, gerente de soporte y capacitación de ESET Venezuela, subraya que, si bien la mecánica difiere de previas aplicaciones virales, los peligros fundamentales persisten al entregar información personal en el entorno digital.

La popular tendencia de generar imágenes estilo Studio Ghibli mediante IA implica riesgos de privacidad al compartir datos faciales. La incertidumbre sobre el resguardo y el posible uso futuro de esta información es latente.

En este sentido, ESET advierte sobre la cesión de datos biométricos.

Alerta inminente

López recuerda la preocupación suscitada por aplicaciones que solicitaban permisos innecesarios al acceder a las galerías de los usuarios. En el caso actual, el riesgo no radica tanto en los permisos de una aplicación, sino en la cesión voluntaria de información sensible.

“Estamos entregando nuestra imagen, fotografías de nuestros rostros y hasta de familiares y entornos empresariales. El interrogante crucial es qué tanto control tenemos sobre ese material una vez compartido, a quién se entrega y si existen garantías sólidas de su resguardo”, comenta.

La masificación de estos servicios, aunque realicen esfuerzos en seguridad, no elimina la posibilidad de vulneraciones. Carlos López plantea la inquietud sobre el destino de millones de imágenes faciales almacenadas en estas plataformas en caso de un fallo de seguridad.

Respecto a las vulnerabilidades específicas, López advierte sobre la incertidumbre del uso futuro de las imágenes entregadas. “Si bien la finalidad inmediata es la generación del filtro, desconocemos si estas imágenes serán utilizadas en publicidad, vendidas o empleadas para el desarrollo de nuevas funcionalidades. Al ceder nuestras imágenes, otorgamos a terceros la potestad de utilizarlas a su discreción”.

Medidas preventivas

En cuanto a medidas preventivas, el gerente de soporte y capacitación de ESET Venezuela enfatiza la pérdida de control una vez que la información se publica o se entrega a estos servicios.

Al aceptar los términos de servicio, cedemos un control absoluto sobre nuestras imágenes”.

Ante el deseo de participar en tendencias virales, recomienda una conducta responsable, evitando incluir terceros no consentidos, información personal sensible visible en las imágenes (como matrículas de vehículos) o detalles que faciliten la geolocalización.

En este contexto, ESET Venezuela considera necesaria la implementación de regulaciones más específicas que obliguen a los proveedores de servicios a proteger la información personal de sus usuarios.

  “Es fundamental que existan normativas que garanticen la protección adecuada de los datos que los usuarios confían a estos servicios”, concluyó Carlos López.

Para obtener más información, visite el sitio web de ESET: https://www.eset.com/ve/.

 

Con información de nota de prensa

Te invitamos a leer

Ahora podrás ver tus programas y películas de Netflix en HDR10+ en los TV de Samsung

Infórmate al instante únete a nuestros canales 

WhatsApp ACN – Telegram NoticiasACN – Instagram acn.web – TikTok _agenciacn – X agenciacn

Continue Reading

Suscríbete a nuestro boletín

Publicidad

Carabobo

Publicidad

Sucesos

Facebook

Publicidad

Lo más leído