11.3 C
New York
miércoles, diciembre 18, 2024

Buy now

Advierten que entregar datos personales a ChatGPT es «perder el control sobre ellos»

Introducir información y datos personales en asistentes de Inteligencia Artificial (IA) generativa como ChatGPT implica «perder el control sobre ellos», advierten expertos de la compañía de ciberseguridad Secure&IT.

A través de un comunicado, la consultora legal TIC de Secure&IT, Natalia Patiño, explica que ChatGPT es una herramienta que «facilita o complementa» la labor humana, pero que, sin embargo, «no la sustituye». Por lo tanto, «no se trata de una herramienta infalible» y añade que «su uso debería verificarse siempre». 

Del mismo modo, la experta aseveró que no se trata de una tecnología capaz de razonar, sino que sus respuestas están condicionadas a los datos con los que ha sido entrenada anteriormente.

Continúa con la explicación y señala que las herramientas de IA utilizan «todos los datos que los usuarios introducen» y que estos quedan registrados y pueden ser reutilizados. «La introducción de datos personales y, en general, de información confidencial, implica perder el control sobre esos datos e informaciones», afirmó Patiño en el texto al que ha tenido acceso el portal Portaltic.

En este sentido, la experta recomienda que los usuarios deben evitar introducir datos directamente identificables, así como los datos que «de forma indirecta puedan llevar a la identificación».

«Es muy importante no incluir este tipo de información en las consultas, sobre todo, teniendo en cuenta que actualmente los chats basados en IA son, en general, muy opacos», finalizó la consultora legal.

Más del autor

spot_img
spot_img
spot_img

Latest Articles