Aunque una de las razones del éxito de ChatGPT es todo lo que te permite hacer el modelo de lenguaje por Inteligencia Artificial, es importante no olvidar algo: es gratis (al menos la versión GPT-3.5) porque todo lo que compartes con el chatbot de OpenAI se usa para su entrenamiento. Puedes tenerlo claro desde el principio o aprender de tus errores, como les ha pasado a algunos empleados de Samsung.
Que ChatGPT puede serte muy útil en tu día a día en el trabajo es una realidad: puedes pedirle que corrija tus textos, que te resuma largos informes o hasta conversaciones eternas de WhatsApp, que escriba un email y hasta que te haga un plan de negocio. Uno de los sectores que más partido le ha sacado partido rápidamente es el mundo de la informática, con devs de todo el mundo poniéndole a prueba en tareas como programación, resolución de dudas código y que les haga correcciones. Precisamente para comprobar la calidad y errores del código fuente, según narra el medio coreano The Economist Korea, la división de semiconductores permitió a su equipo de ingeniería que usaran ChatGPT.
Cuidado con lo que compartes con ChatGPT
Así, fueron tres los casos separados en total quienes de forma involuntaria (en acto de servicio), proporcionaron información confidencial al chatbot de OpenAI: uno pegando código para verificar errores y otro para solicitar optimización del código. Existe un tercer caso en el que el trabajador pasó una grabación de una reunión para que el modelo de lenguaje la transcribiera y así pasarla a notas.
Toda esa información ahora forma parte del entrenamiento de ChatGPT. Un ejemplo para que nos hagamos a la idea de la gravedad del asunto: si alguien hubiese subido fragmentos de código de su capa de personalización de software con funciones o elementos de diseño de futuros terminales, podrían posteriormente aparecer cuando otra persona ajena solicitara ideas sobre el futuro One UI o de un modelo concreto.
Le ha pasado a Samsung, pero es un aviso a navegantes en toda regla: ChatGPT es una máquina de recolección de datos y precisamente ese es el motivo que esgrime Italia para su prohibición. Como explican las autoridades italianas, OpenAI carece de una base jurídica que justifique "la recopilación y el almacenamiento masivos de datos personales para entrenar los algoritmos de ChatGPT".
En las condiciones de uso se advierte expresamente que tengas precaución a la hora de facilitar información personal o sensible, pero es fácil que se olvide. Así que si estás pensando en usar el modelo de lenguaje para analizar y resumir información legal o informes médicos confidenciales, mejor pensárselo dos veces.
Después de esta filtración, Samsung ha tomado medidas. Así, además de encontrarse en fase de investigación sobre la información facilitada y sus responsables, de forma global explica Mashable que ha limitado la cantidad de datos que su equipo subirá a ChatGPT a 1024 bytes por persona, si bien no se descartan tomar medidas de seguridad adicionales como bloquear su acceso. Hay que tener en cuenta que la política de datos de ChatGPT permite excluir determinados datos usados para su entrenamiento previa solicitud, de ahí que sea tan importante conocer qué ha salido de sus oficinas.
Portada | Foto de Babak Habibi en Unsplash
En Xataka Android | Probamos el ChatGPT más avanzado hasta la fecha: así es el modelo GPT-4. No son buenas noticias para Google