30.8 C
Santo Domingo
lunes, julio 8, 2024

Cuando estás hablando con un chatbot, ¿quién está escuchando?



Nueva York
CNN

A medida que el sector tecnológico se apresura a desarrollar e implementar una cosecha de nuevos y poderosos chatbots de IA, su adopción generalizada ha provocado un nuevo conjunto de preocupaciones sobre la privacidad de los datos entre algunas empresas, reguladores y observadores de la industria.

Algunas empresas, incluida JPMorgan Chase

(JPM)
tener restringió el uso de los empleados de ChatGPT, el chatbot viral de IA que inició por primera vez la carrera armamentista de IA de Big Tech, debido a preocupaciones de cumplimiento relacionadas con el uso de software de terceros por parte de los empleados.

Solo se sumó a las crecientes preocupaciones de privacidad cuando OpenAI, la compañía detrás de ChatGPT, reveló que tenía que desconectar la herramienta temporalmente el 20 de marzo para corregir un error que permitía a algunos usuarios ver las líneas de asunto del historial de chat de otros usuarios.

El mismo error, ahora solucionado, también hizo posible que “algunos usuarios vean el nombre y apellido, la dirección de correo electrónico, la dirección de pago, los últimos cuatro dígitos (solo) de un número de tarjeta de crédito y la fecha de vencimiento de la tarjeta de crédito de otro usuario activo. dijo OpenAI en un entrada en el blog.

Y apenas la semana pasada, los reguladores en Italia emitió una prohibición temporal en ChatGPT en el país, citando preocupaciones de privacidad después de que OpenAI revelara la violación.

“Las consideraciones de privacidad con algo como ChatGPT no pueden exagerarse”, dijo a CNN Mark McCreary, copresidente de la práctica de privacidad y seguridad de datos en el bufete de abogados Fox Rothschild LLP. “Es como una caja negra”.

Con ChatGPT, que se lanzó al público a fines de noviembre, los usuarios pueden generar ensayos, historias y letras de canciones simplemente escribiendo indicaciones.

Desde entonces, Google y Microsoft también han lanzado herramientas de inteligencia artificial, que funcionan de la misma manera y funcionan con grandes modelos de lenguaje que están entrenados en grandes cantidades de datos en línea.

Cuando los usuarios ingresan información en estas herramientas, McCreary dijo: «No sabes cómo se usará». Eso plantea preocupaciones particularmente altas para las empresas. A medida que más y más empleados adoptan casualmente estas herramientas para ayudar con los correos electrónicos de trabajo o las notas de las reuniones, McCreary dijo: «Creo que la oportunidad de que los secretos comerciales de la empresa se introduzcan en estas diferentes IA va a aumentar».

Steve Mills, el director de ética de IA de Boston Consulting Group, le dijo de manera similar a CNN que la mayor preocupación de privacidad que la mayoría de las empresas tienen en torno a estas herramientas es la “divulgación inadvertida de información confidencial”.

“Tienes a todos estos empleados haciendo cosas que pueden parecer muy inocuas, como, ‘Oh, puedo usar esto para resumir las notas de una reunión’”, dijo Mills. “Pero al pegar las notas de la reunión en el aviso, de repente, potencialmente, está revelando un montón de información confidencial”.

Si los datos que ingresan las personas se utilizan para capacitar aún más estas herramientas de inteligencia artificial, como han declarado muchas de las compañías detrás de las herramientas, entonces «perdió el control de esos datos y alguien más los tiene», agregó Mills.

OpenAI, la empresa respaldada por Microsoft detrás de ChatGPT, dice en su política de privacidad que recaba toda clase de datos de carácter personal de las personas que utilizan sus servicios. Dice que puede usar esta información para mejorar o analizar sus servicios, realizar investigaciones, comunicarse con los usuarios y desarrollar nuevos programas y servicios, entre otras cosas.

La política de privacidad establece que puede proporcionar información personal a terceros sin previo aviso al usuario, a menos que lo exija la ley. Si la política de privacidad de más de 2000 palabras parece un poco opaca, probablemente se deba a que se ha convertido prácticamente en la norma de la industria en la era de Internet. OpenAI también tiene un Condiciones de uso documento, que pone la mayor parte de la responsabilidad en el usuario para tomar las medidas adecuadas al interactuar con sus herramientas.

OpenAI también publicó una nueva publicación de blog el miércoles que describe su enfoque de la seguridad de la IA. “No usamos datos para vender nuestros servicios, publicidad o crear perfiles de personas; usamos datos para hacer que nuestros modelos sean más útiles para las personas”, dijo el estados de la entrada de blog. «ChatGPT, por ejemplo, mejora con más capacitación sobre las conversaciones que la gente tiene con él».

de Google política de privacidadque incluye su herramienta Bardo, es igualmente prolijo y tiene términos de servicio adicionales para sus usuarios generativos de IA. La compañía afirma que para ayudar a mejorar Bard y proteger la privacidad de los usuarios, «seleccionamos un subconjunto de conversaciones y usamos herramientas automatizadas para ayudar a eliminar la información de identificación personal».

“Estas conversaciones de muestra son revisables por revisores capacitados y se conservan hasta por 3 años, por separado de su cuenta de Google”, afirma la compañía en un comunicado. Preguntas frecuentes separadas para Bardo. La compañía también advierte: «No incluya información que pueda usarse para identificarlo a usted o a otros en sus conversaciones con Bard». Las preguntas frecuentes también establecen que las conversaciones de Bard no se utilizan con fines publicitarios y «comunicaremos claramente cualquier cambio en este enfoque en el futuro».

Google también le dijo a CNN que los usuarios pueden “elegir fácilmente usar Bard sin guardar sus conversaciones en su cuenta de Google”. Los usuarios de Bard también pueden revisar sus avisos o eliminar conversaciones de Bard a través de este enlace. “También contamos con barandillas diseñadas para evitar que Bard incluya información de identificación personal en sus respuestas”, dijo Google.

“Todavía estamos aprendiendo exactamente cómo funciona todo esto”, dijo Mills a CNN. “Simplemente no sabe completamente cómo ingresa la información, si se usa para volver a entrenar estos modelos, cómo se manifiesta como resultados en algún momento, o si lo hace”.

Mills agregó que a veces los usuarios y los desarrolladores ni siquiera se dan cuenta de los riesgos de privacidad que acechan con las nuevas tecnologías hasta que es demasiado tarde. Un ejemplo que citó fueron las primeras funciones de autocompletar, algunas de las cuales terminaron teniendo algunas consecuencias no deseadas, como completar un número de seguro social que un usuario comenzó a escribir, a menudo para alarma y sorpresa del usuario.

En última instancia, Mills dijo: «Mi punto de vista en este momento es que no debe poner nada en estas herramientas que no quiera asumir que se compartirá con otros».



Source link

Related Articles

Ultimos Articulos