Revelaron qué es lo que nunca hay que decir en un chat con Inteligencia artificial

Las personas que tiene una conversación con asistentes de Inteligencia virtual brindan acceso a datos personales y pueden ser utilizarlos con diversos fines.

30 de diciembre, 2024 | 20.46

Los chatbots de Inteligencia artificial se convirtieron una herramienta muy utilizada en todo el mundo ante la gran capacidad para responder muchas preguntas y cuestiones en pocos segundos. Pero estas plataformas pueden tener acceso a una importante cantidad de datos personales de los usuarios y es clave que se utilicen con cuidado. Para eso vamos a repasar todo lo que nunca hay que decirle a ninguno de los asistentes de IA.

Como se informó en varias ocasiones, los chatbots de Inteligencia Artificial son programas de software que están diseñados para simular conversaciones humanas. Es una tecnología basada en el procesamiento del lenguaje natural y el aprendizaje automático para comprender las consultas que realizan los usuarios y generar respuestas realistas, ya sea en forma de mensajes de texto o de voz.

Estas aplicaciones son útiles en la vida cotidiana por sus diversos campos de aplicación, ya sea para la atención al cliente, o cualquier persona desde su hogar. Pero plantea un serio problema con respecto al uso de la información que reciben las plataformas durante las conversaciones. Por estos motivos, hay que tener mucho cuidado con los mensajes que se les envían.

Todo lo que no se le puede decir a ningún chat de Inteligencia Artificial

Un dato a remarcar es que, según explica Fox News, como no hay límites ni leyes que regulen lo que pueden hacer los chats de Inteligencia Artificial con la información que recopilan, es recomendable no compartir ciertos datos sensibles. A continuación, enumeramos las 10 cosas que no se les debe decir:

  1. Contraseñas o credenciales de inicio de sesión
  2. Nombre, dirección o número de teléfono
  3. Información financiera confidencial
  4. Datos médicos o de salud
  5. Pedir consejos ilegales
  6. Discurso de odio o contenido dañino
  7. Información confidencial de trabajo o negocio
  8. Respuestas a las preguntas de seguridad
  9. Contenido explícito
  10. Información personal de otras personas

Otro punto a señalar es que a la hora de utilizar un chatbot de IA por primera vez, se aconseja generar una cuenta nueva desde cero, en lugar de utilizar las haituales opciones de inicio de sesión con Google o Facebook. Y se puede desactivar las funciones de memoria en la configuración de plataformas como ChatGPT o Perplexity.

Qué datos no hay que compartir con la Inteligencia Artificial.

Las denuncias contra los chats de Inteligencia Artificial

Por otra parte, según reveló la cadena CBS News, en octubre de este año, un niño de 14 años se quitó la vida luego de tener una relación emocional y sexual virtual durante meses con un chat de Character.AI llamado “Dany”.  Además, la misma empresa recibió una segunda demanda presentada por dos familias de Texas que afirman que sus chatbots son “un peligro claro y presente” para los jóvenes y alertan que promueven la violencia. 

Según la última demanda, uno de los chatbots le dijo a un joven de 17 años que asesinar a sus padres era una “respuesta razonable” a los límites de tiempo frente a la pantalla que se le imponían. Por esto, Character.AI anunció una serie de nuevas funciones de seguridad en sus chatbots a través de un comunicado de prensa.

“Este conjunto de cambios da como resultado una experiencia diferente para los adolescentes de la que está disponible para los adultos, con funciones de seguridad específicas que imponen límites más conservadores a las respuestas del modelo, en particular cuando se trata de contenido romántico”, señaló.

La empresa afirmó que cuando un chatbot ofrece contenido sensible o inapropiado, “lo hace porque un usuario lo solicita para intentar obtener ese tipo de respuesta”. Ante esto, se reducirá la probabilidad de que se produzcan este tipo de comentarios mediante el bloqueo tanto de entradas como de resultados inapropiados. “Por ejemplo, si detectamos que un usuario ha enviado contenido que infringe nuestros Términos de servicio o Pautas de la comunidad, ese contenido se bloqueará en su conversación con el personaje” escribió Character.AI. 

Y señalaron que en los casos que se haga referencia al suicidio o la autolesión, “también mostraremos una ventana emergente específica que dirigirá a los usuarios a la Línea Nacional de Prevención del Suicidio”, agregó. Finalmente, incluirán controles parentales y los usuarios recibirán notificaciones después de completar una sesión de una hora en la plataforma.

Un adolescente se suicidó tras interactuar meses con Character.AI.