Ciencia y tecnología | Actualidad

"Lo puede usar en tu contra": estas son las cosas que nunca debes de decirle a una IA

Un experto en ciberseguridad alerta de los peligros de privacidad de los 'chatbots' de Inteligencia Artificial

Businesswoman using technology smart chatbot AI / Krongkaew

Madrid

Aunque confiemos cada vez más en los usos de la Inteligencia Artificial (IA), hay que ser precavidos para resguardar nuestra privacidad y seguridad a la hora de usar algunas aplicaciones como los 'chatbots'. Este tipo de herramientas como Chat GPT o Bard se han vuelto muy populares para resolver problemas y solucionar ejercicios, pero no se debe de confiar demasiado en ellas porque no son del todo seguras.

Más información

El experto en seguridad Stan Kaminsky, de la prestigiosa compañía de seguridad informática Kaspersky Lab, explica en el medio británico The Sun por qué no hay que confiar del todo en las IA. "No debes enviar ningún dato personal a un 'chatbot'", indica.

"Ninguna contraseña, número de pasaporte o de tarjeta bancaria, direcciones, números de teléfono, nombres, o cualquier otro dato personal tuyo, de tu empresa o de tus clientes debe acabar en un chat con la IA", deja claro Kaminsky, que explica que estos datos se pueden reemplazar en la conversación con asteriscos.

Como bien indica el experto en seguridad, la información que escribes en un chat con una IA no siempre se mantiene privada. Chat GPT, por ejemplo, guarda algunas conversaciones que pueden volverse a usar para arreglar problemas técnicos o prevenir infracciones de servicio. La charla incluso puede ser revisada por diversos moderadores.

En ocasiones, hay posibilidad de que un error filtre las conversaciones privadas del 'chatbot' o las comparta con otro usuario de la aplicación. "Todo lo que escribes en un chat de conversación puede ser usado en tu contra", advierte Kaminsky, que tampoco recomienda descargar documentos.