Al chatear con una inteligencia artificial (IA) como ChatGPT podemos tener la sensación de estar manteniendo una coonversación con otra persona. Sus rápidas respuestas y su capacidad de comprensión nos despistan, pero no podemos olvidar en ningún momento que se trata de una tecnología sin conciencia, emociones ni opiniones propias.
Por todo ello, hay ciertas preguntas, o tipos de preguntas, que no deberíamos hacerle nunca a una inteligencia artificial como ChatGPT, bien por razones de seguridad o de privacidad, o para evitar malentendidos o recibir respuestas inadecuadas. Algunas de ellas son:
1- ¿Me puedes ayudar a recordar mi número de cuenta o contraseña?
Evita siempre compartir cualquier tipo de información personal o sensible. Aunque la conversación parezca privada, no está cifrada de extremo a extremo, de forma que si introduces datos personales (dirección, teléfono, número de cuenta bancaria, contraseñas...) podrías poner en riesgo tu seguridad digital.
Como otras herramientas de IA, ChatGPT puede almacenar los mensajes que recibe para entrenar a sus modelos y, además, si alguien accede a tu cuenta sin permiso, toda tu información confidencial quedaría expuesta.
2- ¿Qué opinas sobre mis finanzas o sobre este tratamiento médico?
En una IA puedes buscar información, pero nunca asesoramiento médico, legal o financiero definitivo. ChatGPT puede ayudarte a entender conceptos generales, pero nunca puede sustituir el criterio profesional. Las respuestas de la inteligencia artificial se basan en datos generales, sin contexto específico ni análisis personalizado, por lo que seguir sus consejos nos puede llevar a tomar decisiones erróneas, peligrosas o costosas.
3- ¿Qué está haciendo mi empresa mal?
No compartas nunca información confidencial de tu empresa, como estrategias, datos de clientes o informes financieros, puesto que podrías estar violando políticas internas y comprometiendo su seguridad corporativa.
La inteligencia artificial no distingue entre lo público y lo privado, y aunque la plataforma no tiene intención de divulgar esa información, tampoco es un entorno seguro o autorizado para manejarla.
4- ¿Crees que estoy tomando una buena decisión?
Nunca le pidas a la IA que tome por ti decisiones personales importantes que requieren algo más que datos. Los asuntos personales necesitan ser tratados por otras personas con empatía y con mucha comprensión.
ChatGPT sí que puede mostrarte los pros y contras de una determinada situación, pero en ningún caso puede ser tu principal consejero a la hora de tomar decisiones importantes. En realidad, no conoce tus circunstancias vitales reales ni comprende tus emociones y, aunque puede parecer comprensiva, no tiene ninguna capacidad de sentir ni de empatizar.
Si realmente necesitas consejo, apóyate en personas reales que te conozcan bien y que sepan cómo pueden ayudarte.
5- ¿Qué opinas de este conflicto ético?
No esperes opiniones reales, juicios morales o ningún tipo de sentimiento humano de ninguna IA. Por mucho que te parezca que la conversación que mantienes es de igual a igual, ChatGPT está diseñado para generar texto de forma coherente y natural, pero eso no significa que tenga conciencia ni valores propios. Sus respuestas no se basan en experiencias ni en sentimientos, sino en patrones estadísticos del lenguaje, así que lo que obtienes es en realidad algo parecido a una respuesta humana, pero sin contenido emocional.
Uso responsable de la IA
La inteligencia artificial es una herramienta poderosa, útil y muy versátil, pero como toda tecnología debe usarse con responsabilidad. Al evitar este tipo de preguntas, estarás protegiendo tu privacidad, tu bienestar emocional y la integridad de la información personal y profesional.
Ya lo ves, aunque ChatGPT puede ser un gran apoyo para ti a la hora de aprender, inspirarte o realizar determinadas tareas, nunca podrá ser tu médico, abogado, terapeuta ni confidente. Sin embargo, saber dónde están los límites de la inteligencia artificial te permitirá utilizarla de una forma mucho más segura, ética y efectiva.