Expertos advierten 5 tipos de preguntas que nunca deberías hacerle a ChatGPT

Hablar con una inteligencia artificial (IA), ya sea por entretención o para ayudarse en tareas diarias, es ya casi una normalidad, pero existen ciertas preguntas que no deberías hacerle.

Por ejemplo, la tecnología que hay detrás de ChatGPT responde con rapidez, entiende contextos complejos e incluso escribe textos enteros. Sin embargo, mucha gente olvida que la IA no tiene conciencia, sentimientos ni opiniones propias.

Los expertos advierten que puede entregar ciertos tipos de respuestas inexactas, inapropiadas o incluso peligrosas.

Especialistas de ESET, empresa especializada en la detección proactiva de amenazas, advierten que ChatGPT usa la información que le proporcionan los usuarios para entrenar su modelo, salvo que se modifique esta configuración o se utilicen chats temporales.

“Si un ciberdelincuente consigue acceder a una cuenta de ChatGPT, tendrá acceso a toda la información que se comparta con la herramienta, incluidos los datos sensibles que se hayan introducido en las conversaciones“, explica Camilo Gutiérrez Amaya, Jefe del Laboratorio de Investigación de ESET Latinoamérica.

En este contexto, el experto señala 5 tipos de preguntas que, por seguridad, es mejor no hacerle a ChatGPT.

“Entender qué preguntas no se deben hacer a una IA ayuda a preservar la privacidad, garantizar la exactitud de la información y proteger los datos sensibles. Además, utilizar la IA como herramienta complementaria, en lugar de como fuente definitiva de respuestas, contribuye a tomar decisiones más informadas y seguras“, señala.

5 tipos de preguntas que no deberías hacerle a ChatGPT

1. Preguntas relacionadas con información confidencial o sensible:

En el mundo de la ciberseguridad, la regla es clara: nunca compartir datos personales, bancarios, contraseñas o cualquier tipo de información sensible en conversaciones con una IA.

Esto ya que estos chats, si bien son una conversación privada, no son entornos cifrados o seguros para compartir datos sensibles. Estos significa que los datos pueden estar en riesgo.

Los ciberdelincuentes ya están comerciando en foros de la dark web cuentas de ChatGPT robadas, lo que es una clara señal del interés que despierta el robo de estas cuentas.

2. Preguntas relacionadas con datos confidenciales o de propiedad de la empresa:

Los empleados que utilicen IA deben ser extremadamente cuidadosos cuando traten con datos corporativos confidenciales. Nunca compartir informes financieros, estrategias empresariales, información sobre clientes o proyectos confidenciales con estas plataformas.

Esto se debe a que la IA puede no distinguir automáticamente entre datos públicos y privados, lo que supone un riesgo significativo para la seguridad e integridad de la información corporativa.

Además, cuando se hagan preguntas relacionadas con los datos o la información de una empresa, es importante recordar que las plataformas de IA no son entornos autorizados para tratar estos temas.

Para garantizar la protección de los datos corporativos y cumplir con las políticas internas de seguridad, es preferible acudir siempre a plataformas y herramientas autorizadas por cada organización para el tratamiento de información corporativa sensible.

3. Asesoramiento médico, legal o financiero definitivo:

Aunque las IA pueden ayudar a aclarar conceptos y proporcionar información general de fuentes fiables, no sustituyen a los profesionales cualificados.

Buscar un diagnóstico médico, asesoramiento jurídico o decidir sobre inversiones basándose únicamente en las respuestas de la IA es como buscar síntomas en Google: podría acabar en concluir que un simple dolor de cabeza es algo mucho más grave.

Es posible que la IA no tenga acceso a todo el contexto de la situación y no pueda hacer una evaluación personalizada y responsable, que es exactamente lo que requieren estos ámbitos.

Así que evitar confiar ciegamente en las respuestas automatizadas cuando se trate de la salud, dinero o asuntos jurídicos delicados. Estos ámbitos requieren un análisis minucioso, que tenga en cuenta detalles que solo pueden evaluar profesionales experimentados.

4. Preguntas que requieren opiniones, preferencias o sentimientos humanos:

Aunque la IA utiliza un lenguaje natural y amigable, no tiene conciencia, emociones u opiniones reales. Las respuestas que proporciona se basan en algoritmos lingüísticos y patrones de datos, sin ninguna experiencia emocional ni juicio personal.

Esto significa que cuando se le pregunta «¿Qué harías?» o «¿Te gusto?», la respuesta que se recibirá será una simulación de una interacción humana, pero sin la verdadera intención o sentimiento que hay detrás.

Es importante recordar que cuando se interactúa con una IA, se está tratando con una herramienta que ha sido programada para generar respuestas basadas en datos.

La IA puede parecer empática, pero no tiene la capacidad de sentir ni de formar opiniones propias. Así que si lo que se busca es un consejo genuino o una respuesta emocional, es mejor que hablar con una persona real que pueda ofrecer empatía y criterio.

5. Preguntas sobre decisiones personales importantes:

La IA puede ser muy útil para organizar ideas y proporcionar información objetiva, pero no debe ser la única base para tomar decisiones fundamentales sobre la vida personal, la carrera o el propio bienestar.

Tomar decisiones cruciales, como un cambio de carrera profesional, cuestiones de salud mental o elecciones familiares, requiere un análisis más profundo, que tenga en cuenta no solo los datos y la lógica, sino también los aspectos emocionales y subjetivos. Es posible que la IA no comprenda el contexto completo de las emociones y circunstancias.

Por eso, a la hora de enfrentarse a decisiones que afectan significativamente la vida, como cambios de carrera o cuestiones personales complejas, es esencial buscar la orientación de expertos y personas de confianza.

La interpretación de la IA puede ser útil como punto de partida, pero la decisión final debe tomarse de manera personal, con el apoyo de un mentor/a, terapeuta o consejeros que puedan tener en cuenta los matices de la situación.

Referncia de contenido aquí