En AL, 80% de la población usa IA, pero ni la mitad verifica la información: Eset

SUCESOS EN LINEA

Diariamente, más de 80 por ciento de la población en Latinoamérica utiliza la inteligencia artificial (IA) en su vida cotidiana: para trabajar, hacer tareas, consultar información, realizar investigaciones e incluso buscar cosas básicas, como la manera de preparar un desayuno.

Pero hay un problema, ni la mitad de los usuarios de esta nueva tecnología verifica la información que les es proporcionada por plataformas como ChatGPT, Deepseek, Perplexity o Gemini de Google, de acuerdo con una nueva información divulgada por Eset, plataforma especializada en seguridad informática.

Casos virales como el de Mery Caldass y su pareja, dos conocidos en redes sociales que realizan videos de vida y viajes lo confirman. Recientemente, perdieron un vuelo a Puerto Rico tras confiar en una respuesta equivocada de ChatGPT sobre los requisitos migratorios para ir a la isla.

“La inteligencia artificial es parte cada vez más preponderante de nuestro día a día, ya sea como fuente de consulta o como herramienta para optimizar cuestiones laborales y de estudio. Lo cierto es que un uso incorrecto o descuidado de la plataforma puede exponer a riesgos innecesarios y peligrosos”, señala Eset.

La encuesta de la plataforma fue realizada en México, Venezuela, Colombia, Argentina, Perú, Guatemala, Chile, Ecuador, El Salvador, Uruguay, Panamá, Honduras, Costa Rica, Nicaragua, Bolivia, República Dominicana y Paraguay.

“Uno de los datos destacados de la encuesta es que 80 por ciento de los internautas indicaron usar la inteligencia artificial. De ese total, 45 por ciento lo hacen frecuentemente, y 35 por ciento de forma ocasional.”

Sin embargo, expuso, 55 por ciento –el equivalente a 6 de cada 10– afirmaron que no verifican siempre la información obtenida, 14 por ciento precisaron que no lo hace nunca, y otro 3 por ciento lo hacen solamente a veces. Lo anterior, dijo la plataforma, puede ser muy riesgoso.

“Si bien es cierto que los modelos de IA pueden entregar información certera, no están exentos de generar respuestas incorrectas o sesgadas. Por eso, para garantizar la seguridad, más en temas sensibles, como los vinculados a lo legal, las finanzas o la salud, siempre es aconsejable contrastar la información obtenida con fuentes oficiales”, dijo Camilo Gutiérrez Amaya, jefe del laboratorio de investigación de ESET para Latinoamérica.

La plataforma advirtió que los modelos de IA “pueden ser vulnerables a ataques en los que un usuario malintencionado introduce comandos engañosos mediante técnicas en las que manipula las respuestas”, y de esta forma, un ciberdelincuente podría inducir a esa tecnología para responder “brindando instrucciones erróneas o proporcionar información falsa”.

Eset señaló que 40 por ciento de los usuarios confirmó que, con frecuencia o de forma esporádica, comparte información personal y laboral con las plataformas de inteligencia artificial, 17 por ciento lo hace siempre y 25 por ciento sólo de vez en cuando; al mismo tiempo “casi 60 por ciento no lee las políticas de privacidad y sólo la mitad de las personas toma una medida concreta para proteger su información.

“Es aconsejable evitar compartir datos personales y sensibles. Por ejemplo, no ingresar proactivamente información personal, como contraseñas o datos bancarios, en cualquier chat de IA. Esto se debe a que estas herramientas pueden procesar dicha información e incluso utilizarla para entrenar futuros modelos, por lo cual es necesario minimizar el riesgo de que esos datos se almacenen y se expongan en el futuro.

“Además de no compartir información personal y laboral en este tipo de herramientas, es muy importante tomar conocimiento de todas las configuraciones de privacidad para entender qué tipo de datos se almacenan, si se comparten con terceros y cómo pueden ser utilizados en el futuro. Es recomendable revisar periódicamente términos y políticas de la aplicación, por cualquier nueva opción de seguridad y privacidad que esté disponible”, apuntó Eset.

De cara al futuro

La firma de ciberseguridad detalló que la inteligencia artificial es vista en la región con muy buenos ojos por la mayoría de los encuestados, pues 80 por ciento la considera positiva. Aun así, refirió la plataforma, 43 por ciento cree que la IA será útil en los próximos años, pero con riesgos asociados. Entre las principales preocupaciones vinculadas al uso de la IA, las más comunes son los fraudes y estafas, las noticias falsas y la falta de privacidad.

“Si bien hay una gran adopción respecto de la IA, aún queda mucho camino por recorrer en cuanto a los hábitos responsables y seguros de la misma. La falta de verificación de la información, el poco cuidado al compartir datos sensibles y el desinterés en las políticas de privacidad son alarmas que deben ser escuchadas.

“La solución no está en temerle a la herramienta o dejar de usarla, sino en incorporar acciones concretas, para utilizarla de manera segura y crítica. En este escenario, entonces, el desafío es llevar a cabo un uso más consciente”, concluyó Gutiérrez Amaya.


SUCESOS EN LINEA