Cointelegraph
Kevin Rivera
Escrito por Kevin Rivera,Redactor de plantilla
Fernando Quirós
Revisado por Fernando Quirós,Editor de plantilla

Cinco claves para proteger datos personales ante el auge de la IA en Latinoamérica, según IFX

El vicepresidente de Inteligencia Artificial de IFX, Jaime Pérez, advirtió que el mayor riesgo en el uso de inteligencia artificial sigue siendo el factor humano

Cinco claves para proteger datos personales ante el auge de la IA en Latinoamérica, según IFX
Opinión

El crecimiento acelerado del uso de inteligencia artificial (IA) en América Latina está planteando nuevos riesgos para la seguridad digital. En ese contexto, el vicepresidente de Inteligencia Artificial de IFX, Jaime Pérez, compartió con Cointelegraph en Español, a través de un comunicado, una serie de recomendaciones para proteger los datos personales, en un contexto donde los riesgos digitales evolucionan al mismo ritmo que la tecnología.

El especialista advirtió que la pérdida de control sobre la información personal no suele ser producto de la casualidad, sino de una combinación de descuidos, engaños y el uso de herramientas cada vez más sofisticadas por parte de actores maliciosos. En El Salvador, por ejemplo, la Fiscalía General de la República reportó 9.790 denuncias por delitos informáticos, reflejando la creciente exposición de los usuarios a amenazas digitales.

Cuando los datos personales se ven comprometidos, las consecuencias pueden ser inmediatas: suplantación de identidad, accesos no autorizados, fraudes financieros y un efecto en cadena difícil de contener. Según el informe “Data Breach Investigations” de Verizon, citado por Pérez, el 68% de las brechas de seguridad incluye un componente humano, lo que evidencia que el comportamiento de los usuarios sigue siendo el principal punto de vulnerabilidad.

En el marco del Mes del Internet Seguro, Pérez enfatizó que el debate ya no gira en torno a si se debe utilizar la inteligencia artificial, sino en cómo hacerlo de forma responsable. “Antes de confiar en la inteligencia, hay que verificar la autenticidad de la información y las herramientas a usar”, afirmó, destacando que la verificación debe convertirse en una práctica constante.

Jaime Pérez, vicepresidente de Inteligencia Artificial de IFX. Foto: cortesía. 

A partir de esta premisa, el ejecutivo detalló cinco formas prácticas de utilizar la inteligencia artificial como aliada en la protección de los datos personales.

En primer lugar, recomendó utilizar únicamente plataformas de IA reconocidas y desconfiar de imitaciones o enlaces sospechosos. Señaló que existen páginas diseñadas para simular herramientas legítimas con el objetivo de capturar información sensible: 

Si algo se ve demasiado fácil, demasiado gratis o demasiado urgente, es mejor detenerse

En segundo lugar, subrayó que la inteligencia artificial no sustituye los hábitos básicos de seguridad digital. Pensar antes de hacer clic, verificar los sitios web y mantener disciplina en el uso de internet siguen siendo prácticas esenciales. “La IA es una herramienta, no un reemplazo”, reiteró, al señalar que depender completamente de estas tecnologías puede aumentar el margen de error humano.

Como tercer punto, destacó la importancia de validar siempre la información. Aunque las herramientas de IA pueden ofrecer respuestas precisas, no deben considerarse una fuente definitiva. Pérez recomendó confirmar siempre las fuentes, revisar los remitentes de los mensajes y evitar tomar decisiones sensibles basadas únicamente en sugerencias automatizadas.

Otra de las recomendaciones clave es no compartir información confidencial en chats de inteligencia artificial. Datos como contraseñas, números de identificación, información bancaria o direcciones deben mantenerse fuera de estas plataformas. “Aunque existan barreras, cualquier proveedor puede ser vulnerable. La mejor protección es no exponer lo que no se puede recuperar”, explicó.

Finalmente, el especialista propuso fomentar una cultura de seguridad colectiva. Compartir experiencias sobre intentos de fraude, mensajes sospechosos o páginas falsas con familiares, amigos o equipos de trabajo puede ayudar a prevenir nuevos incidentes. Esta colaboración permite identificar patrones de riesgo y fortalecer la protección digital de forma conjunta.

Pérez también resaltó que la forma en que los usuarios interactúan con la inteligencia artificial influye directamente en la seguridad de la información:

Lo más importante es entender que los contextos que nosotros entregamos pueden determinar una respuesta buena o mala. Hay que tratar de volverse experto en cómo se le pregunta a la inteligencia artificial para evitar fugas de datos

En un entorno donde la adopción de la inteligencia artificial continúa expandiéndose en sectores clave —desde servicios financieros hasta plataformas digitales—, estas recomendaciones apuntan a reforzar una idea central: la tecnología puede ser una aliada poderosa, pero la protección de los datos personales sigue dependiendo, en gran medida, de la responsabilidad y criterio de cada usuario.

Aclaración: La información y/u opiniones emitidas en este artículo no representan necesariamente los puntos de vista o la línea editorial de Cointelegraph. La información aquí expuesta no debe ser tomada como consejo financiero o recomendación de inversión. Toda inversión y movimiento comercial implican riesgos y es responsabilidad de cada persona hacer su debida investigación antes de tomar una decisión de inversión. 

Este artículo de opinión presenta la perspectiva experta del colaborador y puede no reflejar las opiniones de Cointelegraph.com. Este contenido ha sido sometido a una revisión editorial para garantizar la claridad y la relevancia, y Cointelegraph mantiene su compromiso con la transparencia informativa y los más altos estándares del periodismo. Se recomienda a los lectores que realicen su propia investigación antes de tomar cualquier acción relacionada con la empresa.