Manuel O'Brien Hughes, Líder de Relaciones con Gobiernos de IBM en Chile y México, compartió su opinión con Cointelegraph en Español acerca de la protección de datos en la era de la inteligencia artificial.

Estamos en la era de la Inteligencia Artificial (IA) en todo lugar. De hecho, el 84% de las personas en el mundo hoy usan un dispositivo o servicio con IA. A medida que más personas comparten sus datos para ser aprovechados por estos sistemas, la confianza se convierte en la piedra angular de las interacciones con las organizaciones. Esta confianza se manifiesta cuando los dispositivos o servicios utilizados hacen lo que esperamos de ellos, de la misma manera en que aprendimos a confiar en que una aplicación bancaria realizará transacciones exactas”, expresó O'Brien Hughes y agregó: “Sin embargo, la forma en que las empresas usan nuestros datos o IA para brindarnos múltiples beneficios puede variar, al igual que los riesgos asociados, pues no todos los datos son gestionados de la misma manera y no todas las tecnologías con IA tienen el mismo proceso de creación. En ese contexto, la regulación es fundamental”.

Regulando la gestión de los datos en la economía de los datos

Si los datos son como el petróleo, podríamos decir que, una vez refinados, se obtiene la gasolina de la IA. Esta combinación es la que puede entregar valor, tanto a las personas como a las empresas en la economía de datos. No obstante, hay un elemento clave que aún no se ha abordado de manera significativa en los marcos regulatorios: los diferentes riesgos que los modelos comerciales basados en datos plantean para las personas”, dice Manuel.

Desde IBM, creen que hay dos categorías distintas de modelos comerciales basados en datos:

  • Los de alto riesgo: que usan los datos de las personas como fuente de ingreso (monetización de datos externos). En este modelo, las personas tienen poca comprensión sobre cómo se accede a sus datos, cómo se utilizan en la economía de datos o el nivel de riesgo que asumen al proporcionarlos.
  • Los de bajo riesgo: que usan los datos para mejorar las operaciones, los productos o los servicios (monetización de datos internos). En general, las personas pueden esperar que sus datos no abandonen esta relación o pueden votar con su billetera si no están satisfechos.

Esta distinción nos permitirá buscar una regulación más apropiada y con un mayor equilibrio. Por ejemplo, se puede ajustar la carga regulatoria para que sea proporcional a los riesgos de los modelos comerciales basados en datos, aumentar la transparencia de la reventa de datos, exigir a los compradores que verifiquen que los datos fueron gestionados de manera legal y transparente, entre otras obligaciones”, aclara O'Brien Hughes.

Regulando con precisión las tecnologías de Inteligencia Artificial

Desde la perspectiva de la IA, en IBM creen que: “estos sistemas deben priorizar la privacidad de las personas y los derechos de los titulares de los datos. Por eso, hemos pedido en todo el mundo que haya una regulación precisa para la IA, con el fin de establecer controles y políticas más estrictas sobre los usos finales de la tecnología, allí donde el riesgo de daño social es mucho mayor”.

En esa línea, es fundamental que la regulación en torno a la IA considere tres principios: primero, que el propósito de la IA es potenciar la Inteligencia Humana, no reemplazarla; segundo, que los datos y los conocimientos generados por esos datos pertenecen a su creador; y tercero, que las nuevas tecnologías poderosas como la IA deben ser transparentes, explicables y deben mitigar sesgos dañinos e inapropiados”, comentan desde IBM.

Nuestro llamado a la acción es claro: es esencial fortalecer la confianza sin sofocar la innovación, mientras establecemos salvaguardas a los casos de uso problemáticos para que haya un cambio o corrección en curso”, explica O'Brien Hughes.

El Líder de Relaciones con Gobiernos para IBM sugiere que algunos aspectos para guiar la regulación alrededor de la Inteligencia Artificial son:

  • Exigir transparencia: Las organizaciones deben ser directas sobre cuándo, dónde y cómo están utilizando la IA y los datos. Por ejemplo, si una persona está hablando con un asistente virtual con IA, debe ser informada que está conversando con una IA y no con una persona en vivo.
  • Proponer diferentes reglas para diversos casos de uso: Las políticas deben reflejar distinciones entre las aplicaciones de mayor riesgo y las de menor riesgo. Por ejemplo, los riesgos planteados por un asistente virtual no son los mismos que los de un vehículo autónomo.

Las formas en que las organizaciones utilizan los datos de las personas y la IA están en continua evolución. No se trata de implementar nuevas reglas prematuras de protección de datos o de prohibir la tecnología porque ambos son ejes transversales de innovación, se trata de colaborar para abordar los riesgos de la monetización de datos, promover el avance responsable de la tecnología y expandir los límites de la innovación al unir nuestros recursos colectivos y experiencia para mejorar nuestro bienestar colectivo e individual”, concluye Manuel O'Brien Hughes.

Aclaración: La información y/u opiniones emitidas en este artículo no representan necesariamente los puntos de vista o la línea editorial de Cointelegraph. La información aquí expuesta no debe ser tomada como consejo financiero o recomendación de inversión. Toda inversión y movimiento comercial implican riesgos y es responsabilidad de cada persona hacer su debida investigación antes de tomar una decisión de inversión.

Te puede interesar: