El pasado 1º de junio de 2023, la Subsecretaría de Tecnología de la Información de la Jefatura de Gabinete de Ministros de la Nación Argentina ha emitido una disposición con el fin de establecer recomendaciones y principios éticos para el desarrollo y aplicación de la Inteligencia Artificial (IA).

Dicen en la disposición que se ha observado un crecimiento significativo en el desarrollo y la implementación de proyectos basados en Inteligencia Artificial. En este contexto, la UNESCO emitió la Recomendación sobre la Ética de la Inteligencia Artificial, a la cual Argentina se adhirió junto con otros países.

La Subsecretaría de Tecnología de la Información de Argentina participó en el primer Foro Global sobre la Ética de la Inteligencia Artificial, con el objetivo de asegurar la inclusión en el mundo de la IA y promover entornos regulatorios éticos, centrados en las personas, con perspectiva de género y de derechos humanos.

En este sentido, se ha publicado una guía con recomendaciones para la aplicación de IA en Argentina. Las soluciones basadas en IA permiten niveles más altos de automatización y sistemas descentralizados y predictivos para la toma de decisiones, lo que podría contribuir a mejorar el diseño, implementación y evaluación de políticas. 

Sin embargo, es necesario establecer reglas claras que garanticen el aprovechamiento de los beneficios de cualquier desarrollo tecnológico por todos los sectores de la sociedad. Esto también fortalecerá las capacidades de innovación, desarrollo y producción de soluciones tecnológicas en el ecosistema científico y tecnológico argentino.

Además, se destaca en la disposición la importancia de utilizar estas capacidades en el marco de una estrategia más amplia que priorice la soberanía tecnológica y permita abordar los problemas sociales, productivos y medioambientales del país.

Expectativas de la aplicación de las recomendaciones 

En el ciclo de vida de la IA, se deben tomar medidas para garantizar la aplicabilidad del modelo, lo que significa que se debe poder entender cómo funciona y por qué toma ciertas decisiones. Para lograr esto, es importante utilizar datos transparentes y explicar cómo se han utilizado para entrenar el modelo. 

También se pueden utilizar técnicas como la visualización de datos y la interpretación de modelos para ayudar a comprender cómo funciona el modelo. Además, es valioso documentar todo el proceso de desarrollo del modelo y hacerlo accesible a todas las partes interesadas.

La disposición indica que es relevante tomar medidas para evitar sesgos en los datos utilizados para entrenar un modelo de IA. Algunas medidas que se pueden tomar incluyen:

1. Utilizar datos representativos: Es crucial asegurarse de que los datos utilizados para entrenar el modelo sean representativos de la población a la que se aplicará el modelo.

2. Identificar y eliminar sesgos: Se deben identificar y eliminar los sesgos existentes en los datos antes de utilizarlos para entrenar el modelo.

3. Verificar la calidad de los datos: Se deben verificar la calidad de los datos y asegurarse de que sean precisos, completos y relevantes.

4. Utilizar múltiples fuentes de datos: Es recomendable utilizar múltiples fuentes de datos para reducir el riesgo de sesgos.

5. Realizar pruebas rigurosas: Se deben realizar pruebas rigurosas del modelo para identificar cualquier sesgo que pueda haber sido introducido durante el proceso de entrenamiento.

6. Monitorear continuamente el modelo: Es importante monitorear continuamente el modelo después del despliegue para detectar cualquier sesgo que pueda surgir con el tiempo.

Se destaca también que la trazabilidad y la auditoría son considerables en el ciclo de vida de la IA porque permiten garantizar la transparencia y la responsabilidad en el uso de los sistemas de IA. 

La trazabilidad se refiere a la capacidad de rastrear el origen y el historial de los datos utilizados para entrenar un modelo, así como las decisiones tomadas por el modelo. La auditoría, por otro lado, se refiere a la revisión sistemática del proceso de desarrollo del modelo y su desempeño posterior.

La trazabilidad y la auditoría son valiosas porque permiten identificar posibles sesgos o errores en el modelo, lo que puede ayudar a mejorar su precisión y confiabilidad. Además, pueden ayudar a garantizar que se cumplan los requisitos legales y éticos relacionados con el uso de sistemas de IA.

Mapa de adopción de IA - Fuente: Disposición 2/2023

De igual manera, se incluye de manera gráfica un esquema de los aspectos que están en las recomendaciones, para que los desarrolladores tomen en consideración la manera en la que la Subsecretaría considera que debe llevarse a cabo la implementación de la IA de acuerdo a las recomendaciones sobre la Ética de la Inteligencia Artificial que emitió la UNESCO

Para que una inteligencia artificial sea fiable, consideran que debe contar con un equipo humano diverso en perspectivas, conocimientos y experiencias variadas en diferentes áreas, lo que puede ayudar a lograr una comprensión más profunda de los usuarios y sus contextos y, por lo tanto, abordar los desafíos de la IA desde diferentes puntos de vista. Esto puede conducir a soluciones más completas y creativas, más intuitivas y adaptadas a las necesidades reales de las personas.

El eje central del documento es proporcionar principios y recomendaciones para implementar proyectos de inteligencia artificial de manera ética y responsable. El documento aborda diferentes aspectos del ciclo de vida de la IA, desde la planificación hasta la evaluación, y ofrece orientación sobre cómo abordar los desafíos éticos y sociales que surgen en cada etapa.

En este sentido, se pueden enumerar los siguientes principios a los que hace referencia la disposición, a saber: Los principios éticos que deben guiar el desarrollo y la implementación de la inteligencia artificial. La importancia de conformar un equipo humano diverso y multidisciplinario antes de comenzar con el ciclo de la IA.

Hace referencia también a la necesidad de considerar los aspectos éticos en el diseño y modelado de los datos. La importancia de documentar adecuadamente los incidentes que ocurren durante el ciclo de vida de la IA.

Se recomienda utilizar técnicas como el análisis premortem para identificar posibles problemas y riesgos antes de que ocurran. Así mismo se recomienda la necesidad de evaluar regularmente los sistemas de IA para garantizar su fiabilidad, transparencia y responsabilidad.

Consideran que estos elementos son fundamentales para garantizar que la inteligencia artificial se desarrolle y se utilice en beneficio del bien común, respetando los derechos fundamentales, los valores democráticos y las normas éticas. 

En medio del fuerte auge de la inteligencia artificial, en la disposición se aclara que: “la inteligencia artificial únicamente lleva a cabo una ejecución sin intención propia y de manera reactiva a una solicitud humana, quien ha decidido programarla, entrenarla e implementarla con un destino de uso específico con el fin de que ejecute distintas acciones”. 

También resalta la disposición que, antes de iniciar el ciclo de vida de la IA, o lo que se conoce como el desarrollo de este tipo de tecnología, resulta pertinente tomar en consideración si es excluyente el uso de la IA para resolver el problema que se ha planteado el equipo desarrollador. 

Aclaración: La información y/u opiniones emitidas en este artículo no representan necesariamente los puntos de vista o la línea editorial de Cointelegraph. La información aquí expuesta no debe ser tomada como consejo financiero o recomendación de inversión. Toda inversión y movimiento comercial implican riesgos y es responsabilidad de cada persona hacer su debida investigación antes de tomar una decisión de inversión.

Te puede interesar: