La Comisión Federal de Comercio de los Estados Unidos (FTC) ha aprobado un nuevo proceso simplificado para investigar casos relacionados con el uso ilegal de la inteligencia artificial (IA).
La FTC aprobó por unanimidad una medida para racionalizar la capacidad de su personal para emitir demandas civiles de investigación (CID) -una forma de proceso obligatorio similar a una citación- en investigaciones relacionadas con IA, al tiempo que mantiene su autoridad para determinar cuándo se emiten las CID. Esta medida supone una mayor atención a las posibles infracciones legales relacionadas con las aplicaciones de IA.
La FTC emite CID para obtener documentos, información y testimonios que impulsen las investigaciones sobre protección de los consumidores y competencia. Según el comunicado de la FTC, la resolución general tendrá una vigencia de diez años.
FTC authorizes compulsory process for AI-related products and services: https://t.co/ALlbc4Gecw
— FTC (@FTC) November 21, 2023
La FTC autoriza procesos obligatorios para productos y servicios relacionados con la IA: https://t.co/ALlbc4Gecw
Junto con otras medidas, esta acción pone de relieve el compromiso de la FTC con la investigación de casos relacionados con la IA. Los detractores de esta tecnología han expresado su preocupación por que pueda amplificar las actividades fraudulentas.
Según un informe de Reuters, durante una audiencia de confirmación en el Senado de Estados Unidos en septiembre, la comisionada de la FTC Rebecca Slaughter, que estaba siendo considerada para una nueva nominación como comisionada, coincidió con los otros dos nominados en que el enfoque debería centrarse en desafíos como el uso de IA para mejorar la persuasión de correos electrónicos de phishing y robocalls.
La aparición de la IA ha abierto nuevas vías para la expresión humana y las capacidades creativas. Sin embargo, la capacidad de realizar diversas tareas con una identidad de IA generada digitalmente también ha traído consigo nuevos retos. Según datos de Sumsub, la proporción de fraudes atribuidos a deep fakes se duplicó con creces entre 2022 y el primer trimestre de 2023; tuvo un aumento notable en Estados Unidos: del 0.2% al 2.6%.
El 16 de noviembre, la agencia dio a conocer un concurso para determinar el método más eficaz para salvaguardar a los consumidores del fraude y otros riesgos asociados a la clonación de voz. La tecnología de clonación de voz se ha vuelto más sofisticada a medida que ha mejorado la tecnología de IA de texto a voz. La tecnología es prometedora para los consumidores, como la asistencia médica a quienes hayan perdido la voz por accidente o enfermedad.
Aclaración: La información y/u opiniones emitidas en este artículo no representan necesariamente los puntos de vista o la línea editorial de Cointelegraph. La información aquí expuesta no debe ser tomada como consejo financiero o recomendación de inversión. Toda inversión y movimiento comercial implican riesgos y es responsabilidad de cada persona hacer su debida investigación antes de tomar una decisión de inversión