Cuatro senadores estadounidenses han escrito a la presidenta de la Comisión Federal de Comercio (FTC), Lina Khan, solicitando información sobre los esfuerzos realizados por la FTC para rastrear el uso de inteligencia artificial (IA) en las estafas a estadounidenses mayores.

En la carta dirigida a Khan, los senadores estadounidenses Robert Casey, Richard Blumenthal, John Fetterman y Kirsten Gillibrand subrayan la necesidad de responder eficazmente al fraude y el engaño posibilitados por la IA.

Subrayando la importancia de comprender el alcance de la amenaza para contrarrestarla, declararon:

“Pedimos que la FTC comparta cómo está trabajando para recopilar datos sobre el uso de la IA en las estafas y garantizar que se refleje con precisión en su base de datos Consumer Sentinel Network (Sentinel).”

Consumer Sentinel (o Centinela del Consumidor) es la herramienta cibernética de investigación de la FTC utilizada por las fuerzas del orden federales, estatales o locales, que incluye informes sobre diversas estafas. Los senadores formularon a la presidenta de la FTC cuatro preguntas sobre las prácticas de recopilación de datos de estafas mediante IA.

Los senadores querían saber si la FTC tiene capacidad para identificar las estafas impulsadas por IA y etiquetarlas en consecuencia en Sentinel. Además, se preguntó a la comisión si podía identificar las estafas generadas por IA que pasaban desapercibidas para las víctimas.

Los legisladores también solicitaron un desglose de los datos de Sentinel para identificar la popularidad y las tasas de éxito de cada tipo de estafa. La última pregunta se refería a si la FTC utiliza IA para procesar los datos recogidos por Sentinal.

Casey también es presidente del Senate Special Committee on Aging (Comité Especial del Senado sobre Envejecimiento), que estudia cuestiones relacionadas con los estadounidenses mayores.

El 27 de noviembre, EE.UU., el Reino Unido, Australia y otros 15 países publicaron conjuntamente unas directrices mundiales para ayudar a proteger los modelos de inteligencia artificial (IA) de ser manipulados, instando a las empresas a hacer que sus modelos sean "seguros por diseño".

Las directrices recomendaban principalmente mantener un estricto control sobre la infraestructura del modelo de IA, vigilar cualquier manipulación de los modelos antes y después de su lanzamiento y entrenar al personal sobre los riesgos de ciberseguridad.

Sin embargo, no se habló de posibles controles en torno al uso de modelos generadores de imágenes y deep fakes ni de los métodos de recopilación de datos y su uso en el entrenamiento de modelos.

Aclaración: La información y/u opiniones emitidas en este artículo no representan necesariamente los puntos de vista o la línea editorial de Cointelegraph. La información aquí expuesta no debe ser tomada como consejo financiero o recomendación de inversión. Toda inversión y movimiento comercial implican riesgos y es responsabilidad de cada persona hacer su debida investigación antes de tomar una decisión de inversión