• 31 octubre, 2023

Estudio de Standford cuestiona transparencia de los modelos de IA

Estudio de Standford cuestiona transparencia de los  modelos de IA

Investigación concluyó que los desarrollos creados con este tecnología carecen de claridad en su diseño y base técnica.

Síganos en Instagram: @revistavidayexito

 

Los modelos de inteligencia artificial, que se multiplican desde el lanzamiento de ChatGPT, carecen de transparencia en su diseño, lo que plantea un riesgo para las aplicaciones que los utilizan como base técnica, concluyó un estudio de la universidad de Stanford.

Según un nuevo índice diseñado y calculado por los investigadores de esta universidad californiana, el modelo más transparente entre los diez evaluados es Llama 2, sistema de inteligencia artificial lanzado por Meta en julio y reutilizable libremente.

Pero solo obtuvo una puntuación del 54%, aún muy insuficiente según los autores del estudio. GPT-4, el modelo de lenguaje creado por Open AI -empresa financiada por Microsoft detrás del famoso robot ChatGPT-, solo obtuvo 48% de transparencia.

Los otros modelos de moda, como Palm-2 de Google o Claude 2 de la sociedad Anthropic (financiada por Amazon), aparecen aún más abajo en la clasificación.

Todos los modelos deben tratar de alcanzar entre 80% y 100% de transparencia, estima en un comunicado Rishi Bommasani, director de investigación en Stanford sobre los modelos llamados de «fundación».

La falta de transparencia hace que sea más difícil para las empresas «saber si pueden crear aplicaciones seguras basadas en estos modelos empresariales», y «para los académicos confiar en estos modelos para sus investigaciones«, explica el estudio.

Inteligencia artificial
Inteligencia artificial. iStock

 

Esto también complica la tarea de los consumidores que desean «comprender los límites de los modelos o reclamar reparación por los perjuicios sufridos», detalla. Concretamente, « la mayoría de las empresas no revelan el alcance de los contenidos protegidos por derechos de autor utilizados para entrenar su modelo. Tampoco divulgan el uso de trabajo humano para corregir los datos de entrenamiento, lo que puede ser muy problemático», subraya.

«Ninguna empresa proporciona información sobre el número de usuarios que dependen de su modelo, ni brinda estadísticas sobre los países o mercados que lo utilizan», resalta Bommasani.

Según los autores, este índice de transparencia podría ser utilizado en el futuro por los responsables políticos y los reguladores. La Unión Europea, Estados Unidos, China, Reino Unido y Canadá anunciaron su deseo de una IA más transparente.

» La inteligencia artificial es una gran promesa de oportunidades increíbles, pero también presenta riesgos para nuestra sociedad, nuestra economía y nuestra seguridad nacional», destacó el presidente de Estados Unidos, Joe Biden, en julio, a los responsables de las empresas del sector.

El tema estuvo en primer plano durante el G7 en Japón en mayo, y Gran Bretaña se prepara para organizar una cumbre internacional sobre la IA en noviembre.

 

Fuente: Portafolio

Etiquetas: ChatGPR / claridad / Inteligencia artificial / transparencia

Recomendaciones sobre este tema

Microsoft presentó el Informe de uso de Copilot 2025

Microsoft presentó el Informe de uso de Copilot 2025

En MAI (Microsoft AI), construimos herramientas de IA y nos importa cómo interactúan las personas reales con ellas.
Cómo las últimas tendencias de IA están dando forma a los dispositivos de consumo

Cómo las últimas tendencias de IA están dando forma a los dispositivos de consumo

La IA se vuelve estándar en los dispositivos y, mediante un enfoque híbrido entre nube y edge, impulsa…
Cinco tendencias que transformarán la experiencia del cliente en 2026, según Intelcia

Cinco tendencias que transformarán la experiencia del cliente en 2026, según Intelcia

Las compañías migrarán hacia un modelo donde la data será capaz de interpretar, prever y conectar emocionalmente con…