• 26 diciembre, 2023

La gran disyuntiva que entraña la IA generativa

La gran disyuntiva que entraña la IA generativa

Las herramientas como ChatGPT pueden aumentar la eficiencia a nivel personal, pero provocar grandes problemas a nivel social

Síganos en Instagram: @revistavidayexito

Si usted ha empezado a incorporar herramientas de IA generativa como ChatGPT en su dinámica de trabajo, probablemente habrá notado algo muy sorprendente: si bien la IA lo puede ayudar a redactar, codificar o ilustrar más eficientemente, lo cierto es que cuesta mucho trabajo convertir el resultado en algo que se parezca a lo que usted mismo habría creado.

Así pues, la IA generativa plantea una disyuntiva fundamental al usuario: para obtener los máximos beneficios de su eficiencia, es preciso sacrificar en cierta medida la «fidelidad» del resultado, es decir, aceptar la falta de lealtad y exactitud con la que reproduce el estilo o la perspectiva única del usuario.

«Si de lo que se trata es solamente de trabajar más rápido y aumentar la productividad, a algo tendremos que renunciar en aras de la velocidad», afirma Sébastien Martin, profesor adjunto de Economía de la Gestión y Ciencias de la Decisión en la Kellogg School of Management.

Para los usuarios, este dilema puede resultar molesto, pero por lo menos es sencillo: o aceptamos las respuestas de la IA como «suficientemente buenas» o dedicamos más tiempo a personalizarlas, para lo cual hay que proporcionar más información por adelantado, modificar las instrucciones o retocar las respuestas a posteriori. Los usuarios que poseen un estilo o una perspectiva particularmente originales pueden incluso decidir que la personalización cuesta tanto trabajo que poco vale la pena usar la herramienta y la abandonarán por completo.

Pero ¿qué pasa cuando todo el mundo empieza a utilizar estas herramientas? El sacrificio de la fidelidad a cambio de la velocidad ¿puede acaso tener consecuencias sociales más amplias, tanto a corto como a largo plazo?

En una nueva investigación con sus colegas Francisco Castro y Jian Gao, de la UCLA, Martin descubre que el uso de la IA para crear contenidos aumentará la homogeneidad de lo que producimos colectivamente, por mucho que intentemos personalizar el resultado. Es más, ese contenido heredará los sesgos que la IA haya podido adquirir durante su proceso de entrenamiento. En otras palabras, los gustos y los sesgos de unos cuantos empleados de una empresa de IA pueden acabar propagándose por toda la sociedad. Según la investigación, estos efectos se intensificarán a medida que los resultados generados por la IA se utilicen para entrenar a la próxima generación de IA.

Sin embargo, del estudio se desprende un elemento positivo: la creación de herramientas interactivas de IA que animen al usuario a realizar aportaciones y faciliten la edición manual puede evitar las peores consecuencias.

Sin duda, los datos, el análisis y la inteligencia artificial se han convertido en competencias necesarias para el éxito en los mercados actuales basados en datos.

Oportunidades y riesgos

Martin conoce perfectamente el dilema entre la velocidad y la fidelidad que plantea la IA generativa. Después de todo, el francés es su idioma materno y utiliza Grammarly para mejorar su inglés escrito. «¡Ahorro mucho tiempo!», afirma.

Aun así, Martin reconoce que el uso de la herramienta influye inevitablemente en los artículos que escribe. Hay muchas preferencias idiosincrásicas en materia de puntuación, elección de palabras y estructura de frases.  «Hay distintas maneras de escribir lo mismo. A veces es solo cuestión de gustos».

Pero otras veces, las diferencias son más significativas. El hecho de describir un acontecimiento como «protesta» o «disturbio», o de redactar un artículo desde una perspectiva de centroderecha o de centroizquierda, puede condicionar significativamente las impresiones del público sobre lo ocurrido.  Y en términos más generales, ¿qué pasará a lo largo del tiempo cuando el gusto colectivo de todos esté bajo la influencia de los mismos algoritmos?

Para averiguarlo, Martin, Castro y Gao construyeron un modelo matemático destinado a simular las consecuencias de que toda una sociedad utilizara las mismas herramientas de IA.

En su modelo, los usuarios, que representan una diversa gama de preferencias, utilizan la IA para trabajar en una tarea y pueden personalizar el resultado todo lo que quieran. Esta personalización se representa como un intercambio de información sobre las preferencias de cada uno. Los usuarios deciden el grado de esfuerzo que van a realizar en función de su situación: si proporcionan más información, la IA podrá captar mejor sus preferencias, pero eso les supondrá más trabajo. Les es más rápido y fácil dar menos información, pero eso produce un resultado más genérico. Ni siquiera la mejor IA es capaz de adivinar las verdaderas preferencias de un usuario si este facilita poca información, pero puede intentarlo por aproximación a medida que aprende las distintas preferencias de la población en general durante su entrenamiento.

Cómo decidirían los usuarios utilizar estas herramientas, se preguntaban los investigadores, y qué consecuencias tendría la suma de sus decisiones.

Inspirados por algoritmos

El modelo confirmó que, para los usuarios con preferencias más comunes o moderadas, la decisión óptima era aceptar el producto de la IA tal cual. Los usuarios con preferencias menos comunes, sin embargo, se sentirían incentivados a proporcionar a la IA información adicional o a editar ellos mismos el producto para alejarlo del predeterminado. Para los usuarios con preferencias marginales, sin embargo, la IA estaba lejos de ofrecer  un ahorro de tiempo en absoluto: les convenía más crear el contenido ellos mismos.

El modelo también concluyó que los contenidos generados por la IA son siempre más homogéneos que los generados por los usuarios. Esto es cierto a nivel individual, donde los beneficios de la IA proceden de la sustitución de una parte de nuestras preferencias eclécticas por otras más populares. Pero también es cierto a nivel poblacional.

Además, la uniformidad se agrava con el tiempo, ya que los contenidos generados por la IA se utilizan después para formar a la siguiente generación de IA. Esto crea lo que los investigadores llaman una «espiral de la muerte» por homogeneización. La nueva IA se entrena con datos más homogeneizados y, por tanto, es más probable que cree contenidos homogeneizados. Los usuarios necesitan entonces más tiempo y esfuerzo para ajustar el resultado de la IA a sus preferencias, algo que pueden  estar indispuesto a hacer, lo que conduce a una homogeneización aún mayor.

Pero este comprensible comportamiento individual se agrava si todos actuamos de forma similar. Con el tiempo, «cualquier sesgo de la IA puede convertirse en un sesgo social», afirma Martin.

Esto permite a las empresas de IA tener una enorme influencia en los resultados a nivel social, incluso si los usuarios hacen todo lo posible por limitarla.

 

Fuente: América Economía

Etiquetas: contenido / Grammarly / herramientas de IA generativa / IA / personalización

Recomendaciones sobre este tema

Áreas que tendrán un rápido crecimiento por el uso de la IA

Áreas que tendrán un rápido crecimiento por el uso de la IA

Conozca algunos de los usos que se le ha dado según ChatGTP.
Empresas latinoamericanas de IA representan solo el 3% del total mundial, según Cepal

Empresas latinoamericanas de IA representan solo el 3% del total mundial, según Cepal

El secretario ejecutivo de Cepal señala que "el escaso uso de las tecnologías digitales en el entramado productivo…
Conozca las tendencias hoteleras que estarán presentes en la industria este el 2024

Conozca las tendencias hoteleras que estarán presentes en la industria este el 2024

En esta industria se verán tendencias enfocadas en la tecnología, sostenibilidad, personalización y la experiencia del huésped.