• 30 agosto, 2023

¿ChatGPT le ha dado respuestas erróneas? Tal vez lo está usando mal

¿ChatGPT le ha dado respuestas erróneas? Tal vez lo está usando mal

Si guiamos a los chatbots de inteligencia artificial a fuentes confiables, reducimos el riesgo de que nos entreguen respuestas con datos erróneos.

Síganos en Instagram: @revistavidayexito

 

Los chatbots, que adivinan qué decir basándose en información obtenida de todo internet, se equivocan. Y cuando fallan —publicando, por ejemplo, una receta de tarta con medidas de harina totalmente inexactas—, puede ser una auténtica decepción.

Sin embargo, a medida que las principales herramientas tecnológicas siguen integrando la IA, es crucial saber cómo utilizarla para que nos sirva. Después de probar decenas de productos de inteligencia artificial en los últimos dos meses, he llegado a la conclusión de que la mayoría de nosotros está utilizando la tecnología de una manera deficiente, en gran parte porque las empresas tecnológicas nos han dado malas indicaciones.

Los chatbots son menos beneficiosos cuando les hacemos preguntas y luego esperamos que las respuestas que obtengan por su cuenta sean ciertas, que es como fueron diseñados para ser utilizados. Pero cuando se les indica que utilicen información de fuentes fiables, como sitios web creíbles y trabajos de investigación, la IA puede llevar a cabo tareas útiles con un alto grado de precisión.

“Si les das la información adecuada, pueden hacer cosas interesantes con ella”, afirmó Sam Heutmaker, fundador de Context, una empresa emergente de IA. “Pero por sí solas, el 70 por ciento de lo que obtengas no será preciso”.

Con el simple ajuste de aconsejar a los chatbots que trabajaran con datos específicos, estos generaron respuestas inteligibles y consejos útiles. En los últimos meses he pasado de ser un escéptico de la IA a un usuario entusiasta. Cuando me fui de viaje con un itinerario planificado por ChatGPT, todo salió bien porque las recomendaciones procedían de mis sitios web de viajes favoritos.

Dirigir los chatbots a fuentes específicas de alta calidad, como sitios web de medios de comunicación bien establecidos y publicaciones académicas, también puede ayudar a reducir la producción y difusión de información errónea. Permítanme compartir algunos de los criterios que utilicé para obtener ayuda con la cocina, la investigación y la planificación de viajes.

 

Chatbots como ChatGPT y Bard pueden escribir recetas que parecen buenas en teoría pero no funcionan en la práctica. En un experimento realizado en noviembre por la sección de Comida de The New York Times, uno de los primeros modelos de IA creó recetas para un menú de Acción de Gracias que incluía un pavo extremadamente seco y un pastel denso.

También obtuve resultados decepcionantes con las recetas de comida marina generadas por IA. Pero eso cambió cuando experimenté con extensiones de ChatGPT, que son básicamente aplicaciones de terceros que funcionan con el chatbot. (Solo los suscriptores que pagan 20 dólares al mes por acceder a ChatGPT4, la última versión del chatbot, pueden utilizar las extensiones, que se activan en el menú de configuración).

En el menú de extensiones de ChatGPT, seleccioné “recetas sabrosas”, que extrae datos del sitio web Tasty, propiedad de BuzzFeed, un conocido sitio de medios de comunicación. A continuación, le pedí al chatbot que diseñara un plan de comidas que incluyera platos de mariscos, carne picada de cerdo y guarniciones de verduras utilizando las recetas del sitio. El bot presentó un inspirador plan de comidas, que incluía banh (un sándwich de estilo vietnamita) con cerdo al limoncillo, tacos de tofu a la parrilla y pasta con todo lo que tengas en el refrigerador; cada sugerencia de comida incluía un enlace a una receta de Tasty.

Para las recetas de otras publicaciones, utilicé Link Reader, una extensión que me permitía pegar un enlace web para generar planes de comidas con recetas de otros sitios fiables, como Serious Eats. El chatbot extraía datos de los sitios web para crear planes de comidas y me decía que los visitara para leer las recetas. Me llevó más trabajo, pero fue mejor que un plan de comidas creado por la IA.

 

Cuando investigué para un artículo sobre una popular serie de videojuegos, recurrí a ChatGPT y Bard para refrescar mi memoria sobre juegos antiguos pidiéndoles que hagan unos resúmenes de sus tramas. Se equivocaron en detalles importantes sobre las historias y los personajes de los juegos.

Después de probar muchas otras herramientas de IA, llegué a la conclusión de que, para investigar, era crucial fijarse en fuentes de confianza y comprobar rápidamente la exactitud de los datos. Al final encontré una herramienta que hace justamente eso: Humata.AI, una aplicación web gratuita que se ha hecho popular entre investigadores, académicos y abogados.

La aplicación  permite subir un documento, por ejemplo un PDF, y desde allí un chatbot responde a sus preguntas sobre el material junto a una copia del documento, resaltando las partes relevantes.

En una de las pruebas, subí un trabajo de investigación que encontré en PubMed, un motor de búsqueda gubernamental de literatura científica. La herramienta produjo un resumen relevante del extenso documento en cuestión de minutos, un proceso que me habría llevado horas, y eché un vistazo a las partes destacadas para comprobar que los resúmenes eran correctos.

Cyrus Khajvandi, fundador de Humata, con sede en Austin, Texas, dijo que desarrolló la aplicación cuando era investigador en Stanford y necesitaba ayuda para leer artículos científicos densos. El problema de los chatbots como ChatGPT es que se basan en modelos anticuados de la web, por lo que los datos pueden carecer de contexto relevante.

 

Cuando una redactora de viajes del Times pidió hace poco a ChatGPT que le compusiera un itinerario de viaje por Milán, el bot la guió para que visitara una parte céntrica de la ciudad que estaba desierta porque era festivo en Italia, entre otros errores.

Yo tuve mejor suerte cuando solicité un itinerario de vacaciones para un viaje con mi mujer y nuestros perros en el condado de Mendocino, California. Al igual que cuando planifiqué una comida, pedí a ChatGPT que incorporara sugerencias de algunos de mis sitios de viajes favoritos, como Thrillist, propiedad de Vox, y la sección de viajes del Times.

En cuestión de minutos, el chatbot generó un itinerario que incluía restaurantes y actividades aptas para perros, como una granja con maridajes de vino y queso y un tren a una popular ruta de senderismo. Esto me ahorró varias horas de planificación y, lo que es más importante, los perros lo pasaron de maravilla.

Google y OpenAI, que colaboran estrechamente con Microsoft, afirman estar trabajando para reducir las inconsistencias en sus chatbots, pero ya podemos cosechar los beneficios de la IA tomando el control de los datos en los que se basan los bots para dar sus respuestas.

Dicho de otro modo: el principal beneficio de entrenar a las máquinas con enormes conjuntos de datos es que ahora pueden utilizar el lenguaje para simular el razonamiento humano, aseguró Nathan Benaich, un inversionista de capital de riesgo que invierte en empresas de IA. El paso importante para nosotros, afirmó, es combinar esa capacidad con información de alta calidad.

 

 

Fuente: The New York Times

 

 

Etiquetas: chatbot / ChatGPT / datos / inconsistencias / sitios web

Recomendaciones sobre este tema

La Nueva Revolución Tecnológica

La Nueva Revolución Tecnológica

La IA promete cambiarlo todo, una promesa palpable en las noticias y redes sociales donde todo lo relacionado…
Cómo usar ChatGPT sin registrarte con su nueva actualización

Cómo usar ChatGPT sin registrarte con su nueva actualización

Se podrá acceder a todas las funciones de la versión gratuita, pero sin el historial de conversaciones.
Cuál es el impacto de la inteligencia artificial generativa en la verificación de la identidad

Cuál es el impacto de la inteligencia artificial generativa en la verificación de la identidad

Entre los principales hallazgos se destacó que se presentó un aumento del 704% en los ataques de intercambio…