• 9 febrero, 2024

Inteligencia artificial: OpenAI crea un equipo de seguridad infantil para proteger a los niños

Inteligencia artificial: OpenAI crea un equipo de seguridad infantil para proteger a los niños

La compañía busca garantizar que sus herramientas eviten ser usadas en contra de los usuarios menores de edad.

Síganos en Instagram: @revistavidayexito

OpenAI cuenta con un equipo de Seguridad Infantil con el que gestiona los incidentes relacionados con el uso que hacen los usuarios menores de edad de las herramientas de Inteligencia Artificial (IA), de cara a garantizar que las tecnologías de la compañía eviten ser “mal utilizadas” de manera perjudicial para los niños.

La compañía dirigida por Sam Altman continúa implementando medidas para encontrar formas de asegurar que sus tecnologías no afectan de forma negativa a los usuarios, en este caso, en lo relacionado con cómo puede afectar a los menores.

En este sentido, OpenAI ha dado a conocer la existencia de un equipo de Seguridad Infantil que se dedica a ayudar a garantizar que las tecnologías de IA de la tecnológica “eviten ser mal utilizadas o abusadas de manera perjudicial” para los usuarios menores de edad.

Así lo ha detallado la compañía estadounidense en una oferta de trabajo publicada en su web, en la que, en concreto, busca la contratación de un experto en la materia de políticas relacionadas con la seguridad infantil, para formar parte de este equipo.

En este marco, OpenAI ha explicado que el equipo en cuestión gestiona procesos, incidentes y revisiones para “proteger el ecosistema en línea” de la compañía. El equipo también maneja compromisos y relaciones externas “clave”, lo que se lleva a cabo a través de “estrechas asociaciones” con “colegas” de Asuntos Legales y Política de Plataforma e Investigaciones.

La compañía recomienda “precaución” ante la exposición de contenido sensible a niños, incluso para aquellos que sí cumplen con los requisitos de edad de la tecnológica.

Entre otras cosas, el experto solicitado se encargará de revisar la aplicación de las políticas de OpenAI en lo relativo al contenido generado por IA en las herramientas de la compañía.

Además, según ha explicado la tecnológica, también ofrecerá orientación sobre el cumplimiento de las políticas de contenido y trabajará en la “implementación y ampliación de procesos de revisión” relacionados con contenido confidencial.

Es decir, el objetivo de este puesto es el de conseguir más eficacia en el proceso de identificar el contenido que viole las políticas de OpenAI generado por la IA y, para ello, deberá conseguir mejorar sus procesos de revisión y respuesta. Todo ello, a través de la colaboración con equipos de ingeniería, políticas e investigación.

La restricción del contenido inadecuado para usuarios menores de edad es una de las cuestiones en las que la compañía de IA está centrando sus esfuerzos actualmente, de cara a ofrecer un espacio seguro para los niños, así como cumplir las distintas leyes de privacidad y de protección a los menores.

Por ejemplo, una de las medidas implementadas ha sido la asociación con la organización Common Sense Media, que se dedica a revisar y calificar si los medios y tecnologías son aptos para los usuarios menores, anunciada el pasado mes de enero.

De esta forma, la compañía pretende facilitar medios para ayudar a los menores y a las familias a “aprovechar de forma segura el potencial de la IA” y educar sobre el uso seguro y responsable de ChatGPT, tal y como declara la organización en un comunicado en su web.

Actualmente, según indica OpenAI en su página de ayuda, las herramientas como ChatGPT están lejos de ser destinadas a niños menores de 13 años. De igual forma, se requiere el consentimiento por parte de los padres o tutores para autorizar el uso de ChatGPT a usuarios menores de entre 13 y 18 años.

OpenAI puntualiza que, en contextos educativos, los niños menores de 13 años deben interaccionar con servicios como ChatGPT de forma supervisada por un adulto.

 

 

Fuente: El Economista

Etiquetas: Inteligencia artificial / OpenAI / Seguridad infantil

Recomendaciones sobre este tema

LLYC analiza la movilidad humana como motor de crecimiento y oportunidades

LLYC analiza la movilidad humana como motor de crecimiento y oportunidades

La IA mide el consenso: los modelos analizados confirman el impacto positivo de la migración en sectores como…
De SEO a GEO: cómo lograr que la IA cite su marca

De SEO a GEO: cómo lograr que la IA cite su marca

En la era de la inteligencia Artificial, el reto de las marcas es construir confianza antes que clics.