• 9 febrero, 2024

Inteligencia artificial: OpenAI crea un equipo de seguridad infantil para proteger a los niños

Inteligencia artificial: OpenAI crea un equipo de seguridad infantil para proteger a los niños

La compañía busca garantizar que sus herramientas eviten ser usadas en contra de los usuarios menores de edad.

Síganos en Instagram: @revistavidayexito

OpenAI cuenta con un equipo de Seguridad Infantil con el que gestiona los incidentes relacionados con el uso que hacen los usuarios menores de edad de las herramientas de Inteligencia Artificial (IA), de cara a garantizar que las tecnologías de la compañía eviten ser “mal utilizadas” de manera perjudicial para los niños.

La compañía dirigida por Sam Altman continúa implementando medidas para encontrar formas de asegurar que sus tecnologías no afectan de forma negativa a los usuarios, en este caso, en lo relacionado con cómo puede afectar a los menores.

En este sentido, OpenAI ha dado a conocer la existencia de un equipo de Seguridad Infantil que se dedica a ayudar a garantizar que las tecnologías de IA de la tecnológica “eviten ser mal utilizadas o abusadas de manera perjudicial” para los usuarios menores de edad.

Así lo ha detallado la compañía estadounidense en una oferta de trabajo publicada en su web, en la que, en concreto, busca la contratación de un experto en la materia de políticas relacionadas con la seguridad infantil, para formar parte de este equipo.

En este marco, OpenAI ha explicado que el equipo en cuestión gestiona procesos, incidentes y revisiones para “proteger el ecosistema en línea” de la compañía. El equipo también maneja compromisos y relaciones externas “clave”, lo que se lleva a cabo a través de “estrechas asociaciones” con “colegas” de Asuntos Legales y Política de Plataforma e Investigaciones.

La compañía recomienda “precaución” ante la exposición de contenido sensible a niños, incluso para aquellos que sí cumplen con los requisitos de edad de la tecnológica.

Entre otras cosas, el experto solicitado se encargará de revisar la aplicación de las políticas de OpenAI en lo relativo al contenido generado por IA en las herramientas de la compañía.

Además, según ha explicado la tecnológica, también ofrecerá orientación sobre el cumplimiento de las políticas de contenido y trabajará en la “implementación y ampliación de procesos de revisión” relacionados con contenido confidencial.

Es decir, el objetivo de este puesto es el de conseguir más eficacia en el proceso de identificar el contenido que viole las políticas de OpenAI generado por la IA y, para ello, deberá conseguir mejorar sus procesos de revisión y respuesta. Todo ello, a través de la colaboración con equipos de ingeniería, políticas e investigación.

La restricción del contenido inadecuado para usuarios menores de edad es una de las cuestiones en las que la compañía de IA está centrando sus esfuerzos actualmente, de cara a ofrecer un espacio seguro para los niños, así como cumplir las distintas leyes de privacidad y de protección a los menores.

Por ejemplo, una de las medidas implementadas ha sido la asociación con la organización Common Sense Media, que se dedica a revisar y calificar si los medios y tecnologías son aptos para los usuarios menores, anunciada el pasado mes de enero.

De esta forma, la compañía pretende facilitar medios para ayudar a los menores y a las familias a “aprovechar de forma segura el potencial de la IA” y educar sobre el uso seguro y responsable de ChatGPT, tal y como declara la organización en un comunicado en su web.

Actualmente, según indica OpenAI en su página de ayuda, las herramientas como ChatGPT están lejos de ser destinadas a niños menores de 13 años. De igual forma, se requiere el consentimiento por parte de los padres o tutores para autorizar el uso de ChatGPT a usuarios menores de entre 13 y 18 años.

OpenAI puntualiza que, en contextos educativos, los niños menores de 13 años deben interaccionar con servicios como ChatGPT de forma supervisada por un adulto.

 

 

Fuente: El Economista

Etiquetas: Inteligencia artificial / OpenAI / Seguridad infantil

Recomendaciones sobre este tema

Inversión en IA superará los $500.000 millones en 2026

Inversión en IA superará los $500.000 millones en 2026

Los expertos estiman que la adopción empresarial de la IA tendrá un impacto de US$19,9 mil millones hasta…
Microsoft presentó el Informe de uso de Copilot 2025

Microsoft presentó el Informe de uso de Copilot 2025

En MAI (Microsoft AI), construimos herramientas de IA y nos importa cómo interactúan las personas reales con ellas.
Cómo las últimas tendencias de IA están dando forma a los dispositivos de consumo

Cómo las últimas tendencias de IA están dando forma a los dispositivos de consumo

La IA se vuelve estándar en los dispositivos y, mediante un enfoque híbrido entre nube y edge, impulsa…