• 9 febrero, 2024

Inteligencia artificial: OpenAI crea un equipo de seguridad infantil para proteger a los niños

Inteligencia artificial: OpenAI crea un equipo de seguridad infantil para proteger a los niños

La compañía busca garantizar que sus herramientas eviten ser usadas en contra de los usuarios menores de edad.

Síganos en Instagram: @revistavidayexito

OpenAI cuenta con un equipo de Seguridad Infantil con el que gestiona los incidentes relacionados con el uso que hacen los usuarios menores de edad de las herramientas de Inteligencia Artificial (IA), de cara a garantizar que las tecnologías de la compañía eviten ser “mal utilizadas” de manera perjudicial para los niños.

La compañía dirigida por Sam Altman continúa implementando medidas para encontrar formas de asegurar que sus tecnologías no afectan de forma negativa a los usuarios, en este caso, en lo relacionado con cómo puede afectar a los menores.

En este sentido, OpenAI ha dado a conocer la existencia de un equipo de Seguridad Infantil que se dedica a ayudar a garantizar que las tecnologías de IA de la tecnológica “eviten ser mal utilizadas o abusadas de manera perjudicial” para los usuarios menores de edad.

Así lo ha detallado la compañía estadounidense en una oferta de trabajo publicada en su web, en la que, en concreto, busca la contratación de un experto en la materia de políticas relacionadas con la seguridad infantil, para formar parte de este equipo.

En este marco, OpenAI ha explicado que el equipo en cuestión gestiona procesos, incidentes y revisiones para “proteger el ecosistema en línea” de la compañía. El equipo también maneja compromisos y relaciones externas “clave”, lo que se lleva a cabo a través de “estrechas asociaciones” con “colegas” de Asuntos Legales y Política de Plataforma e Investigaciones.

La compañía recomienda “precaución” ante la exposición de contenido sensible a niños, incluso para aquellos que sí cumplen con los requisitos de edad de la tecnológica.

Entre otras cosas, el experto solicitado se encargará de revisar la aplicación de las políticas de OpenAI en lo relativo al contenido generado por IA en las herramientas de la compañía.

Además, según ha explicado la tecnológica, también ofrecerá orientación sobre el cumplimiento de las políticas de contenido y trabajará en la “implementación y ampliación de procesos de revisión” relacionados con contenido confidencial.

Es decir, el objetivo de este puesto es el de conseguir más eficacia en el proceso de identificar el contenido que viole las políticas de OpenAI generado por la IA y, para ello, deberá conseguir mejorar sus procesos de revisión y respuesta. Todo ello, a través de la colaboración con equipos de ingeniería, políticas e investigación.

La restricción del contenido inadecuado para usuarios menores de edad es una de las cuestiones en las que la compañía de IA está centrando sus esfuerzos actualmente, de cara a ofrecer un espacio seguro para los niños, así como cumplir las distintas leyes de privacidad y de protección a los menores.

Por ejemplo, una de las medidas implementadas ha sido la asociación con la organización Common Sense Media, que se dedica a revisar y calificar si los medios y tecnologías son aptos para los usuarios menores, anunciada el pasado mes de enero.

De esta forma, la compañía pretende facilitar medios para ayudar a los menores y a las familias a “aprovechar de forma segura el potencial de la IA” y educar sobre el uso seguro y responsable de ChatGPT, tal y como declara la organización en un comunicado en su web.

Actualmente, según indica OpenAI en su página de ayuda, las herramientas como ChatGPT están lejos de ser destinadas a niños menores de 13 años. De igual forma, se requiere el consentimiento por parte de los padres o tutores para autorizar el uso de ChatGPT a usuarios menores de entre 13 y 18 años.

OpenAI puntualiza que, en contextos educativos, los niños menores de 13 años deben interaccionar con servicios como ChatGPT de forma supervisada por un adulto.

 

 

Fuente: El Economista

Etiquetas: Inteligencia artificial / OpenAI / Seguridad infantil

Recomendaciones sobre este tema

Más del 62% de los consumidores latinos eligen WhatsApp para contactar a empresas y marcas

Más del 62% de los consumidores latinos eligen WhatsApp para contactar a empresas y marcas

Las industrias que más uso de mensajería tuvieron fueron medios y entretenimiento (51%), producción y manufactura (44%), seguidas…
Evite hacer lo siguiente en LinkedIn

Evite hacer lo siguiente en LinkedIn

Nolan Church, exreclutador de Google y actual director ejecutivo de la empresa FairComp, reveló cuál es la acción…
Las personas son la clave para aumentar la productividad a través de la Inteligencia Artificial

Las personas son la clave para aumentar la productividad a través de la Inteligencia Artificial

40% de los ejecutivos prediciendo que la IA proporcionará ganancias de más del 30%.