www.diariocritico.com

Meta también incorpora la inteligencia artificial a la revisión de riesgos de las nuevas funcionalidades

Marc Zurkerberg, fundador de Meta
Marc Zurkerberg, fundador de Meta (Foto: Meta)
lunes 02 de junio de 2025, 17:27h

Meta lanza nuevas funciones cada semana para sus plataformas con el objetivo de hacer del uso de Facebook, Instagram y WhatsApp una experiencia más natural y cómoda. También en muchas ocasiones se implementan mejoras para que sean apps más seguras.

Una de la manera de cerciorarse de que las aplicaciones son seguras es evaluar los riesgos que tienen las nuevas funciones que la compañía de Mark Zuckerberg desarrolla para ellas.

Para medir esto, Meta utilizaba equipos humanos que revisaban las funcionalidades y calibraban su efecto. Hasta ahora.

Según documentos internos de la empresa obtenidos por NPR, Meta está reemplazando a la mayoría de sus equipos humanos de revisión por sistemas de inteligencia artificial para evaluar los posibles riesgos de las nuevas funciones en plataformas como Facebook, Instagram y WhatsApp.

Así, la IA asumirá el 90% de estas evaluaciones, lo que permitirá a la compañía lanzar productos más rápido y con menor supervisión humana.

Ver esta publicación en Instagram

Una publicación compartida de Mark Zuckerberg (@zuck)


La polémica está servida tras conocerse esta decisión, que se filtra sólo unos días después del anuncio de otra medida que ha levantado también bastante controversia: Meta se ha aliado con el Ejército de Estados Unidos para crear cascos de guerra con inteligencia artificial.

Un proceso más ágil, pero con menos control

Hasta ahora, los equipos de producto de Meta debían someter sus nuevas funciones a una revisión manual antes de lanzarlas, con el objetivo de identificar riesgos de privacidad, difusión de contenido dañino o impactos en la seguridad.

Con el nuevo sistema, bastará con rellenar un cuestionario que la IA analizará para detectar posibles riesgos y generar una lista de requisitos que los desarrolladores deberán cumplir.

Lo más polémico del cambio es que, con este modelo, ya no será necesario obtener la aprobación de los equipos de verificación humanos antes de lanzar una función.

Tal y como describe NPR, los empleados actuales y anteriores de Meta temen que el nuevo impulso a la automatización implique permitir que la IA tome decisiones complejas sobre cómo las aplicaciones de Meta podrían causar daños en el mundo real.

"Es menos probable prevenir las externalidades negativas de los cambios de producto antes de que empiecen a causar problemas en el mundo", advirtió una fuente vinculada al proceso.

La IA también decidirá sobre menores y desinformación

Aunque Meta sostiene que "sólo se están automatizando decisiones de bajo riesgo", los documentos internos a los que ha accedido NPR indican que la IA también revisará categorías sensibles como el contenido violento, la desinformación o los riesgos para menores.

Estos ámbitos han sido tradicionalmente supervisados con especial atención por su impacto potencial en la seguridad de los usuarios.

La compañía liderada por Zuckerberg afirma que seguirá recurriendo a la "experiencia humana" para abordar "problemas nuevos y complejos".

Sin embargo, los críticos temen que esta automatización acabe reduciendo los niveles de escrutinio y aumente los efectos adversos de ciertos productos en el ecosistema digital.

Este giro hacia la automatización llega pocos meses después de que Meta decidiera prescindir de verificadores externos para su sistema de moderación, en enero de 2025.

Ver esta publicación en Instagram

Una publicación compartida de Mark Zuckerberg (@zuck)


En los informes de integridad del primer trimestre del año, la propia compañía ha reconocido un aumento del contenido violento y los comportamientos de acoso en Facebook desde entonces.

Meta defiende que los cambios permitirán "agilizar la toma de decisiones" sin comprometer la seguridad, pero esta transición vuelve a abrir el debate sobre el equilibrio entre innovación, velocidad y responsabilidad en las grandes tecnológicas.

¿Te ha parecido interesante esta noticia?    Si (0)    No(0)

+
0 comentarios