meta adiestramiento ia criticas 2024

Meta pone en pausa la integración de IA con datos europeos ante regulaciones de privacidad

Mediante un anuncio oficial, Meta ha decidido interrumpir su proyecto de mejorar su IA utilizando información de usuarios de Europa. La empresa ha expresado su descontento con la Comisión Irlandesa de Protección de Datos (DPC), su principal ente regulador en la Unión Europea. La pausa llega como respuesta a las exigencias de las autoridades de protección de datos (DPA) en cuanto a la salvaguarda de la privacidad en el uso de datos para el adiestramiento de modelos de lenguaje de gran tamaño (LLM).

“Este es un paso atrás para la innovación europea, la competencia en el desarrollo de la IA y mayores retrasos para llevar los beneficios de la IA a los ciudadanos de Europa”, declaró Meta.

Entrenamiento de IA por Meta

La estrategia de la compañía contemplaba el uso de datos personales de los usuarios europeos para perfeccionar sus modelos de inteligencia artificial, obviando la solicitud de permiso. Meta sostuvo que se limitaría a manejar información pública de individuos mayores de edad en Facebook e Instagram.

Por consiguiente, la empresa subrayó su convicción de que su metodología respeta las normativas y leyes europeas. Subrayaron también que la formación en IA no se circunscribe solamente a sus servicios y que su transparencia es superior a la de otros competidores del sector.

Ante las acusaciones de los organismos reguladores, Meta ha retrocedido en su intento de implementar Meta AI en Europa. Según la empresa, si los sistemas de IA se ven impedidos de acceder a los datos de los usuarios, su capacidad para interpretar correctamente la información, incluyendo idiomas, geografía y contextos culturales europeos, se verá comprometida.

“Creemos que los europeos se verán perjudicados por modelos de IA que no se basen en las ricas contribuciones culturales, sociales e históricas de Europa”, menciona el comunicado.

Meta enfatiza que no es la única empresa que hace uso de la información de usuarios europeos, mencionando a Google y OpenAI como ejemplos.

“Nuestro enfoque es más transparente y ofrece controles más sencillos que muchos de nuestros homólogos de la industria que ya entrenan sus modelos con información similar disponible públicamente”, destaca la declaración de Meta.

Mientras tanto, la corporación comandada por Mark Zuckerberg comunica que está colaborando con la Comisión Irlandesa de Protección de Datos para idear un método de capacitación de IA que se alinee con las directrices de privacidad de la Unión Europea. Aseguran continuar la cooperación con especialistas en protección al consumidor para proporcionar un servicio seguro.