La empresa exigirá a los desarrolladores de apps basadas en IA que implementen herramientas de moderación a partir de 2024
La inteligencia artificial está cada vez más presente en nuestros dispositivos móviles, ya sea en forma de aplicaciones para generar imágenes, chatbots o incluso empresas como Google están integrando sus sistemas de IA directamente en sus productos.
Ahora, la misma Google quiere poner algunos límites a la IA en las aplicaciones dirigidas al sistema operativo Android. La intención de la compañía, según un comunicado en su blog, es que las aplicaciones cumplan con los requisitos y estándares para poder estar disponibles en la tienda Play Store, y que además cuenten con herramientas para facilitar su moderación. En pocas palabras, Google no quiere contenido ofensivo o que incite a la violencia y el odio en su plataforma, y eso lo han dejado claro.
Aplicaciones con IA sí, contenido problemático no
En su comunicado, Google afirma que está comprometida con “las prácticas responsables con la IA”. El contenido generado mediante IA puede estar en Play Store, por supuesto, incluso la misma empresa cuenta con sus propias herramientas de inteligencia artificial, como YouTube que ahora tiene una herramienta para crear portadas de listas de reproducción en YouTube Music utilizando IA generativa (aunque por ahora solo está disponible en Estados Unidos).
El problema está en el uso de la IA generativa para crear contenido restringido, por ejemplo, explica Google, el contenido que facilite o incite al odio y a la explotación o el abuso infantil. También, entre sus normas para Play Store, Google indica que no permiten aplicaciones que intenten engañar a los usuarios o faciliten el engaño de usuarios. Estas reglas también aplican a la inteligencia artificial.
Por último, pero no menos importante, Google exigirá a los desarrolladores de aplicaciones relacionadas a la IA generativa que cuenten con herramientas de moderación dentro de la misma app, que permitan reportar contenido ofensivo o abusivo sin necesidad de salir de la aplicación. Los desarrolladores tienen que cumplir esta norma a partir de 2024, de lo contrario estarían infringiendo las reglas de Play Store.
Google lo tiene claro: el uso de la inteligencia artificial y las aplicaciones basadas en IA son una categoría relativamente nueva, y que está evolucionando y cambiando muy rápido. Esta no es una idea errónea. Mientras algunos usamos la IA simplemente para crear wallpapers originales, preciosos y únicos basados en nuestras ideas, otros pueden usar la IA generativa para crear contenido ofensivo o que incite a la violencia, entre otras cosas. En una plataforma como Play Store, que según datos recientes cuenta con más de 2,6 millones de aplicaciones, moderar las apps de IA generativa será una tarea ardua pero necesaria, y que los mismos usuarios puedan reportar contenido que incumpla con las normativas puede ayudar a detectar contenido problemático más rápido, al menos en teoría.
Más información | Google
En Xataka Android | Borrar Cookies vs. Modo Incógnito: ¿qué método protege mejor tu privacidad?
Ver todos los comentarios en https://www.xatakandroid.com
VER 0 Comentario