Foto: AdobeStock (TN).
La decisión busca mejorar la eficiencia operativa de la plataforma, pero plantea preocupaciones sobre la capacidad de la tecnología para manejar situaciones complejas y entender matices culturales.
TikTok ha comenzado a despedir a cientos de moderadores de contenido para reemplazarlos con sistemas de inteligencia artificial. Esta decisión, parte de una iniciativa más amplia de su empresa matriz, ByteDance, busca mejorar la eficiencia operativa, pero también plantea preocupaciones sobre la capacidad de la tecnología para manejar situaciones complejas y entender matices culturales.
Los primeros afectados son 500 empleados de la oficina de Malasia, la mayoría de los cuales formaban parte de los equipos de moderación. Los moderadores humanos desempeñaban un papel crucial en la revisión y eliminación de contenido que infringe las normas comunitarias. Esta reducción de personal genera interrogantes sobre el futuro del trabajo en la plataforma y cómo se gestionará la calidad de lo que se visualiza en la app, en un entorno cada vez más complejo.
MIRÁ TAMBIÉN: El espectacular crash test de un auto que se venderá en el país el año que viene
Con esta transición hacia la moderación impulsada por inteligencia artificial, TikTok espera que aproximadamente el 80% de las tareas de revisión de contenido sean manejadas por sistemas automatizados. La plataforma ha anunciado una inversión de 2 mil millones de dólares en medidas globales de confianza y seguridad durante este año fiscal. Esta inversión se destinará a mejorar la tecnología detrás de la IA y a establecer protocolos más robustos para asegurar que el contenido sea revisado adecuadamente.
Sin embargo, el uso exclusivo de IA para esta delicada tarea genera preocupaciones y abre un debate sobre las capacidades de esta tecnología ante situaciones ambiguas que solo una persona puede comprender. Aunque los algoritmos son efectivos para identificar ciertos tipos de contenido dañino, como el discurso de odio o la violencia explícita, pueden carecer del contexto necesario para evaluar adecuadamente otros tipos de publicaciones, lo que podría resultar en decisiones erróneas sobre qué contenido eliminar o permitir.
Este giro hacia la moderación por inteligencia artificial refleja una tendencia más amplia en la industria tecnológica, donde muchas empresas adoptan soluciones automatizadas para mejorar la eficiencia y reducir costos. Sin embargo, una dependencia excesiva de estos sistemas podría llevar a una disminución en la calidad del servicio al cliente y a una falta de empatía hacia los usuarios, ya que los algoritmos pueden no entender completamente las complejidades culturales y emocionales detrás del contenido.
Fuente: TN.