Los retos de la inteligencia artificial

MENLO PARK, California — Mike Schroepfer, el director de tecnología de Facebook, tenía lágrimas en los ojos.

Estábamos sentados en una sala de conferencias en la sede de Facebook, rodeados de pizarrones blancos cubiertos de mensajes escritos con marcadores azules y rojos, hablando de las dificultades técnicas de eliminar el contenido nocivo de la red social. Después mencionamos un episodio que demostró que esos desafíos eran insuperables: los tiroteos en Christchurch, Nueva Zelanda.


En marzo, un atacante asesinó a 51 personas en dos mezquitas y transmitió en vivo la atrocidad en Facebook. A la empresa le tomó aproximadamente una hora eliminar el video de su sitio. Para ese momento, el material sangriento se había difundido en todas las redes sociales.

Schroepfer no dijo nada, pero sus ojos comenzaron a brillar.

“Estamos trabajando en eso ahora mismo”, dijo después de un minuto, mientras trataba de mantener la compostura. “No encontraremos la solución mañana. Pero no quiero volver a tener esta conversación en seis meses. Podemos hacer un trabajo mejor para solucionar este problema”.

La pregunta es si eso es cierto o quizá Facebook se está engañando.

Durante los últimos tres años, la red social ha estado sometida al escrutinio público por la proliferación de contenido falso, engañoso e inapropiado que la gente divulga en sus perfiles. Como respuesta, Mark Zuckerberg, el director ejecutivo de Facebook, ha invocado una tecnología que, según él, ayudará a eliminar las publicaciones problemáticas: la inteligencia artificial.

El año pasado, Zuckerberg testificó ante el congreso estadounidense y dijo que Facebook estaba desarrollando sistemas automáticos para “identificar ciertos tipos de actividades negativas” y aseguró que “en un periodo de cinco a diez años, tendremos herramientas de IA” que puedan detectar y eliminar el discurso de odio. Desde entonces ha repetido alegremente esas afirmaciones en los medios, en conferencias telefónicas con Wall Street y en los eventos de Facebook.

Schroepfer —o Schrep, como se le conoce internamente— es la persona de Facebook que lidera los esfuerzos para construir las herramientas automatizadas con el fin de analizar y eliminar millones de esas publicaciones. Sin embargo, en tres entrevistas recientes reconoció que la tarea es abrumadora.

Eso se debe a que cada vez que Schroepfer y sus más de 150 especialistas en ingeniería crean soluciones que detectan y eliminan material nocivo, aparecen publicaciones nuevas y dudosas que los sistemas de inteligencia artificial jamás habían visto, y, por lo tanto, no pueden eliminarlas. La misión es aún más difícil porque “la actividad negativa” a menudo depende de quien la ve, y los humanos —ni hablar de las máquinas— no pueden ponerse de acuerdo sobre cómo definirla.

En una entrevista, Schroepfer reconoció que la IA por sí misma no podría curar los males de Facebook. “Creo que este es un punto de quiebre”, comentó. Pero no cree “que ‘todo esté resuelto’ ni que todos vayamos a empacar e irnos a casa.

Anuncios