Recientemente me topé con un interesante artículo sobre una no tan nueva herramienta facilitada por la IA que identifica puntos comunes en debates en línea polarizados.

Los algoritmos de las redes sociales, como ya sabemos, están diseñados para dar mayor visibilidad a los posts más controversiales y extremos, pues no fueran negocio si no generaran un engagement masivo. Esta selectividad es la que contribuye a la polarización política y a los discursos de odio.

El concepto “clasificación basada en puentes” se refiere a cualquier método de clasificación de respuestas u opiniones que ayude a crear entendimiento común en la opinión pública. Son herramientas que facilitan diálogos colectivos más transparentes y diáfanos.

¿Cómo lo hacen? Estos algoritmos identifican las ideas que contienen puntos compartidos, o “aprobación diversa”, es decir, aquellas que cuentan con alguna adhesión por parte de personas que en principio no estarían de acuerdo por pertenecer a grupos ideológicos opuestos o por tener ideas contrarias acerca de temas controversiales.

Sí es posible encontrar terreno común, y a menudo amplio, cosa que no suele ser reconocida de manera sencilla en los debates que se suscitan en las redes sociales y foros públicos, o en situaciones de conflicto complejas. La ignorancia pluralista puede que no sea tan cierta (¡preguntémosle a Trump y a Mamdani!).

Del mismo modo, también se consigue dar el contexto suficiente sobre el nivel de apoyo que tienen unas opiniones en relación a otras, y de dónde proviene ese apoyo.

Google Jigsaw, incubadora creada para prevenir la manipulación de la información, ha diseñado clasificadores automatizados de uso gratuito que pueden utilizarse para puntuar textos de acuerdo al grado en que muestran “atributos puente”, como la simpatía y la curiosidad.

Perspective[1] (código abierto), por ejemplo, está pensada para la prensa y medios de comunicación. A través de machine learning, analiza los comentarios basándose en el parecido que tengan con comentarios que las y los usuarios han reportado como spam o tóxicos con el propósito de controlar el acoso en línea, una de las agresiones que más frecuentemente se ejercen contra mujeres y jóvenes.

En un mundo donde la violencia es facilitada y propagada por las redes sociales, esa clase de responsabilidad social corporativa es necesaria. No obstante, la regulación por parte de los Estados amerita ser robustecida y lo que respecta a las responsabilidades legales de las empresas tecnológicas, sin que se limite en exceso la libertad de expresión.

[1] https://www.perspectiveapi.com/

EN ESTA NOTA

Orlidy Inoa Lazala

Abogada

Soy investigadora y consultora para temas de justicia penal y derechos humanos con enfoque de género. Miembra del Comité de AL y el Caribe para la Defensa de los Derechos de las Mujeres (CLADEM), desde donde hago incidencia para la prevención del embarazo infantil forzado. En mi tiempo libre escribo haikus y aprendo algo de japonés.

Ver más