CEOs de Facebook, Twitter y Google Interrogados por el Congreso por Desinformación

Los directores ejecutivos de Facebook, Google y Twitter enfrentaron duras críticas de los miembros del Congreso  por su manejo de la desinformación y el extremismo en línea durante su primera aparición ante los legisladores desde los disturbios del 6 de enero en el Capitolio y el lanzamiento de la vacuna contra el coronavirus.

Los miembros del Comité de Energía y Comercio de la Cámara presionaron al director ejecutivo de Facebook, Mark Zuckerberg, al director ejecutivo de Google, Sundar Pichai, y al director ejecutivo de Twitter, Jack Dorsey, sobre los esfuerzos de sus plataformas para detener las afirmaciones infundadas de fraude electoral y el escepticismo sobre las vacunas. Los algoritmos opacos que priorizan la participación de los usuarios y promueven la desinformación también fueron objeto de escrutinio.

El representante Mike Doyle, presidente del subcomité de Comunicaciones y Tecnología de la Cámara de Representantes, dijo que su personal encontró fácilmente contenido antivacunas en Facebook, la subsidiaria de Facebook en Instagram, Twitter y YouTube.

"Puedes eliminar este contenido. Puedes reducir la visión. Puedes arreglar esto. Pero eliges no hacerlo", dijo Doyle en los comentarios de apertura. "Tienes los medios. Pero una y otra vez estás eligiendo el compromiso y las ganancias por encima de la salud y la seguridad de los usuarios".

Las plataformas tecnológicas, que ya habían enfrentado una intensa presión para combatir la información errónea y la interferencia extranjera antes de las elecciones de 2020, fueron objeto de un mayor escrutinio en los meses siguientes. Incluso cuando algunas de las compañías implementaron nuevos pasos para acabar con las teorías de conspiración electoral, no fue suficiente para evitar que los partidarios de línea dura del ex presidente Donald Trump asaltaran el Capitolio de los EE. UU.

La audiencia también marca la primera vez que los directores ejecutivos regresan al Congreso desde que Trump fue prohibido o suspendido de sus respectivas plataformas luego de los disturbios en el Capitolio. Facebook y Google se negaron a decir si creen que tienen alguna responsabilidad por difundir información errónea que resultó en los disturbios del Capitolio, mientras que Twitter reconoció que sí.

En sus comentarios introductorios, Zuckerberg rechazó la responsabilidad de fomentar los disturbios, culpando directamente a Trump ya un "entorno político y mediático que separa a los estadounidenses".

Zuckerberg dijo que Facebook "hizo nuestra parte para asegurar la integridad de las elecciones. Y luego, el 6 de enero, el presidente Trump pronunció un discurso ... pidiendo a la gente que luche".

Las audiencias coinciden con la legislación que se está considerando activamente tanto en la Cámara como en el Senado para controlar la industria de la tecnología. Algunos proyectos de ley apuntan al dominio económico de las empresas y las supuestas prácticas anticompetitivas. Otros se concentran en el enfoque de las plataformas para la moderación del contenido o la privacidad de los datos. Las diversas propuestas podrían introducir nuevos requisitos estrictos para las plataformas tecnológicas o exponerlas a una mayor responsabilidad legal de formas que pueden remodelar la industria.

Para los ejecutivos en el banquillo de los acusados, la sesión del jueves también puede ser su última oportunidad de presentar un caso personalmente a los legisladores antes de que el Congreso se embarque en cambios potencialmente radicales a la ley federal.

En el corazón de la batalla política que se avecina se encuentra la Sección 230 de la Ley de Comunicaciones de 1934, el escudo de responsabilidad de firma que otorga a los sitios web inmunidad legal para gran parte del contenido publicado por sus usuarios. Los miembros de ambas partes han pedido actualizaciones de la ley, que ha sido interpretada de manera amplia por los tribunales y se le atribuye el desarrollo de la Internet abierta.

 

El testimonio escrito de los directores ejecutivos antes de la audiencia de alto perfil del jueves esboza áreas de posibles puntos en común con los legisladores e insinúa áreas en las que las empresas tienen la intención de trabajar con el Congreso, y áreas en las que es probable que Big Tech retroceda.

Zuckerberg planea argumentar a favor de reducir el alcance de la Sección 230. En sus comentarios escritos, Zuckerberg dice que Facebook favorece una forma de responsabilidad condicional, donde las plataformas en línea podrían ser demandadas por el contenido del usuario si las empresas no cumplen con ciertas mejores prácticas establecidas por un organismo independiente. tercero.

Los otros dos directores ejecutivos no entran en el debate de la Sección 230 ni discuten el papel del gobierno con tanta granularidad. Pero ofrecen sus visiones generales para la moderación del contenido. El testimonio de Pichai exige políticas de contenido más claras y brindar a los usuarios una forma de apelar las decisiones de contenido. El testimonio de Dorsey reitera sus llamados a una mayor moderación del contenido dirigido por el usuario y la creación de mejores configuraciones y herramientas que permitan a los usuarios personalizar su experiencia en línea.

A estas alturas, los directores ejecutivos han tenido mucha experiencia testificando ante el Congreso. Zuckerberg y Dorsey comparecieron más recientemente ante el Senado en noviembre sobre moderación de contenido. Y antes de eso, Zuckerberg y Pichai testificaron en la Cámara el verano pasado sobre cuestiones antimonopolio.

 

En los días previos a la audiencia del jueves, las empresas han argumentado que actuaron de manera agresiva para combatir la información errónea. Facebook dijo el lunes que eliminó 1.300 millones de cuentas falsas el otoño pasado y que ahora tiene más de 35.000 personas trabajando en la moderación de contenido. Twitter dijo este mes que comenzaría a aplicar etiquetas de advertencia a la información errónea sobre la vacuna contra el coronavirus, y dijo que las repetidas violaciones de sus políticas Covid-19 podrían conducir a prohibiciones permanentes. YouTube dijo este mes que eliminó decenas de miles de videos que contienen información errónea sobre la vacuna Covid, y en enero, luego de los disturbios en el Capitolio, anunció que restringiría los canales que comparten afirmaciones falsas que dudan del resultado de las elecciones de 2020.

Pero es poco probable que esas afirmaciones de progreso apaciguen a los miembros del comité, cuyo memorando citó varios trabajos de investigación que indican que la desinformación y el extremismo siguen siendo rampantes en las plataformas.