Ruta de navegación

Publicaciones

DS. Cortes Generales, Comisiones Mixtas, núm. 72, de 02/06/2021
cve: DSCG-14-CM-72 PDF



DIARIO DE SESIONES DE LAS CORTES GENERALES


COMISIONES MIXTAS


Año 2021 XIV LEGISLATURA Núm. 72

DE SEGURIDAD NACIONAL

PRESIDENCIA DEL EXCMO. SR. D. CARLOS ARAGONÉS MENDIGUCHÍA

Sesión núm. 7

celebrada el miércoles,

2 de junio de 2021

en el Palacio del Senado



ORDEN DEL DÍA


Comparecencias:


- Comparecencia del Catedrático de Periodismo de la Universidad de Navarra e investigador principal del Proyecto Iberifier, D. Ramón Salaverría Aliaga, ante la Comisión Mixta de Seguridad Nacional, para informar en relación con el estudio
del fenómeno de la desinformación de las 'fake news', con efectos disruptivos en la sociedad. (Número de expediente del Senado 715/000432 y número de expediente del Congreso de los Diputados 219/000533).


Autor: COMISIÓN MIXTA DE SEGURIDAD NACIONAL ... (Página2)


- Comparecencia del mánager de políticas públicas para España y Portugal de Facebook, D. Guillermo Serrano Peña, ante la Comisión Mixta de Seguridad Nacional, para informar en relación con el estudio del fenómeno de la desinformación de las
'fake news', con efectos disruptivos en la sociedad. (Número de expediente del Senado 715/000433 y número de expediente del Congreso de los Diputados 219/000534).


Autor: COMISIÓN MIXTA DE SEGURIDAD NACIONAL ... (Página18)



Página 2





Se abre la sesión a las once horas y dieciocho minutos.


El señor PRESIDENTE: Buenos días.


Como habíamos marcado la hora de inicio de esta comisión a las once y cuarto, si no hay inconveniente, empezamos y así cumpliremos con los tiempos previstos.


COMPARECENCIAS:


- COMPARECENCIA DEL CATEDRÁTICO DE PERIODISMO DE LA UNIVERSIDAD DE NAVARRA E INVESTIGADOR PRINCIPAL DEL PROYECTO IBERIFIER, D. RAMÓN SALAVERRÍA ALIAGA, ANTE LA COMISIÓN MIXTA DE SEGURIDAD NACIONAL, PARA INFORMAR EN RELACIÓN CON EL ESTUDIO
DEL FENÓMENO DE LA DESINFORMACIÓN DE LAS 'FAKE NEWS', CON EFECTOS DISRUPTIVOS EN LA SOCIEDAD. (Número de expediente del Senado 715/000432 y número de expediente del Congreso de los Diputados 219/000533).


Autor: COMISIÓN MIXTA DE SEGURIDAD NACIONAL.


El señor PRESIDENTE: Como saben todos ustedes, el primer compareciente de esta sesión, de la segunda sesión de la ponencia, es el profesor Salaverría, cuya actividad académica habrán tenido ocasión de ver.


Tengo que darle las gracias porque lo hemos citado con premura. Viene de la Universidad de Navarra, tiene una larga lista de publicaciones tanto estrictamente académicas como otras más recientes que son informes. Por ejemplo, en febrero
publicó uno sobre la llamada infodemia, a propósito del año pasado; un trabajo de investigación para el Ministerio de Ciencia y Tecnología -si todavía se llama así-.


Me atrevo a decir que no acaba de estar de acuerdo con la denominación de nuestra ponencia inicial, que es la de fake news, porque, si lo entiendo bien, supone que es una imputación a los medios, a una autoridad que no hay. Pero, en fin,
como el responsable de la denominación de la ponencia es el portavoz, señor Legarda, nosotros simplemente nos hacemos solidarios. Si la he comprendido bien, su trayectoria tiene una orientación, dentro de los medios y de la enseñanza, hacia el
periodismo digital, aunque también eso lo rebatirá y dirá que es, cuando menos, una redundancia.


Les ahorro más consideraciones y le cedo la palabra con mucho gusto. Lo hablado es que realice usted una exposición de media hora y después los portavoces tendrán ocasión de intervenir, y contestará como entienda más oportuno. A las doce y
media habremos concluido su comparecencia, aunque esperamos que pueda ser consultado por nosotros en futuros trabajos.


Profesor, adelante.


El señor SALAVERRÍA ALIAGA (catedrático de Periodismo de la Universidad de Navarra e investigador principal del proyecto Iberifier): Muchas gracias, señor presidente.


Agradezco la oportunidad de dirigirme a sus señorías y valoro el interés que han mostrado por recibir referencias del mundo académico para orientar las políticas y las decisiones que correspondan en relación con el tema que nos reúne hoy.


En esta intervención inicial abordaré tres partes principales. Luego, evidentemente, me pondré a su disposición para atender cuantas preguntas tengan a bien realizarme. Esas tres partes -como bien adivinaba el señor presidente- comienzan
por unas precisiones terminológicas; continúan con una síntesis de la posición actual de la Comisión Europea y algunas reflexiones personales que aportaré sobre las políticas recomendadas por la Comisión y que podrían adoptarse en España, y
finalmente dedicaré unos minutos para presentarles el proyecto Iberifier, un observatorio ibérico del ecosistema de los medios digitales y contra la desinformación que tengo el honor de dirigir y que hace pocas semanas ha sido respaldado por la
Comisión Europea.


Comenzaré con las precisiones terminológicas. Discúlpenme sus señorías si adopto un talante o un tono demasiado pedagógico, pero creo que lo primero es acordar una terminología común, de modo que cuando estemos formulando las preguntas y
realizando las respuestas sepamos exactamente cuál es la interpretación de cada uno de los términos que vamos a utilizar.


Esta comparecencia se hace al amparo de la Comisión Mixta de Seguridad Nacional, que ha tomado la iniciativa de informar en relación con el estudio del fenómeno de la desinformación de las fake news con efectos disruptivos en la sociedad.
Ahí tenemos un primer término, un anglicismo, fake news, que es una expresión anglosajona que ha hecho fortuna en los últimos años. No es nueva; de hecho, con el significado



Página 3





que se le da ahora tiene exactamente un siglo. Las primeras referencias registradas de hablar de fake news en medios periodísticos son de los años veinte del siglo pasado. Pero es incuestionable que es un concepto que se ha popularizado en
los últimos tiempos, particularmente a raíz de los cuatro años de presidencia de Donald Trump en Estados Unidos. En noviembre de 2016, cuando todavía Trump era candidato, empleó por primera vez esta expresión en un tuit que dirigió a la cadena CNN
para descalificar ciertas informaciones que habían sido publicadas. Parece que la expresión le gustó, de modo que la usó centenares de veces en el periodo anterior a las elecciones y posteriormente durante sus cuatro años de presidencia.


Lo llamativo del asunto es que grupos políticos de todo el espectro ideológico, líderes sociales, periodistas y profesores universitarios hemos adoptado esa expresión, aunque lo cierto es que parece que desde que el anterior presidente de
los Estados Unidos terminó su mandato, esta expresión ha comenzado a perder cierta presencia, cierta popularidad, ya no es tan común, quizá está demasiado gastada.


Me gustaría hacer tres reflexiones sobre esta expresión. La primera es que me parece un menosprecio a la lengua española porque, al fin y al cabo, fake news tiene una traducción directa, no hay que hacer especiales malabares lingüísticos
para interpretar aquello como noticias falsas, y siempre es recomendable la claridad y el respeto a la lengua. Pero es que, además, sitúa el problema de la desinformación en el marco mental de los medios y de los periodistas. Y este -permítanme,
señorías, que se lo diga- es el primer señuelo, el primer engaño de la expresión. De hecho, fake news es un oxímoron, es una contradicción en los términos: una noticia no puede ser falsa, porque en el momento en que pasa a ser falsa, deja de ser
noticia. Es un señuelo que libera de su responsabilidad a otros actores clave en el verdadero problema, que es el de la desinformación. De hecho, desde el año 2016, cuando comenzó a hacer sus primeros análisis al respecto, la Comisión Europea ha
recomendado desterrar esta expresión, y en sus últimos documentos directamente no aparece. En cambio, utiliza como término desinformación, que también encabeza la denominación de esta ponencia o iniciativa de la Comisión Mixta de Seguridad
Nacional, y yo les animo, desde mi humilde posición, a que la utilicen a partir de ahora y destierren de su vocabulario la expresión fake news.


Nos queda la otra precisión terminológica: la desinformación. En castellano usamos un único térmico para referirnos a esta modalidad de falsedad pública, pero en inglés distinguen tres categorías distintas bajo el paraguas terminológico de
disinformation. En el mundo anglosajón hablan de misinformation -con m de Madrid-, malinformation y finalmente disinformation con d de Dinamarca-. En el primer caso, la misinformation, se refiere a la información involuntariamente errónea. Es
aquella información que es falsa, pero que no deriva de la voluntad expresa del emisor de engañar a los destinatarios. Y esto ocurre con mucha frecuencia en todos los ámbitos, desde el profesional hasta el familiar. Uno puede estar comunicando
algo pensando que es cierto y, en cambio, está errando y está transmitiendo, por tanto, una información errónea sin pretender engañar. Luego estaría la malinformation, que es información cierta, veraz, pero éticamente inconveniente, éticamente
incorrecta. Les pondré un ejemplo: de repente un medio de comunicación puede dar una información en relación con un menor que ha sido objeto de abusos sexuales y, en el marco de esa información, desvelar la identidad del menor. Lo que está
diciendo es cierto, pero es altamente inconveniente porque está desvelando su identidad y causando, por tanto, un potencial perjuicio a la víctima. Esto es lo que en el ámbito anglosajón se entiende como malinformation; no es falsedad, pero
produce perjuicios. Y finalmente, está la disinformation, nuestra desinformación, que es la información deliberadamente falsa.


Por fortuna, como les digo, la lengua española es rica, muy rica, y es capaz de expresar y reflejar esos matices con sus propias palabras y sin necesidad de recurrir a anglicismos u otros términos inexistentes en el diccionario. La
misinformation sería el error; la malinformation sería la indiscreción, improcedencia o inconveniencia, dependiendo un poco de las circunstancias en las que la información veraz ha sido comunicada; y finalmente, la disinformation son las mentiras,
el embuste, el infundio, el bulo; hay cantidad de palabras en el diccionario que sirven para designar este concepto.


Esta comparecencia que tengo el honor de realizar tiene lugar en la Comisión Mixta de Seguridad Nacional y, por tanto, orienta sus análisis a los aspectos disruptivos en la sociedad, como encabeza su título. Sin embargo, me gustaría
mencionar, porque lo retomaré al final de mi intervención, que el concepto de desinformación es un fenómeno poliédrico, que, por supuesto, incide en aspectos que se relacionan con la seguridad nacional y la seguridad europea en general, pero que
incluye también otras facetas, particularmente la educación. Y como entiendo que esta no es una comisión que trate sobre esto, sí que,



Página 4





al menos, deseo levantar la alerta de que los aspectos que tienen que ver con la desinformación tienen una relación muy próxima con el mundo de la educación.


Les agradezco la paciencia al recibir esta ligera explicación, pero me parecía pertinente, insisto, para aclarar la terminología.


En segundo lugar, pretendo hacer una síntesis de la posición europea, de la Comisión Europea en relación con el problema de la desinformación. Es una preocupación creciente que no hace mucho que ha surgido. A partir del año 2016
básicamente es cuando la Comisión ha comenzado a preocuparse seriamente por este problema y lo ha situado en el territorio de lo que denominan las amenazas híbridas, que son aquellas acciones coordinadas y sincronizadas por parte de distintos
actores que se orientan a atacar deliberadamente las vulnerabilidades sistémicas de los Estados democráticos y sus instituciones.


Hay diversos ejemplos en los últimos años, en la última década, que reflejan que esto no es una posibilidad, es algo que está ocurriendo. Hay larga literatura sobre esto; mencionaré cuatro o cinco casos muy brevemente. Por ejemplo, a
finales del año 2013 y comienzos del 2014, recordarán ustedes la revuelta de la plaza del Euromaidán, en Kiev, Ucrania, y la guerra del Donbass entre Ucrania y Rusia, que es un litigio en torno a un territorio que fue ocupado por las tropas rusas.
En el marco de ese conflicto, que llegó a ser bélico, se produjo un acto especialmente trágico: el derribo del vuelo MH17 que, con 283 pasajeros y 15 miembros de la tripulación a bordo, fue derribado por un misil tierra-aire sobre Ucrania el 17 de
julio de 2014. Era un vuelo regular que había partido desde Ámsterdam y que tenía como destino Kuala Lumpur, en Malasia, y que al sobrevolar el territorio ucraniano en la zona donde estaba teniendo lugar el conflicto, fue derribado por un misil.
Todas las personas que estaban en el avión murieron. Aquel acontecimiento supuso un detonante para un cruce de desinformaciones porque nadie quería hacerse responsable de aquella tragedia. Y se ha estudiado -hay ejemplos y literatura al respecto
que yo podría compartir con ustedes- cómo se orquestaron estas iniciativas o campañas desinformativas orientadas a liberarse de la responsabilidad de semejante masacre.


Sin llegar a ese grado de tragedia, hay otros casos más recientes, particularmente en el ámbito político, por ejemplo, los que se refieren a la carrera electoral de Donald Trump -a la que me referí antes-. Comenzó ya en el año 2014, antes
de que fuera declarado oficialmente como candidato, cuando empezó a dar sus primeros pasos, y va hasta noviembre del año pasado, 2020, cuando perdió las elecciones ante el candidato demócrata. En enero de este año, el Washington Post publicó una
información donde hizo una enumeración de las falsedades, tergiversaciones y exageraciones que había expresado primero como candidato y después como presidente de Estados Unidos. Contabilizó 30 000.


En 2016 tenemos el ejemplo del brexit en el Reino Unido, donde también se pudo comprobar que la difusión pública más o menos quirúrgica de ciertos mensajes tuvo cierta incidencia en la opinión pública británica y pudo tener consecuencias en
el resultado de aquel referéndum. En 2017, en las elecciones presidenciales de Francia, también se observaron algunos movimientos por la creación artificial de bots, particularmente en Twitter, que se orientaron a trasladar determinados mensajes
que podían condicionar el voto en un determinado sentido. En el año 2018 tuvimos las elecciones generales de Brasil, con la elección del hoy presidente, Jair Bolsonaro. Y a lo largo del año 2020 todos hemos sido testigos de que la pandemia de
COVID-19 ha sido un contexto especialmente fértil para la creación de mensajes desinformativos de todo tipo, del ámbito sanitario, pero también vinculados a aspectos políticos relacionados con COVID-19.


Desde mi posición de investigador y de humilde profesor, evidentemente yo no puedo saber quién está detrás de estas cosas, esto corresponde a los departamentos de inteligencia, a los ministerios y a los especialistas que están trabajando en
estas disciplinas. Por tanto, lo que yo pueda decir aquí no tiene un fundamento, no está a mi alcance. Sí puedo decir que se han hecho públicas sospechas de injerencias extranjeras. Digo que se han hecho públicas y sé que hay polémica y un cierto
debate sobre si efectivamente ocurrieron o no, y me parece que esto todavía necesita una investigación mayor. En cualquier caso, sospechas y denuncias de injerencias internacionales incuestionablemente ha habido en un contexto de auge de los
populismos y de creciente polarización ideológica.


En ese contexto, desde el año 2016, la Comisión Europea ha tomado cartas en el asunto. En 2017 creó un grupo de expertos que elaboró un primer informe de recomendaciones que se publicó a principios de año 2018 sobre cómo encarar la
desinformación. Reunió a distintas personas involucradas en este ámbito: periodistas, responsables de plataformas digitales, juristas; en definitiva, distintos tipos de perfiles para hacer una reflexión, yo creo que similar a la que está
realizando esta comisión, y definir cómo encarar el problema de la desinformación. Fruto de ese trabajo, se publicó un primer informe a principios



Página 5





de 2018, y ya a finales de 2018, en octubre, la Comisión publicó el código de prácticas de desinformación -de buenas prácticas, podríamos decir en correcto castellano-, código en el que se animaba a las plataformas a adherirse; era
básicamente una serie de recomendaciones orientadas a garantizar que los contenidos desinformativos no circularan públicamente.


Hoy es miércoles 2 de junio. El 26 de mayo pasado, es decir, el miércoles de la semana pasada, la Comisión publicó unas directrices para un código reforzado de prácticas sobre desinformación. Sobre ese código que elaboró en el año 2018, ha
hecho una reflexión sobre cuáles eran las fortalezas, pero también las debilidades detectadas en su desarrollo y ejecución a lo largo de los tres últimos años, y ha detectado que efectivamente hay margen de mejora. Por tanto, ha propuesto un
documento, que es lo último que ha emitido la Comisión al respecto -ya digo que la semana pasada-, una propuesta de código reforzado de prácticas contra la desinformación. Es on disinformation, pero la interpretación sería contra la desinformación,
y anima a plataformas digitales, grandes anunciantes y diversos públicos objetivos a adherirse. Me guiaré por esos documentos para resumir las líneas maestras de lo que propone la Comisión con mis propias reflexiones al respecto.


En primer lugar, la Comisión es categórica cuando indica que la lucha contra la desinformación jamás puede ir en desdoro o detrimento de la libertad de información. La libertad de información y otras libertades fundamentales conexas son
esenciales y, por tanto, no se pueden coartar por unas circunstancias concretas como las que plantea este problema. De hecho, la Comisión indica que no es un asunto de noticias, que no es un asunto vinculado al periodismo o a la libertad de
información, no es derecho que corresponda únicamente a los periodistas, sino a todos los ciudadanos, y lo deja claro, no es un asunto de: vamos a regular la actividad de los medios para evitar que desinformen. No es ese el marco, en absoluto; al
revés, lo que busca la Comisión Europea con esta serie de recomendaciones, es estimular el pluralismo informativo y fortalecer las organizaciones periodísticas que realizan un trabajo conforme a estándares profesionales. La Comisión sitúa la
responsabilidad de contrarrestar la desinformación principalmente en las grandes plataformas digitales. Entiéndanme bien: la responsabilidad de contrarrestar; no denuncia a las plataformas digitales por crear la desinformación, sino por no hacer
todo lo que está en sus manos para atajar debidamente la desinformación que circula a través de sus canales. Las plataformas digitales -dice la Comisión- deben tener mayor transparencia, deben rendir cuentas y deben ser más responsables en su
actividad. Y este es uno de los aspectos que ya se reclamaba en el año 2018 y que tres años después la Comisión estima necesario reforzar.


Según la interpretación de la Comisión Europea, las grandes plataformas no producen los contenidos desinformativos. El origen está en otros lugares y ya les he dicho que yo, como simple profesor, no puedo indicarles quiénes son los autores,
eso corresponde a otros. Pero sí es cierto -nos recuerda la Comisión- que esas plataformas se benefician de un ecosistema en el que importa poco si la información es cierta o falsa, siempre y cuando se comparta. Y lo que ocurre con la
desinformación es que, por sus características emocionales e ideológicas tienden a compartirse mucho más que los contenidos estrictamente informativos. Este es un círculo absolutamente vicioso, porque si lo que les supone mayor actividad, e incluso
podríamos decir adicción por parte de la ciudadanía en el uso de las redes sociales son esos contenidos desinformativos, uno puede llegar a entender, desde un punto de vista pragmático, la poca gana que pueden tener las grandes plataformas de poner
coto a este tipo de actividades.


De hecho -y esto es una novedad- en esta propuesta de código reforzado, indica la Comisión que ese tipo de regulación debe ser aplicada no únicamente a las grandes plataformas digitales, de las que no quiero dar nombres hoy porque no me
parece que corresponda, sino también a los sistemas de mensajería privada. Hay redes sociales que son de carácter público, pero luego hay otro tipo de sistemas de mensajería de carácter privado en los que particularmente el contexto de la COVID-19
ha demostrado que es el entorno donde de manera mayoritaria circula la desinformación.


La Comisión identifica dos ámbitos principales de desinformación: la desinformación por motivos económicos y la desinformación por motivos políticos y/o ideológicos. En el caso de los motivos económicos está la estafa; hay contenidos que
circulan en las redes que son falsos y que lo que pretenden es captar dinero de los incautos, estafar. Pero luego está la desinformación por motivos políticos o ideológicos, y aquí menciona la Comisión particularmente la publicidad política, lo que
llama política de advertising y los issue based advertising, que tiene una difícil traducción, issue based, asuntos, podríamos decir muy sensibles desde el punto de vista social, asuntos de alto impacto social. Si les pongo un ejemplo,
probablemente lo entiendan mejor. Son aquellos mensajes, por ejemplo, en relación con el cambio climático, con asuntos medioambientales, con la criminalización de la inmigración, con la COVID-19,



Página 6





donde se están pagando campañas en las redes sociales y en estas plataformas digitales para hacer visibles este tipo de mensajes. Esto es lo que se llama issue based advertising, que no es información, es advertising, es anuncio, es algo
pagado, es algo que está deliberadamente promovido y que en ocasiones genera disrupciones, por utilizar el término que ustedes mencionan en su comisión.


Por terminar esta segunda parte, que es la más importante de las síntesis de la posición de la Comisión Europea, yo diría que del análisis de sus documentos se extraen cuatro líneas maestras de acción, cuatro líneas fundamentales: La
primera es desmontar el negocio de la desinformación. Ese es el primer objetivo de la Comisión, desmontar el negocio de la desinformación. Hay un negocio detrás de la desinformación, hay organizaciones y personas que se están lucrando con la
actividad deliberada de diseminar contenidos que no son ciertos y que en algunos casos se está verificando que tienen consecuencias negativas en la ciudadanía. En este sentido, la Comisión anima a evitar que los anunciantes coloquen sus anuncios al
lado de contenidos desinformativos. En estos momentos, ese tipo de contenidos ya les he dicho que tiene un alto grado, una alta capacidad adictiva, de modo que, como genera mucho tráfico, hay quien piensa que vale la pena asociar ciertas marcas,
ciertos mensajes a ese tipo de contenidos falsos.


La segunda línea maestra sería exigir transparencia e integridad a las grandes plataformas digitales, que rindan cuentas, que informen, que den los datos, que abran las puertas a la investigación. A raíz del primer código de buenas
prácticas hubo ya una invitación a las grandes plataformas a hacer público el volumen de acciones que estaban adoptando para eliminar cuentas falsas, para detectar bots y, en fin, para este tipo de actividades. Los informes que salieron fueron
realmente apabullantes, uno no podía dar crédito del volumen, por ejemplo, de perfiles falsos que estaban circulando en las redes sociales. Ya les digo que hoy no he venido aquí para dar datos concretos, pero ahí están los informes y hay múltiples
casos, y anticipan también nuevas amenazas que están llegando: la intromisión ilegítima en los datos personales, la suplantación de identidad, la creación de grupos falsos adulterados, los deepfakes, que son estas creaciones artificiales de
mensajes, habitualmente de tipo multimedia, mediante tecnologías de inteligencia artificial, donde uno cree estar escuchando la voz de un presidente de un país o la imagen de un actor, cuando realmente es una máquina la que ha hecho aquel artificio.
Como digo, exige transparencia e integridad a las plataformas digitales, y les dice, en concreto, que dentro de esa estrategia general abran sus puertas a los investigadores independientes para que tengan acceso a sus bases de datos y puedan
analizar toda aquella información que actualmente es una caja negra. En general, de las grandes plataformas digitales nosotros, como usuarios, recibimos el contenido, pero no sabemos cómo funciona la jerarquía de los contenidos, cuáles son los
algoritmos que rigen la presentación u ocultación de ciertos contenidos; es una caja negra.


Tercera línea maestra: promover organizaciones que contrarresten activamente la desinformación. Es aquí donde se pone el acento en reforzar el papel de los medios periodísticos europeos; medios que, a nadie se le escapa, en los últimos
veinticinco años, a raíz de la transformación tecnológica que han experimentado la profesión periodística y la industria de la comunicación, no pasan por sus mejores momentos. Frente a eso, las grandes plataformas digitales son las que han
conseguido atraer el negocio de la publicidad y la gran cantidad de seguidores, y el periodismo clásico está pasando por horas bajas. Promueve la Comisión medidas orientadas a reforzar ese tipo de periodismo de calidad. Una de esas medidas es, por
ejemplo, directamente la promoción; pide a las plataformas digitales que den visibilidad especial a los contenidos procedentes de ese tipo de medios elaborados con estándares profesionales. También promueve la creación de plataformas e iniciativas
de verificación informativa, lo que en el mundo anglosajón se llama el fact checking. En junio del año pasado creó el European Digital Media Observatory, el Observatorio Europeo de Medios Digitales, que acaba de crear una red de observatorios
regionales, donde se sitúa el observatorio que yo lidero. Y también invita a crear un sistema europeo de alerta rápida ante amenazas desinformativas, valiéndose de sistemas de alta tecnología, sistemas algorítmicos capaces de identificar en el
momento germinal, y no cuando el contenido falso sea diseminado de manera indiscriminada, esos contenidos potencialmente falsos. Insisto en que todo esto es sin desdoro de la libertad de información; una cosa es la libertad de información y otra
es la desinformación.


Finalmente, estaría promover activamente la alfabetización mediática; fortalecer a la sociedad, en definitiva, y educar a la ciudadanía en el manejo responsable de la información.


Dedicaré un par de minutos finales simplemente a explicarles las características del proyecto que dirijo, Iberifier. Es un hub ibérico para investigar los medios digitales y la desinformación, que ha obtenido una financiación de un millón y
medio de euros por la Comisión Europea para colaborar precisamente con el Observatorio Europeo de Medios Digitales. Formará parte de una red europea de hubs u observatorios



Página 7





de desinformación en distintos países, y el nuestro es un observatorio ibérico que, por tanto, comprende a España y Portugal. Está compuesto por 23 instituciones de los dos países, 12 universidades, 5 organizaciones de verificación y
agencias de noticias y 6 instituciones multidisciplinares de investigación y totaliza un total de 74 personas: 63 investigadores y 11 periodistas. Tiene previsto comenzar en septiembre de este año, y su actividad, financiada por la Comisión, será
de dos años, y a partir de ahí una de las condiciones es tener vocación de permanencia, cosa que pretendemos hacer buscando fórmulas para su sostenimiento económico. ¿Qué es lo que vamos a hacer, lo que hemos prometido hacer y el motivo por el cual
la Comisión ha depositado su confianza en nosotros? En primer lugar, investigar el ecosistema de los medios digitales en España y Portugal; desarrollar tecnologías computacionales para la detección temprana de la desinformación; verificar y
desmentir desinformación en el territorio ibérico, reportándolo al observatorio europeo, que va a generar una especie de repositorio de verificaciones procedentes de los ocho observatorios regionales; elaborar una serie de informes estratégicos
sobre amenazas concretas en el ámbito de la política, de la ciencia, de la política internacional y de distintas áreas, y finalmente impulsar iniciativas de alfabetización mediática, básicamente mediante el desarrollo de un prototipo educativo que
pretendemos testar inicialmente en la Comunidad Foral de Navarra, y para esta iniciativa contamos con el apoyo del Gobierno de Navarra; desarrollar un prototipo educativo orientado a estudiantes de secundaria que, más allá de la alfabetización
digital, que ha sido el eje de la formación en los últimos veinticinco años, se oriente a la utilización responsable de esos recursos digitales.


Este es básicamente el conjunto de reflexiones que quería compartir con ustedes. Lamento si me he excedido un poco más del tiempo. Quedo a su disposición para atender las consultas o dudas que puedan tener.


Muchas gracias.


El señor PRESIDENTE: Gracias.


Tiene la palabra el portavoz del Grupo Parlamentario Mixto, señor Legarda.


El señor LEGARDA URIARTE: Muchas gracias, presidente.


Muchas gracias también al compareciente por su amplia e interesante exposición.


De las comparecencias que llevamos, parece que el ecosistema en el que germina esta desinformación es una combinación entre tecnología y emocionalidad. Nos comentaba el segundo compareciente de la semana pasada que somos seres básicamente
emocionales, que tomamos las decisiones emocionalmente y que luego, a posteriori, las justificarnos racionalmente, lo cual creo que es bastante cierto. Yo iba a hacer una reflexión previa sobre la noticia falsa anudada a otro concepto que ha tenido
formalización a través de la expresión posverdad, la relación entre la noticia falsa y la posverdad, que creo que es la gestión sobre todo de esa emocionalidad subyacente, y que nos haga esa disección, que son caras de un mismo poliedro.


La segunda cuestión que le quería plantear es sobre los algoritmos, las cajas negras. Hay un debate en este momento sobre si los algoritmos, sobre todo cuando generan injerencias, deben ser conocidos o no, es decir, si la sociedad, la
ciudadanía, tenemos derecho a conocer los algoritmos; es el debate del algoritmo abierto o no. ¿Usted considera que los algoritmos se insertan, como defienden algunos, en la propiedad intelectual y, por tanto, su fórmula, como la de Coca-Cola, no
debe ser conocida, o cree que debe haber algoritmos abiertos? Principalmente este debate es que cuando la Administración utilice algoritmos si siempre deben ser algoritmos abiertos. Lo debatimos el otro día en el Pleno a través de una iniciativa
legislativa, si el algoritmo debía ser abierto o cerrado. Finalmente se quedó en que fuera cerrado en la Administración.


Uno de los elementos es la tecnología, ese es el humus en el que la desinformación coge vuelo y trascendencia; si no, tiene un vuelo más bajo. Uno de los grandes medios son las mensajerías privadas, el wasap -entiendo que se refería a eso-
donde hay un gran tráfico de desinformación, que a su vez se rebota porque la persona que te lo manda genera confianza. Si te lo manda un conocido ya le das un cierto viso de verosimilitud y lo rebotas. Creo que había algún estudio de Twitter en
Estados Unidos donde se mostraba que esa emocionalidad de las personas es un vector de transmisión incontrolable, sobre todo por la confianza que te genera quien te lo manda. ¿Cómo se puede combatir esto, más allá de la educación, en estas
mensajerías privadas?


La última cuestión son las buenas prácticas. Se acerca bastante a la autorregulación sistémica. ¿Tienen estímulos las buenas prácticas? Porque o vamos a afrontarlas conceptualmente, normativamente, lo que siempre lleva aparejada la
sanción, o el modelo son las buenas prácticas, que son una manera de



Página 8





autorregulación un poco más dirigidas, pero no con sanción. ¿Tienen estímulos las grandes plataformas para estas buenas prácticas si no hay regulación?


Voy a hacer una pregunta más, que es imposible, sobre las grietas sistémicas de las sociedades, que se trabaja sobre todo en la desinformación disruptiva. ¿Cuáles son esencialmente en nuestra sociedad occidental esas grietas disruptivas,
bien porque generan polarizaciones en la sociedad o desconfianza institucional?


Muchas gracias.


El señor SALAVERRÍA ALIAGA (catedrático de Periodismo de la Universidad de Navarra e investigador principal del proyecto Iberifier): Voy a comenzar por responderle sobre lo que no sé, que es lo último que ha preguntado y no es un área de mi
especialización. Hay, efectivamente, estudios que están analizando cuáles son las áreas en las que la desinformación está incidiendo más. Pero no es mi especialidad y, por lo tanto, lamento no poder aportarle datos. En cambio, sobre las otras
cuatro cuestiones que ha planteado creo que sí le puedo hacer alguna reflexión.


Respecto al concepto de posverdad y su relación con el concepto de desinformación, efectivamente podía haber sido uno de los términos que yo incorporara en la reflexión inicial. Posverdad fue elegido -ustedes lo recordarán- como la palabra
del año por el Diccionario Oxford en 2016. En ese relato que les he hecho antes sobre avatares políticos no es casual que ocurriera en el año del brexit y en el de las elecciones en Estados Unidos, al final de año, en diciembre. Efectivamente, es
una mezcolanza un poco preocupante entre la verdad y lo que uno desearía creer, y me parece que es ahí donde estamos, en una fase donde nos interesa únicamente aquello que concuerda con nuestros propios prejuicios, aquello que encaja con nuestra
propia mirada al mundo y aquello que refuerza nuestra presencia con nuestros pares y nos opone a nuestros adversarios. Esas son posverdades. De hecho, al final, si la evidencia empírica va hacia un lado o hacia otro es un poco lo de menos siempre
y cuando me dé la razón, con lo cual ese es el territorio de la posverdad, es una verdad un poco prostituida, podríamos decir.


En cuanto a los algoritmos, usted preguntaba sobre la pertinencia de hacer algoritmos cerrados o abiertos. Yo establecería un paralelismo con los medios de comunicación. Los medios de comunicación tienen principios editoriales y en las
sociedades democráticas es enormemente saludable que haya cuantos más medios y más diversos, mejor, porque eso significará que la pluralidad informativa será mayor: públicos, privados, lo que haga falta. Es bueno que esos medios, dentro de su
actividad profesional, declaren cuáles son sus principios editoriales, que se sepa cuál es su pensamiento, su mirada al mundo, su interpretación. Eso es perfectamente lícito, y diría que conveniente, y esto es lo que no ocurre con los algoritmos.
Hay una línea de investigación bastante interesante en estos momentos en centros de investigación muy avanzados, especialmente en inteligencia artificial, sobre ética de los algoritmos, y hay demostraciones empíricas de que los algoritmos están
guiados por sesgos y que presentan información sesgada sin que sea posible advertir ese sesgo; solo haciendo determinado tipo de operaciones comparativas que exigen una cierta sofisticación es posible identificar efectivamente esos sesgos, y cuando
uno los ve se queda impresionado. Cosas tan sencillas como poner en un buscador la palabra niño y que todos los niños sean blancos. ¿Por qué van a ser blancos todos los niños? Se supone que tendrá que haber niños de cualquier lugar del mundo, de
cualquier etnia y de cualquier circunstancia, todos son niños, y este es un sesgo imperceptible pero que está presente en el ámbito de las redes digitales.


También preguntaba sobre la mensajería privada, sobre cómo combatir la difusión de la desinformación en la mensajería privada. Las directrices que ha publicado la semana pasada la Comisión Europea se orientan precisamente en eso, se han
dado cuenta de que ese es un territorio, especialmente tras el fenómeno de la COVID en el último año, que ha sido un vector esencial de la desinformación. Una de las cosas que recomienda, por ejemplo, es que las plataformas se comprometan a
etiquetar los contenidos falsos, o por lo menos dudosos, y esto ya ocurre públicamente en determinado tipo de contenidos con ciertas declaraciones, pero, claro, cuando eso se reenvía en grupos de wasap ese tipo de etiquetado se pierde. Una de las
cosas que quiere la Comisión es mantener ese etiquetado, que no sea posible por parte de los usuarios individuales reiterar ese elemento y que sea al margen de la voluntad de cada uno de los usuarios. Luego, evidentemente, los usuarios serán libres
de compartir lo que quieran, por supuesto, pero lo que no podrán es compartir como cierto algo que ha sido identificado como sospechoso, como dudoso o directamente como desinformación.



Página 9





Finalmente, usted preguntaba sobre las buenas prácticas y planteaba si deberíamos tender hacia la autorregulación. En este caso, yo creo que la autorregulación orientada a quebrar o desmontar el negocio de la desinformación es bastante
fácil de hacer, en el sentido de que si hay etiquetados que permitan identificar contenidos falsos e indicar a los anunciantes, a las grandes plataformas anunciantes que si asocian su marca a eso están favoreciendo la desinformación y va a quedar
así, eso es un desincentivo; no es una penalización, es un desincentivo. En general, la gente que, como yo, viene del ámbito del periodismo, está más inclinada a la autorregulación, que no al control externo, y este es uno de los casos.
Probablemente habrá que hacer un cierto prueba y error para ver si efectivamente las plataformas digitales y los grandes anunciantes finalmente entran un poco en ese carril, pero de momento, no han estado especialmente inclinados a eso.


El señor PRESIDENTE: Tiene la palabra el portavoz del Grupo Ciudadanos.


El señor GUTIÉRREZ VIVAS: Gracias presidente.


Señor Salaverría, muchísimas gracias por su comparecencia. La verdad es que ha sido muy interesante escuchar la voz desde la parte de la docencia y, desde luego, en un ámbito tan concreto como es el periodismo, que aquí tiene muchísima
importancia.


Mencionaba usted que no consideraba correcto situar la desinformación en el marco de los medios y los periodistas. Lo entiendo, puesto que al final no es el que produce la información, salvo en el caso en el que se dé opinión, y cuando se
da opinión, esta puede ser, no digo ya interesada, sino manifiestamente una mentira. Por eso, creo que es muy complejo este tema, y yo disiento de usted. Creo que, efectivamente, no se debe focalizar solo ahí, pero el periodismo y el periodista
tienen una labor muy importante. Le quiero poner algún ejemplo para que entienda esto: cuando a veces no se entrecomillan determinadas cosas, y se dice: Fulanito ha dicho..., pero no se entrecomilla lo que ha dicho, sino que el periodista da una
interpretación sobre lo que se ha dicho. Esto a veces lleva a resultados un poco ridículos. Creo que ahí hay un tema de autorregulación también de los propios medios. Es una opinión que no quiero que parezca que va en contra del periodista, pero
me da la sensación de que antes esa historia de que la información se verificaba por varios medios, que era una especie de código de buenas conductas que tenía el periodismo, se ha perdido y ahora se va muy rápido, la noticia tiene que salir de
forma rápida, se trata de que se cliquee en ella, se le dan clics, y eso es lo que importa, porque si no, no se entiende. Otra cosa es cuando un político, por ejemplo, dice algo que es manifiestamente mentira y él lo sabe y lo recogen los medios,
pero tampoco hacen ninguna advertencia sobre que eso que está diciendo sea mentira, claro, cada uno es dueño de lo que dice. Le pongo un ejemplo, cuando el señor Iceta, por comentar algo que es de ahora, dice que a Tejero se le indultó igual que se
va a indultar ahora o que se puede indultar ahora a los políticos presos catalanes, está diciendo algo que es manifiestamente incorrecto y una mentira. Usted me dirá que este es un caso de misinformation; yo creo que no, yo creo que se intenta
manipular a la sociedad y al pueblo español diciendo una cosa que es manifiestamente mentira. Cuando eso lo recoge un medio, ¿cómo lo conjugamos? ¿Es desinformación, no es desinformación? ¿Entra dentro de la estrategia política? ¿Se puede o no
se puede? Yo creo que se ha mentido toda la vida, tampoco parece que sea algo que tengamos ahora. En todo caso, me preocupa que se desvincule a los periodistas y a los medios de esto, por eso se lo planteo.


En segundo lugar, usted dice que la lucha contra la desinformación no puede ir contra la libertad de información, y es correcto. Pero ahí entramos en una raya, la censura, que no ha mencionado nadie y a mí me gustaría que nos comentara un
poco dónde está el límite, dónde ve usted el límite que se puede hacer entre controlar eso y estar censurando directamente, porque creo que forma parte también de esta problemática y de la que se habla poco.


También nos habla usted de promover organizaciones que contrarresten la desinformación y ha mencionado el proyecto que va a presidir usted con estos fondos de la Comisión, que me parece acertadísimo. ¿Pero esto debe ser público o debe ser
privado? ¿Deben ser las dos cosas o solo una de ellas? Me gustaría saber cuál es su opinión sobre esto. Porque cuando esto se hace de forma pública y un ministerio o el Gobierno decide que va a crear una agencia gubernamental, por ejemplo, para
controlar esto, entramos en otro debate: ¿quién verifica al verificador? Esta espiral, evidentemente, es ad infinitum, y también me gustaría saber qué opina usted sobre esto.


Y finalizo. La autorregulación -como ha mencionado también el señor Legarda- me parece fundamental, y me gustaría saber qué opina, porque no he oído hablar mucho de esto, sobre la conveniencia de que existiese, igual que hay un sello de
calidad, un sello de verosimilitud de la información



Página 10





o de información verificada o algo así, pero que fuera un sello visible, algo que no solo se vea desde un punto de vista digital sino también físico y que uno pueda saber si una noticia tiene ese sello o no tiene ese sello.


Porque para mí el problema de eso es la falta de confianza, sea en las grandes plataformas, sea en medios de comunicación. Si el usuario empieza a percibir desconfianza -evidentemente hay quien quiere estar bien informado y habrá gente que
compre cualquier cosa- creo que un sello de verosimilitud ayudaría bastante por lo menos a que los ciudadanos se aclararan un poco. Luego cada uno, evidentemente, es libre de consumir lo que quiera -y nosotros así lo entendemos-, pero sí queremos
que el ciudadano esté bien informado por lo menos.


Gracias.


El señor SALAVERRÍA ALIAGA (catedrático de Periodismo de la Universidad de Navarra e investigador principal del proyecto Iberifier): Muchas gracias.


Sus preguntas tienen un denominador común, y es cómo garantizamos la solvencia profesional, la credibilidad de las organizaciones encargadas de diseminar la información, dónde ponemos la raya, y no es sencillo. Antes he dicho en mi
intervención inicial que los medios periodísticos, la industria periodística está en un proceso de transformación, casi podríamos decir de reconversión industrial. Y esto, entre otras cosas, ha supuesto un severísimo deterioro profesional en los
equipos de periodistas. A la vista están los datos y los informes de la FAPE; hay un montón de estadísticas en este sentido. Si a eso sumamos, efectivamente, una cierta tendencia a la aceleración informativa que usted mencionaba en su pregunta,
menos profesionalidad y más urgencia a la hora de publicar, se termina produciendo un mayor número de errores. Hay unos estudios en los que mi equipo de investigación participa junto con la Universidad de Oxford, unos estudios anuales que analizan
el consumo de noticias digitales y la percepción de la ciudadanía en 40 países del mundo respecto de la información, y específicamente de lo que se consume a través de Internet. Aquí quedarían aparte otro tipo de medios. Consterna ver lo bajo que
puntúa España en comparación con otros países; son percepciones de la ciudadanía, pero constantemente nos están recordando que no creen a los medios, que no creen a los políticos y hay un enorme descrédito social que está presente también en otros
países, pero que ya le digo, si uno analiza esas estadísticas, en el caso español es muy notable.


Por lo tanto, efectivamente, hay mala praxis, mucha, pero hay mucho margen profesional para la mejora; creo que ahí es donde tenemos que actuar, estimulado para que esas actividades profesionales que prestan un servicio objetivo a las
sociedades democráticas, de control a los poderes y, en fin, de contrapeso, se hagan debidamente. Y en estos momentos, por múltiples circunstancias, eso no está ocurriendo.


Usted preguntaba también si las organizaciones de verificación deberían ser públicas o privadas y esa famosa pregunta de quién verifica al verificador. La cuestión no es colocar a una persona inmaculada al final de la cadena, que sea la que
finalmente tome la decisión de dónde está, sino de establecer una serie de estándares transparentes, y creo que la palabra transparencia aquí es clave. Hay que identificar cuáles son los criterios, cuáles son las fuentes, cuáles son las
informaciones que se están utilizando para etiquetar una información como potencialmente falsa, porque puede ocurrir que las fuentes no sean solventes, y esto en el caso de la COVID ha sido absolutamente masivo. Uno de los estudios, perdonen que lo
mencione, pero me parece que sirve para situar esta cuestión, como digo, uno de los estudios que hemos realizado en el último año analizaba la tipología de los bulos diseminados en relación con la COVID-19 en España, particularmente durante el
primer mes del estado de alarma, en marzo del año pasado. Analizamos 300 bulos, de los cuales, apenas el 4 % se habían inoculado a través de los medios de comunicación convencionales; el 89 % había circulado a través de las redes sociales y,
dentro de estas, de manera prioritaria -hay alguna otra categoría adicional; 89 más 4 no da 100-, como digo, el 89 % era a través de las redes sociales, y dentro de las redes sociales, de manera masiva las que llamamos cerradas o aplicaciones de
mensajería. Me parece que ese es el territorio donde en estos momentos se está produciendo la mayor contaminación desinformativa, donde muchos ciudadanos de manera involuntaria están colaborando sin desearlo, insisto, en la diseminación
indiscriminada de esos contenidos porque apelan al estómago más que al cerebro, y en ocasiones porque piensan que compartiendo determinada información están haciendo un bien; piensan que están alertando sobre un posible peligro próximo. De hecho,
los ciudadanos no quieren hacer daño, los que lo hacen son quienes están inoculando esos contenidos, ese tipo de mensajes perfectamente diseñados.



Página 11





Y en cuanto a su última pregunta, no creo que la palabra sea verosimilitud; lo que hay que conseguir es veracidad, que es distinto. Lo verosímil es precisamente lo falso, lo que parece cierto, pero que en el fondo no lo es. Y sí existe
ese tipo de sellos, existe el sello de la Internacional Fact-Checking Network, que es una organización con sede en Estados Unidos que recibe financiación de Facebook y de la que debo decir que soy asesor; es decir, yo contribuyo como persona que
evalúa plataformas de verificación en español. Ya no lo voy a hacer más en España, sino que lo voy a hacer únicamente para organizaciones de verificación en la América hispanohablante, y no lo voy a hacer más en España por mi situación actual de
investigador principal de este proyecto. Me parece que entro en un conflicto de intereses. Si hay plataformas de verificación en mi organización, yo no puedo valorar su procedimiento profesional, de hecho, esta semana me enviaron una y dije: me
abstengo, porque no me corresponde. Por lo tanto, para las plataformas de verificación existe, y le puedo anunciar que con fondos europeos; a través de una red Erasmus Plus, se está desarrollando también un sello de calidad para informativos de
Televisión, estableciendo una serie de protocolos al estilo de lo que hemos visto en el caso de la desinformación, que se propondrán a las corporaciones, tanto públicas, como a las cadenas privadas de televisión europeas, aquellas que tengan
contenidos informativos, para que sean testadas, para que sean auditadas periódicamente y, si cumplen con esos estándares, poder mostrar ese sello de calidad. Me parece, y coincido con usted, que esta es una forma oportuna de enfrentar la gestión.


El señor PRESIDENTE: El señor Mayoral está interesado en formularle preguntas.


El señor MAYORAL PERALES: La verdad es que, lo primero que quiero hacer es agradecerle la intervención y también el informe, que he podido leer de forma previa a la comparecencia. Me ha parecido muy interesante el informe de entender y
combatir la desinformación sobre ciencia y salud, para leerlo con tranquilidad y poder profundizar en la exposición que ha estado realizando durante esta mañana.


A mí algunas de las cuestiones que planteaba me han llamado la atención. Quizá he echado de menos algunas cosas, porque sí cita la campaña electoral de Trump y también la de Bolsonaro, pero he echado de menos lo que es el entramado, porque
es un entramado internacional impulsado por una serie de actores, con una capacidad financiera muy potente, que, además, están relacionados directamente con algunas de las empresas tecnológicas, fundadores de empresas tecnológicas como PayPal y
otras, que están vinculados a estructuras que han estado realizando labores de desinformación, que están verificadas; iniciativas como Breitbart y otras que dieron además en Estados Unidos un fenómeno, que yo creo que ha sido muy interesante y que
comentaba usted al principio, que es cómo se ha conseguido girar el contenido de las palabras; cómo el señor Trump consiguió que fake news terminara por significar una cosa diferente a lo que significaba antes de que él empezara a emplear ese
término. Y en concreto también echaba de menos citar a una serie de organizaciones como Ad Network que han estado operando y que tienen una relación directa con las campañas de desinformación. En Estados Unidos es cierto que han existido
diferentes espacios, porque no son organizaciones consolidadas, son espacios que han estado trabajando en la desinformación desde lo que es conocida como la derecha alternativa, la derecha ligera, o lo que se vinieron a denominar los deplorables,
que eran aquellos que estuvieron articulando todo lo que fue la línea discursiva que permitió la recuperación de discursos que habían sido abandonados por la sociedad norteamericana, como el racismo, la misoginia o la homofobia como elementos
centrales de ruptura social que permitieran que un proyecto antidemocrático pudiera salir adelante.


Pero yo he echado de menos algo, he echado de menos la necesidad que tienen todos estos espacios de tener una matriz mediática. Creo que eso es un elemento clave. No podemos perder de vista la relación que existe en estas campañas de
desinformación con los procesos de concentración de medios y con la necesidad de que tengan una matriz mediática. ¿Qué hubiera sido de los deplorables sin Fox News? Sin Fox News realmente hubiera sido muy difícil que los deplorables hubieran
tenido esa caja de resonancia o esa capacidad de influencia. Y lo hemos visto también en nuestro país, donde es cierto que son pocos; no son tantos el número de bulos que se han difundido por los grandes medios de comunicación, pero la capacidad
de impacto social es brutal. No es lo mismo un mensaje que te llegue por Facebook o por wasap que un mensaje que llega por Facebook o por wasap y lo dice Ana Rosa a las doce de la mañana. No es igual; aunque lo desmienta después. No importa,
porque ya se sabe que el desmentido es reafirmar lo mismo dos veces.


Por tanto, a mí esta es una cuestión sí que me preocupa y quería relacionarlo con el tema de la concentración de medios. Quería que me diera una opinión sobre ese asunto y, en concreto, también me gustaría conocer qué opinión tiene acerca
del proceso de concentración de las empresas tecnológicas



Página 12





que se dedican a la difusión de contenidos. Y ahí hablamos de lo que ha supuesto el proceso de concentración de medios, por ejemplo, por parte de Facebook, que tiene Facebook, WhatsApp, Instagram, es decir, un proceso de concentración de
medios enorme, que tiene una capacidad de influencia muy grande y donde, además, existe un descontrol, porque la opacidad de sus algoritmos ha tenido un descontrol importante.


Me gustaría que nos comentara también cómo ha influido la respuesta de las propias plantillas de las empresas tecnológicas, en concreto de Facebook, en el cambio de su política de empresa. Es decir, hubo todo un movimiento por parte de las
plantillas de Facebook cuestionando la política corporativa de la empresa y exigiendo que hubiera un compromiso con la transparencia, con la veracidad de las noticias, y por supuesto, que no fueran aceptables como tribunas para la difusión del
racismo y de conceptos que atacaban los elementos esenciales de una convivencia democrática o de los derechos humanos. Quisiera, por tanto, que nos diera algunas notas sobre esto y sobre su impacto.


Se ha comentado antes, pero me parece interesante poder hacer una reflexión al respecto, es decir, el desprestigio de los medios quizá tiene también mucho que ver, aparte de porque son evidentes los intereses que esconden los propios medios
de comunicación y no se le escapan a la propia sociedad, con las nuevas técnicas de comunicación que obvian el contraste de la información. Hoy se publica un porcentaje altísimo de información en los medios de comunicación sin contrastar. Es
decir, cuando yo recibo un mensaje de alguien, puedo darle cierta veracidad o no en función de la barbaridad que me cuente, pero si es publicado por un medio de comunicación con una cabecera reconocida, que, además, tiene publicidad de grandes
empresas de este país, la veracidad es mayor. Y si no se contrastan las informaciones.... Hay que hacer una reflexión también en torno a cuáles son los mecanismos de funcionamiento de los medios de comunicación y la necesidad de contrastar las
informaciones, porque quizás eso es lo que abre la puerta a que pueda entrar el resto. Si en aquellos medios que se tienen que convertir en referencia de veracidad se contrasta que no son veraces, sino que responden a intereses espurios, es mucho
más fácil que las campañas de desinformación puedan operar con eficiencia.


Y ya por último me gustaría que nos diera su opinión sobre la influencia que tiene la desinformación en la concentración de medios y en la concentración de empresas tecnológicas, que creo que son dos cuestiones que no son menores. Quizá no
se trata tanto de controlar los contenidos que se emiten, sino de garantizar la pluralidad informativa y la capacidad de poder acceder a una información libre y veraz.


Gracias.


El señor PRESIDENTE: Señorías, quiero informar a la comisión de que estamos en hora, lo cual no significa que no podamos retrasarnos. Pero el compromiso con el siguiente compareciente era de acabar en torno a las dos.


El señor SALAVERRÍA ALIAGA (catedrático de Periodismo de la Universidad de Navarra e investigador principal del proyecto Iberifier): Seré breve en mi respuesta.


Le agradezco las palabras amables que ha tenido hacia el informe que preparé efectivamente hace un par de meses para el Ministerio de Ciencia en relación con la desinformación, específicamente sobre ciencia y salud. En mi intervención no he
hecho referencias expresas a las plataformas digitales, y por lo tanto tampoco lo voy a hacer en el caso de los medios de comunicación, y mucho menos en el caso de periodistas en particular. Hay estudios que han analizado, particularmente en
Estados Unidos, la evolución del comportamiento de la ciudadanía, en concreto, como votantes, en relación a su polarización ideológica, y se ha comprobado que a lo largo de las últimas legislaturas se ha producido un proceso de polarización que
también se verifica en otros países. Ese fenómeno ha coincidido con una multiplicación de los contenidos desinformativos. Es conocida la afirmación de que relación no implica causalidad; podemos encontrar una coincidencia de elementos, pero no
necesariamente una causa, y hay estudios que se sitúan un poco en esto. Por lo tanto, me parece que esta tendencia, que tiene que ver con la dinámica política, tiene su reflejo también en el ámbito del periodismo y también en la generación de
contenidos desinformativos.


Y brevemente, comparto su preocupación sobre la concentración de las empresas tecnológicas. Me parece que la concentración empresarial excesiva limita la capacidad de competencia de diversidad y, en ese sentido, cuanto más plurales sean los
mercados, tanto mejor.


El señor PRESIDENTE: Tiene la palabra, por el Grupo Vox, el señor Sánchez del Real, a quien pediría que, si puede, limite su intervención sobre los tres minutos o no mucho más. Se lo agradeceríamos.



Página 13





El señor SÁNCHEZ DEL REAL: Emplearé aproximadamente el mismo tiempo que han utilizado los otros oradores. Lo he cronometrado y uno se ha ido a siete minutos y medio, otro a ocho y otro a casi diez.


Así que, con su permiso...


El señor PRESIDENTE: ¿Y cuál de las tres posibilidades me adelanta? Lo digo por no acabar a la una.


El señor SÁNCHEZ DEL REAL: La que había comentado con anterioridad la letrada.


El señor PRESIDENTE: No, señoría...


El señor SÁNCHEZ DEL REAL: Nos va a reducir a nosotros el tiempo, ¿no? ¡No pasa nada! Yo se lo hago en tres minutos.


El señor PRESIDENTE: Esa es la petición que le quería hacer.


El señor SÁNCHEZ DEL REAL: Bien, pero quiero que conste que usted reduce a algunos grupos el tiempo, cosa que me sorprende; es una cosa absolutamente alucinante. A ninguno de los otros grupos les ha dicho cuál debía ser la duración de su
intervención.


El señor PRESIDENTE: Pero si es una cuestión de cronología, no de discriminación política. Es simplemente una cuestión de cantidad de tiempo disponible. No es más que eso.


El señor SÁNCHEZ DEL REAL: Sigo expresando mi resistencia a esta decisión, absolutamente arbitraria por parte de este señor presidente.


El señor PRESIDENTE: Pero ¿cuál es la arbitrariedad, señor portavoz?


El señor SÁNCHEZ EL REAL: ¿Disculpe?


El señor PRESIDENTE: Aparte de la victimización, ¿cuál es la arbitrariedad de la decisión?


El señor SÁNCHEZ DEL REAL: ¿Cuánto tiempo ha decidido este señor presidente dedicar a los otros portavoces?


El señor PRESIDENTE: Ninguno.


El señor SÁNCHEZ DEL REAL: Ergo, ¿por qué a este grupo sí se le limita?, ¿o a los siguientes? Porque estoy defendiendo también el derecho de otros grupos que intervendrán después a expresarse con el mismo tiempo.


El señor PRESIDENTE: Le informo: es una mera posición en el protocolo de grupos de uso del tiempo; de manera tal que, en la siguiente comparecencia y con el permiso de la comisión y de los portavoces, lo haré al revés: empezaremos por
los mayores y quizá el Grupo Vox tenga ocasión de saludar la medida del presidente. No es más que eso.


Adelante, tiene la palabra.


El señor SÁNCHEZ DEL REAL: Muchísimas gracias.


Señor Salaverría, ¿ve usted cómo quien controla los tiempos al final controla también la información?


Una reflexión: ¿No le parece a usted que sigue siendo válida aquello que decía...


El señor PRESIDENTE: Señor portavoz, le ruego que no aluda de nuevo al presidente...


El señor SÁNCHEZ DEL REAL: ¿Va a decirme también lo que tengo que decir, señor presidente?


El señor PRESIDENTE: Señor, portavoz, escúcheme...


El señor SÁNCHEZ DEL REAL: ¿Le enseño lo que voy a decir y me dice lo que tengo que decir?


El señor PRESIDENTE: Señor, portavoz, escúcheme. No aluda al presidente, no establezca polémicas...



Página 14





El señor SÁNCHEZ DEL REAL: Perdóneme, señor presidente, pero he hecho una reflexión general sobre el estado de la cuestión, que es la información. Quién controla los tiempos y controla los canales, contra la información, como queda
demostrado. ¿Me va usted a decir lo que puedo decir o no, señor presidente?


El señor PRESIDENTE: Si es por alusiones, sí. Tenga en cuenta que yo modero el debate, bien o mal, pero la atribución es mía. Así que le advierto -y tenga en cuenta que estamos en comisión- que no vuelva a hacer ninguna otra alusión a
esta Presidencia.


El señor SÁNCHEZ DEL REAL: Decían los clásicos que quien controlaba la información controlaba el poder, pero también el tiempo, momento y circunstancia en la que se produce cada información, sea uno emperador o sea uno un porquero.


La cuestión es que hoy podemos estar cazando gamusinos, pero lo más probable es que no estemos mirando los residuos que van dejando los dinosaurios que siguen poblando la tierra, y cuando nos tropezamos con un residuo de dinosaurio
generalmente es mucho más maloliente y mucho más problemático que la caza de los hipotéticos gamusinos. Me refiero, y se ha mencionado antes, a que los españoles se siguen informando mayoritariamente por los medios de comunicación que vamos a
llamar convencionales, por las grandes marcas. No lo digo yo, lo dice la propia Universidad de Navarra. Y, además, cada día se fían menos de las evoluciones que esos mismos medios han tenido en lo digital. Repito, es un informe que publicó la
Universidad Navarra -el Digital News Report 2020-, en el que el top 2 de lo que menos se fían es de la versión de los diarios nativos digitales y de las webs ups de las televisiones y radios, y en tercer lugar estarían las redes sociales y las
versiones digitales del periodismo clásico. Dado que se siguen informando por esas vías, sigue siendo cada día más necesario reforzar -no sé si estará usted de acuerdo- las grandes máximas del periodismo, por lo que es esencial separar opinión de
información, y cada día vemos menos esa separación; cada día las noticias contienen más opinión, no solo del periodista, sino del medio. En segundo lugar, ¿qué le parece la ausencia de contraste, el hecho de que se publiquen informaciones que ni
siquiera han tenido la mínima ratio de contraste? Y estoy hablando del caso nacional en España. Y, por último, la transparencia. El hecho de que muchísimos medios de comunicación no sean transparentes con respecto a quien genera la mayor parte de
sus ingresos o de quién dependen. Cuando tenemos grandes campañas del tipo De esto salimos más fuertes uno tiende a dudar de a qué señores sirve cada cual.


Así que, mientras buscamos esos gamusinos las asociaciones de la prensa, por ejemplo, no hacen crítica; lo ha mencionado usted indirectamente antes. Por ejemplo, si se dice no sé quién, tal persona, tal dirigente político, tal individuo ha
dicho una fake news, pero muy pocas veces, y ni siquiera se marcan con esos etiquetajes ahora recomendados por la Unión Europea, ni siquiera se marcan noticias de grandes medios, que son precisamente los que tienen la mayor influencia por heredar
todavía parte de su audiencia de tiempos mejores o de recibir audiencia directamente por estar inyectados o dopados con dinero público.


Tampoco hay confianza en los árbitros, en los autoproclamados árbitros. Hablamos de los árbitros que se han autonombrado a sí mismos, que, además, son dependientes y muchas veces tienen relación directa y descarada con los propios medios de
comunicación de los que nacen, medios que vienen de duopolios, incluso cercanos al monopolio, y que se han autonombrado a sí mismos con el absoluto descaro de ni siquiera cambiar su objeto social. Son productoras de una propia cadena de televisión
que se dedican a hacer medición o fact checking presuntamente independiente. Y, lo que es peor, se les ha dado naturaleza de oficialidad sencillamente porque acudieron a las cuatro o cinco primeras reuniones del tema. Es decir, el haber llegado
pronto, aunque llegaran con trampa, significa que se les ha dado oficialidad.


Con respecto a lo que usted ha dicho, estoy de acuerdo en que tenemos que ser más cuidadosos con el tema de la mis-, dis- mal- information, probablemente porque la misinformation nace de la baja calidad, de la precariedad económica que
tienen los medios en este momento. Es baratísimo comprarse un periodista, es baratísimo comprarse un medio, como están haciendo algunos poderes internacionales, y la precariedad laboral que viven diariamente los periodistas hace que sea mucho más
frágil su independencia clásica, que es el periodista que se plantea ante una redacción, ante un jefe o ante un propietario y decide hacer información.


Me preocupa, porque estamos en Seguridad Nacional, que no hayamos hablado de los cuatro aspectos fundamentales de los riesgos externos. Primero, de la influencia de otros Gobiernos que sí pueden utilizar lo que llamaban antiguamente
propaganda vehiculada vía esta fórmula de desinformación.



Página 15





Estamos hablando de la influencia rusa durante el golpe de Estado en Cataluña; estamos hablando de China con el whitewashing, parece que después de un año ahora empiezan a salir las noticias que con su desinformación logró que no salieran
durante el año pasado; estamos hablando de Marruecos en las últimas semanas, o estamos hablando de Venezuela con su influencia directa.


Por tanto, por esa preocupación, le pregunto por su punto de vista, porque no hemos hablado de esos grandes poderes internacionales. También hablo del poder de otro Gobierno que nos es más cercano y que, aunque sea elegido democráticamente,
también está utilizando los medios de comunicación y todo el poder de comunicación del Estado para hacer desinformación. No le estoy hablando de las cosas más graves, del hecho de que aquí no pasa nada cuando -y yo soy diputado por Badajoz-
llevamos casi 20 años anunciando que el AVE llega al año que viene. ¿Eso es desinformación o misinformation? Eso, en realidad, es una mentira flagrante, porque se sabe cuando se anuncia; eso es propaganda sistémica y sistemática. ¿Qué opina
usted de cómo controlamos también la propaganda del Gobierno, o de los gobiernos, que con todo el poder de los propios medios públicos más los medios comprados con dinero público, logran lanzar? Y luego está también el poder también de otros
agentes internacionales no identificados, pero que desembolsan grandes cantidades de dinero para lograr modificar la información en los distintos países.


En cuanto al periodismo independiente, yo le preguntaría cómo jugamos a que el periodismo retome esa hipótesis del periodismo independiente. ¿Por qué cuando se habla de desinformación -esto es como el club de la lucha- nunca se habla de la
desinformación que se hace desde los grandes medios o desde los Gobiernos? Le doy un ejemplo: portavoces oficiales de la Comisión Europea o del Parlamento Europeo el día de las elecciones diciendo qué partidos les parece bien que suben y qué
partidos les parecen mal que bajen. ¿Eso es desinformación, es misinformation, o sencillamente es bulo y propaganda? Repito, probablemente estemos intentando cazar gamusinos... (Rumores).


Señor presidente, no dejo de tener aquí un ruido de fondo, pero no pasa nada. También hay mucho ruido de fondo, repito, hablando de gamusinos cuando estamos hablando de los grandes dinosaurios.


Pero, sobre todo, y en cuanto a la censura -y termino ya, señor presidente-, cuidado, que estamos aquí hablando, y yo creo que se ha expresado antes, de tres libertades o de tres aspectos fundamentales, que son la libertad de opinión, la
libertad de información, tanto para recibirla como para emitirla -todos somos sujetos pasivos, pero también podemos ser sujetos activos-, y, sobre todo, el debate y el contraste. Me ha gustado lo que ha dicho de que la parte clave es la de la
educación, pero la educación no es lo que uno tiene que leer o no leer, sino ser crítico, entender y detectar cuando a uno le manipulan, sea su Gobierno, un Gobierno externo o un poder internacional. Por tanto, la libertad y la crítica, y yo creo
que es muy importante, y me preocupa, la parte europea que usted ha descrito donde se nos trate a los ciudadanos europeos y del mundo como adultos y no como niños, y muchos menos como esclavos.


Muchísimas gracias.


El señor PRESIDENTE: Muchas gracias.


Tiene la palabra la diputada Marcos, del Grupo Popular.


La señora MARCOS DOMÍNGUEZ: Muchas gracias, señor presidente.


Señorías, profesor Salaverría, muchas gracias por su intervención y enhorabuena por su participación en el interesante proyecto Iberifier. Sin duda, lo que nos ha trasladado hoy será de utilidad para el trabajo de la ponencia de esta
comisión.


Si me lo permite, quiero plantearle algunas cuestiones añadidas. No parece una afirmación aventurada decir que el mayor riesgo, como usted ha sugerido, de denominar desinformación y no fake news es que el emisor de las falsedades sea una
autoridad pública, y cuanto más importante sea esa autoridad pública, más grave será también el riesgo. Bajo esta premisa bastante obvia, y siguiendo el método del caso, quiero plantearle cinco ejemplos bien conocidos de desinformación recientes
para recabar su criterio sobre qué se puede hacer con la ley y la democracia en la mano para hacerles frente. Los cinco ejemplos son solo ejemplos; le pido su criterio sobre la categoría que implica cada uno de ellos, no necesariamente sobre los
ejemplos en sí.


Primer ejemplo, domingo 23 de mayo, un vuelo de Ryanair que cubría el trayecto entre Atenas y Vilna, conminaba a desviar su trayecto cuando está a punto de salir del espacio aéreo bielorruso. Se le reconduce hasta Minsk, escoltado por un
caza MIG-29. El argumento que los controladores aéreos bielorrusos dan a la tripulación del vuelo comercial es que tienen información de que habría una bomba en el avión que sería detonada al aterrizar en Vilna. Con esa falsedad, respaldada con el
argumento más



Página 16





que retórico del caza, el vuelo es pirateado, se le obliga a aterrizar en Minsk; por supuesto, no hay bomba alguna, y las autoridades bielorrusas apresan a un conocido disidente de esa dictadura que viajaba en el avión junto a su pareja.
Una mentira o un supuesto aviso de bomba, junto a una actuación amenazante, el caza, para secuestrar un vuelo y apresar a un disidente; piratería con el apoyo de una mentira ejecutada por un gobierno dictatorial, pero Gobierno.


Segundo ejemplo, que usted ha insinuado muy colateralmente. La hipótesis de que el virus que ha causado la enfermedad de la COVID, por la que ya han muerto más de 3,5 millones de personas en todo el mundo, se escapara por una fuga en el
laboratorio de Wuhan. Durante el mandato de Trump, esa hipótesis fue sistemáticamente tildada de fake news, incluso de obsesión conspiranoica propia de las extravagancias del anterior presidente de Estados Unidos. La hipótesis fue siempre
desmentida por las autoridades chinas y por la Organización Mundial de la Salud, y sigue siéndolo. Pero ahora ya no es el vilipendiado Trump quien apunta la hipótesis de la fuga del laboratorio de máxima seguridad; ahora es su sucesor, el mucho
más respetado presidente Biden, y también apuntan a esa hipótesis los servicios secretos británicos y bastantes científicos. El tratamiento mediático es radicalmente distinto que en la etapa de Trump. Hasta Facebook ha dejado de anular los
comentarios sobre la hipótesis del virus de Wuhan. Lo hacía cuando la denuncia venía de Trump. No es imposible que el Gobierno chino haya ocultado todo o parte de la verdad sobre el inicio de los contagios con el virus. Lo que ha cambiado
radicalmente es la actitud de los medios y las plataformas, de la opinión publicada y de la opinión pública, ante la crítica de la dudosa fiabilidad de las autoridades chinas.


Tercer ejemplo. Ronaldo juega en Ceuta. Esa enorme falsedad fue utilizada como melodía del flautista de Hamelín para atraer a centenares de niños desde Castillejos hasta Ceuta; una burda mentira para empujar a menores marroquíes como
munición en un conflicto diplomático y de seguridad nacional para España. Y la desinformación, la burda patraña también estaba patrocinada por un Gobierno muy poco democrático, pero que nos afecta mucho.


Cuarto ejemplo. Este es de hace ya varios años, otoño de 2017, para ser precisos. Los organizadores del referéndum ilegal en Cataluña denunciaron que había habido mil heridos víctimas de la represión policial; mil nada menos. No
aparecieron ni mil heridos ni una docena, pero sí fueron eficazmente difundidas selectas imágenes que pretendían corroborar la tesis de la represión policial, y a pesar de esa evidente falsedad, esa mentira quedó en el imaginario colectivo como un
hecho cierto. Se encargó de difundirla el Gobierno autonómico que promovía el referéndum para la secesión de Cataluña con la insuperable ayuda de la televisión autonómica, aunque no solo de TV3.


Quinto y último ejemplo de esta misma semana. Titular: Indultos, ¿a Tejero, sí, y a Junqueras, no? Tejero no fue nunca indultado, nunca. Sí lo fue bajo el Gobierno del señor González el general Armada. Cuando se avanza en el texto de la
columna, publicada el lunes en un relevante periódico nacional, bajo la firma de uno de sus más eximios periodistas, se aclara que Tejero no fue indultado, que lo que ocurrió fue que el Supremo no emitió un informe tan rotundo contra su eventual
indulto, como el que ha emitido ahora para los condenados por sedición. Pero el titular corrió como la pólvora por las redes sociales, y el texto solo es accesible a los suscriptores de ese medio. El titular fue incluso retuiteado por un ministro
del Gobierno de España, el señor Iceta, ¿campaña de desinformación orientada a restar relevancia a un autoindulto o por ser muy bondadosos? Invitación incomprensible a la polémica.


Le he mencionado estos cinco, señor Salaverría, con voluntad de pedirle un análisis de las distintas caras que muestra el problema que usted estudia cuando el emisor es suficientemente poderoso y apoyándonos en el método del caso.


Señor presidente, para terminar, permítame citar una frase muy conocida de Orwell: 'En tiempos de engaño universal, decir la verdad se convierte en un acto revolucionario'.


Muchas gracias. (Aplausos).


El señor PRESIDENTE: Muchas gracias.


El señor SALAVERRÍA ALIAGA (catedrático de Periodismo de la Universidad de Navarra e investigador principal del proyecto Iberifier): Muchas gracias.


Usted ha citado cinco ejemplos, pero ejemplos hay muchísimos y, en la selección de los ejemplos, uno puede orientar el argumento hacia una línea u otra.


Señoría, esa rendición de cuentas que la Comisión Europea exige a las plataformas digitales es aplicable también a los medios de comunicación, por supuesto, faltaría más. Lamento que la sección de fe de erratas, o fe de errores, para ser
más exacto -porque en este caso serían errores-, no sea más



Página 17





amplia y detallada, como sí lo es, por ejemplo, en el periodismo anglosajón, donde ese tipo de rectificaciones son mucho más habituales. También en el periodismo anglosajón de más calidad existen todavía unos perfiles profesionales que
están ausentes en el periodismo español, que son precisamente los verificadores internos: profesionales responsables de comprobar que las informaciones que están aportando como ciertas, no únicamente los reporteros, sino incluso los propios
articulistas y editorialistas responden a la realidad. Uno no publica un editorial en determinados medios internacionales si no ha pasado antes por ese tamiz, y esto ocurre aquí.


Coincido con usted en que hay mucho margen de mejora también en el periodismo, y hay muchos ejemplos -probablemente podríamos mencionar muchos más- que reclaman una mejora profesional. Quizá yo sea un iluso, pero me parece que, aunque en
ocasiones uno pueda advertir una cierta maledicencia, o una cierta intención de atacar, lo que habitualmente se encuentra en los medios de comunicación, sobre todo cuando hay errores, son errores propiamente dicho, no intenciones. Pero ya digo que
quizá es un error mío, dado mi carácter un poco iluso.


Gracias.


El señor PRESIDENTE: Para cerrar la comparecencia, a expensas de lo que conteste el profesor, tiene la palabra, por el Grupo Socialista, la señora Retuerto.


La señora RETUERTO RODRÍGUEZ: Muchas gracias, presidente. Buenos días.


Muchísimas gracias, profesor Salaverría, por su exposición y por la claridad de la explicación. Este proceso, que podríamos llamar la democratización de la red, ha abierto la puerta a que cualquier persona conectada pueda crear contenido y
compartirlos; es decir, que ya no son solamente los grandes medios de comunicación y los periodistas especializados los generadores de opinión e información, sino que ahora también esta tarea está al alcance de todos nosotros, gracias en parte a
las redes sociales. La consecuencia de la expansión exponencial de este gran océano de información favorece de forma veces intencionada, y otras no, a la descontextualización de hechos que restan veracidad a la información, incluso se miente
directamente con información falseada. La recepción de contenido falso suele apelar a la parte más emocional de las personas y no a su parte más racional, es decir, incluye informaciones que a veces nos indignan, otras veces nos enfadan, a veces
nos entristecen, y así es mucho más fácil que queramos compartir el mensaje.


En definitiva, la desinformación se propaga mucho más rápido que las informaciones que la desmienten. En este sentido, me gustaría preguntarle si asistimos a un cambio de modelo sobre la información, tal y como la conocemos, con lo cual, si
las plataformas digitales son ya los actores principales en la agenda informativa. Y también sobre algo que ya ha mencionado usted, que es la ética de los algoritmos. Le pregunto si debería existir un consenso internacional con respecto a los
algoritmos, es decir, si podemos decidir dónde usar esta tecnología de manera responsable. La información distorsionada no siempre busca convencer, sino a veces también enfatizar divisiones y erosionar los principios de confianza compartida que
deberían cohesionar las sociedades. Las posibilidades de difusión e influencia que brindan las redes sociales y los ingresos por publicidad son solo una parte de la historia de la desinformación. ¿Por qué las noticias falsas encuentran una
audiencia tan receptiva? El uso de la desinformación en la acción política se ha trasladado desde las redes sociales y las plataformas abiertas a los espacios digitales cerrados y de confianza, como los grupos de wasap, y otra de mis preguntas es
si esto nos obliga a repensar estrategias para adaptarse a estos nuevos parámetros, teniendo en cuenta las acciones legales, tecnológicas y éticas distintas.


De nuevo le agradezco su presencia aquí y su explicación.


Muchas gracias.


El señor SALAVERRÍA ALIAGA (catedrático de Periodismo de la Universidad de Navarra e investigador principal del proyecto Iberifier): Muchas gracias. Seré breve también.


Usted me pregunta si asistimos a un cambio en el ecosistema de la información. Indudablemente. Internet en los últimos veinticinco años ha reconfigurado el ecosistema completo del consumo y de la participación. No debemos olvidar que uno
de los cambios principales ha sido que los ciudadanos ya no son únicamente destinatarios pasivos de la información, sino que son participantes activos en el proceso de diseminación de esos contenidos.


Me preguntaba usted: ¿las plataformas son un actor principal? Lo son. Las plataformas no se describen a sí mismas como medios. Rehúyen esa descripción, pero en el fondo lo que están haciendo es



Página 18





mediar, precisamente. Quizá lo que no hacen es periodismo, pero mediar, incuestionablemente, están mediando y, por tanto, medios son. ¿Y por qué digo que son medios? Porque si no son los productores últimos de la información, no son
aquellos que elaboran el contenido, sí son aquellos que la jerarquizan y la presentan ante la ciudadanía y, por tanto, son los que determinan, finalmente, qué contenidos aparecen ante los ojos de la ciudadanía y cuáles no, y eso es una mediación.
Eso es estrictamente una mediación. Si en el conjunto de esos contenidos hay algunos -como dicen en inglés- autoritativos, tienen, digamos, un respaldo, una credibilidad adecuada, pero al mismo tiempo contenidos desinformativos, lo que está
ocurriendo es que, como he mencionado antes, los contenidos desinformativos tienden a hacerles mejor el juego porque son más compartidos, porque generan más participación, porque son más adictivos, ahí tenemos un círculo vicioso, y ese es el núcleo
del mensaje que quería hoy trasladar. No me parece un asunto de periodismo, es un asunto que se traslada a otras esferas, aunque también, evidentemente, los medios tienen mucho que mejorar.


Muchas gracias.


El señor PRESIDENTE: Gracias.


Creo que soy bastante exacto si digo que agradecemos no solo su disposición para comparecer, sino el contenido de su exposición, que nos será de utilidad y nos orienta bastante en los trabajos de esta ponencia.


Insisto en dar las gracias al profesor Salaverría y espero que la comisión no le pierda mucho de vista en adelante.


Muchas gracias.


Se suspende la sesión a las trece horas y un minuto.


Se reanuda la sesión a las trece horas y tres minutos.


El señor PRESIDENTE: Una cuestión antes de la presentación del nuevo compareciente. Como ya he comentado a propósito de la intervención del diputado Sánchez Torres, si les parece bien a los portavoces que vayan a intervenir en esta
comparecencia, como nos hemos pasado un poco de la una, y seguramente esto se prolongará más allá de la hora prevista, para evitar que los portavoces de los grupos mayoritarios sean los que consuman menos tiempo de intervención, lo haremos al revés,
empezaremos de mayor a menor, dado los comentarios del portavoz de Vox. Estamos en una sesión de comisión, como es evidente, porque así hemos preferido hacerlo por acuerdo de todos para facilitar el acceso a esta materia de cualquier diputado. Si
fuera una ponencia, solo podría intervenir el miembro de la ponencia, de manera que esto da más facilidades a los grupos en general.


Otra cuestión. Al ser una ponencia, el estricto régimen de representación, tiempo y demás carece de un cierto sentido. ¿Por qué? Porque no es la fiscalización de un miembro del Gobierno. Estamos aquí por razón del estudio, por decirlo
así, por razón de la información, del asesoramiento, pero -y esto lo hemos hablado ya en otra sesión- la pauta no es la del control del compareciente, ni tampoco la de la representación de los grupos, insisto, sin decaer por supuesto, pero pasa a un
segundo plano, lo digo a efectos de la propia conciencia, por decisión de la comisión.


- COMPARECENCIA DEL MÁNAGER DE POLÍTICAS PÚBLICAS PARA ESPAÑA Y PORTUGAL DE FACEBOOK, D. GUILLERMO SERRANO PEÑA, ANTE LA COMISIÓN MIXTA DE SEGURIDAD NACIONAL, PARA INFORMAR EN RELACIÓN CON EL ESTUDIO DEL FENÓMENO DE LA DESINFORMACIÓN DE LAS
'FAKE NEWS', CON EFECTOS DISRUPTIVOS EN LA SOCIEDAD. (Número de expediente del Senado 715/000433 y número de expediente del Congreso de los Diputados 219/000534)


Autor: COMISIÓN MIXTA DE SEGURIDAD NACIONAL.


El señor PRESIDENTE: Para no consumir más tiempo, solo me queda presentar, brevísimamente, al responsable de asuntos públicos de Facebook, y agradecerle que se haya prestado a la invitación de esta comisión, y significativamente, de su
vicepresidente, el señor Antonio Rodríguez, para comparecer tan tempranamente. Todavía tenemos que definir algunos asuntos y, por lo tanto, podría haber solicitado comparecer más adelante. Toda la opinión que manifieste un directivo de una empresa
tan importante, que ha sido reiteradamente mencionada, tiene una repercusión social, pública, económica, empresarial,



Página 19





grande, con lo cual, sus palabras no tienen la libertad que pueda tener el anterior profesor universitario por su compromiso, etcétera. Como me ha comentado anteriormente, va a hacer una proyección de los trabajos que tengo encima de la
mesa.


Sin más, tiene la palabra para una comparecencia informativa, no para una testificación. No estamos en un régimen de control parlamentario a un compareciente.


Muchas gracias.


El señor SERRANO PEÑA (mánager de Políticas Públicas para España y Portugal de Facebook): Muchas gracias, presidente, vicepresidente.


Señorías, gracias por invitarnos a participar en esta ponencia de estudio para hablar de la desinformación y las fake news, un asunto de la máxima relevancia pública y social y, por supuesto, una prioridad absoluta para Facebook.


Antes de entrar en materia, me gustaría hacer una serie de valoraciones o de consideraciones preliminares, si les parece oportuno. En este sentido, quiero comentar que, como saben, la desinformación no es no es un fenómeno nuevo, ha
existido desde siempre. Si bien es cierto que, con el desarrollo de Internet, de las plataformas digitales, redes sociales, este fenómeno ha crecido en intensidad, en alcance, y si me permiten, en sofisticación también; por lo tanto, es un asunto
de la máxima prioridad.


Me gustaría comentar también la complejidad extrema que presenta este fenómeno de la desinformación, un ámbito con una gran cantidad de aristas que, desde luego, requiere un rango, una batería de acciones, diferentes y colaboraciones
estrechas con diferentes actores de la sociedad, como el compareciente anterior, un representante del mundo académico, pero, por supuesto, también con gobiernos y fuerzas y cuerpos de seguridad, verificadores de datos sociedad civil, incluso, si me
permiten, apelando también a la responsabilidad individual de cada una de las personas, y, claro está, proveyendo a las personas de conocimiento y de las herramientas necesarias para poder tomar estas decisiones informadas.


Es importante también tener en cuenta que la desinformación o las estrategias o iniciativas que adoptemos para abordarla en su sentido más amplio -después iré más al detalle- corre el riesgo de impactar en una serie de derechos
fundamentales, como puede ser el derecho a la libertad de expresión, que es una de las piedras angulares, como saben, de nuestras democracias y que es, precisamente, uno de los aspectos de la democracia que queremos salvaguardar. Por tanto, es
importante ser cautos a la hora de abordar este complejísimo asunto.


En Facebook tenemos una posición clara respecto a que no es posible ni, desde luego, deseable, que una red social, una plataforma digital, una empresa privada, al fin y al cabo, se erija en una especie de árbitro de la verdad que tenga que
dirimir qué es y qué no es veraz o qué es falso. Sencillamente, creemos que este rol no nos corresponde a nosotros, y ahondaré en este punto un poco más adelante en mi intervención. Esto, por supuesto, no significa que no tengamos una
responsabilidad. Tenemos una gran responsabilidad. Llevamos años trabajando arduamente en este ámbito, y estaré encantado de compartir con ustedes, señorías, el trabajo que estamos haciendo, pero también los desafíos con los que nos encontramos en
esta tarea.


Para finalizar, estas consideraciones preliminares, quiero comentar que, en términos generales, en su sentido más amplio, el objetivo que busca Facebook en su estrategia para frenar la desinformación es conseguir un equilibrio delicado, un
equilibrio dificilísimo, pero, al fin y al cabo, un equilibrio; una plataforma segura, una plataforma auténtica, a la vez que se respeta el derecho a la libertad de expresión de los usuarios que acceden a nuestra a nuestras plataformas.


Si les parece, rápidamente, voy a detallar los contenidos de mi comparecencia. (El señor compareciente apoya su intervención en una presentación digital). En primer lugar, haré algunas aclaraciones respecto a la terminología y ámbitos de
actuación. En los últimos minutos de la intervención anterior, creo que ya han tratado estos temas, así que iré rápido en esta sección y luego hablaré de la estrategia de Facebook para combatir esta misinformation, que han comentado antes. Los
contenidos falsos tienen una traducción extraña al español: este término de misinformation. La estrategia para combatir la desinformación o disinformation, estas acciones o redes coordinadas tienen un objetivo claro de impactar en el debate
público. Y, por último, también hablaré de cómo protegemos la integridad en las elecciones a los procesos electorales.


Como comentaba, el reto de definir creo que lo han cubierto anteriormente. Existe una cierta confusión respecto a la terminología o a los diferentes términos. El inglés nos lo pone más fácil cuando habla de



Página 20





misinformation, con m, y disinformation. En el primer caso, cuando hablamos de misinformation o contenidos falsos, nos referimos a contenidos que son falsos o engañosos. En el segundo caso, cuando nos referimos a la desinformación, o como
nosotros lo denominamos, operaciones de influencia, estamos hablando de la compartición de contenidos con una intención deliberada de engañar como parte de una campaña de manipulación. Esta actividad está coordinada y puede implicar, en la mayoría
de los casos, el uso de cuentas falsas, los famosos bots. Por supuesto, no toleramos esta actividad, en ningún caso, en nuestras plataformas; tan pronto como las identificamos, las eliminamos.


Me gustaría hacer una última referencia, que creo que es importante, respecto a cómo abordamos estas temáticas, estos dos ámbitos, de noticias falsas, y es dónde ponemos el foco. En el primer caso, en la misinformation, en este contenido
falso, el foco se pone en el contenido como tal. Sin embargo, en estas operaciones de influencia, el foco está en los patrones de comportamiento y en los actores más que en el contenido. Es una idea importante, que luego explicaré con un mayor
nivel de detalle, pero quería abordarla desde el principio.


Entrando en materia, señorías, voy a hablar de los contenidos falsos, erróneos, misinformation. En resumen, nuestra estrategia consta de tres grandes pilares: eliminar, reducir e informar. Eliminamos el contenido que viola las normas de
nuestra comunidad. Hay una gran variedad de casos o de áreas que esto cubre, pero, en el ámbito de la desinformación o de esta misinformation, eliminamos contenidos que puedan provocar un daño en el mundo real o que puedan influir en lo que
llamamos voter suppression o supresión del voto durante procesos electorales. Reducimos aquel contenido que no viola las normas comunitarias, pero que, sin embargo, socava la autenticidad de la plataforma. Y, por último y muy importante, ofrecemos
información a los usuarios sobre este contenido, información adicional e información contextual de diferentes fuentes.


En el primer pilar, por dar más de detalle al respecto -como recordarán, eliminar, reducir e informar-, eliminamos contenidos, los vídeos manipulados o engañosos, los famosos deepfakes, por el gran potencial que tienen para engañar, para
representar o para poner en boca de una persona una serie de afirmaciones o de palabras. Por el gran potencial que tienen para engañar, para representar o para poner en boca de una persona una serie de afirmaciones o de palabras, esto no está
permitido y los eliminamos tan pronto como los identificamos. La supresión del voto que adelantaba hace un momento se refiere a aquella información que puede tener un impacto en los procesos electorales, más concretamente en la hora o la fecha en
la que se va a producir la votación, las diferentes calificaciones o medios que deben cumplir las personas; en definitiva, cualquier información que pueda tener un impacto en el normal funcionamiento de un proceso electoral democrático.


Por último, hablamos de información o contenidos falsos o erróneos que provocan un daño en el mundo real, como también les adelantaba anteriormente. Tenemos estas políticas desde 2018, pero creo que será de interés para ustedes, señorías,
en el contexto de la pandemia, en el contexto de la desinformación relativa a la COVID-19, saber que, en colaboración, por supuesto, con organismos de sanidad pública y expertos, como la Organización Mundial de la Salud, etcétera, eliminamos
aquellas afirmaciones o contenidos que puedan producir daño en la salud o en la integridad física de las personas. Un ejemplo claro puede ser: Beber lejía cura o previene la COVID. Es un ejemplo bastante claro: no solo no lo cura, sino que,
además, puede producir un daño y puede llegar a matarle. Otro tipo de ejemplo serían las falsas prevenciones, como que el distanciamiento social no tiene ningún efecto en la prevención de los contagios en la COVID. Este tipo de contenidos falsos
se eliminan en colaboración con autoridades sanitarias, como les comentaba. Simplemente les ofreceré una cifra: desde el inicio de la pandemia hasta abril de este año, o sea, hace aproximadamente dos meses, hemos eliminado más de 18 de millones de
piezas de contenidos en Facebook e Instagram, en ambas plataformas, a nivel mundial por infringir estas políticas sobre desinformación y daños posibles relacionados con la salud en el contexto de la COVID.


Pasando al segundo bloque -si recuerdan, eran eliminar, reducir e informar-, en este bloque hablamos de contenidos falsos que no violan nuestras normas de la comunidad, nuestras normas comunitarias en el ámbito que les estaba describiendo
anteriormente, pero aun así socavan la autenticidad o la seguridad de la plataforma. Aquí lo que hacemos es reducir drásticamente la visibilidad de estos contenidos que aparecen en esta sección inicial o en esta sección de noticias, el famoso news
feed. En otras palabras, intentamos encontrar este equilibrio que les comentaba al principio tan difícil -no somos perfectos- entre respetar la libertad expresión, publicar una pieza informativa, un comentario o un post, pero en el caso de que sea
falso o que se ha analizado como falso no vamos a darle relevancia, no lo vamos a poner arriba, en el news feed, sino que se va a reducir su visibilidad drásticamente.



Página 21





¿Cómo funciona esto en la práctica? Como les comentaba al principio de mi intervención, nosotros tenemos la firme convicción de que nuestra plataforma u otras de las muchas que existen no podemos erigirnos en una especie de árbitros de la
verdad. Por lo tanto, para la identificación o análisis y catalogación de estas piezas de contenido que no violan nuestras normas de la comunidad, nos apoyamos en nuestra colaboración con fact-checkers, entidades de verificación de datos que han
sido previamente certificadas por la International Fact-Checking Network, que también mencionó el interviniente anterior. Estas entidades para ser acreditadas tienen que adherirse a un código de conducta de buenas prácticas y pasan una revisión
anual al respecto para rendir cuentas sobre su actividad. Facebook trabaja con más de ochenta organizaciones independientes, lo cual es importante. La actividad de estas organizaciones con las que colaboramos en lo que se refiere al fact-checking
es completamente independiente de cualquier interacción con Facebook, y trabajamos en más de sesenta idiomas en todo el mundo. En España trabajamos con cuatro entidades acreditadas por la International Fact-Checking Network: EFE Verifica, Maldita,
Neutral y Associated French Press, todas ellas, como decía, verificadas o acreditadas por la International Fact-Checking Network.


¿Cómo funciona en la práctica este proceso de verificación? Aquí, nuevamente, nos basamos en tres pasos o en tres bloques: identificar, revisar y actuar. En el primero, ¿cómo identificamos este contenido potencialmente falso? Aquí
aplicamos una combinación de medios: medios automatizados, inteligencia artificial -que puede identificar piezas de contenido que son susceptibles o potencialmente falsas-; por supuesto, la actividad de nuestros revisores de contenido; las
denuncias propias de los usuarios -si algunas de sus señorías son usuarios de Facebook, verán que en cualquier pieza de contenido tienen ustedes la posibilidad de denunciarlo por una gran cantidad de motivos, entre ellos porque pueda ser falso,
desinformación- y también contamos con los propios verificadores de datos, los propios fact-checkers, que pueden identificar piezas de contenido.


Pasamos al segundo paso, la revisión, donde los fact-checkers tienen la última palabra y la libertad de decidir qué piezas de contenido quieren analizar por su propio criterio, siempre sobre la base, por supuesto, de estos códigos de buenas
prácticas. Una vez que se ha revisado esta pieza de contenido, se puede llegar a la conclusión de que es falso. Esto no es una decisión binaria, blanco o negro, verdadero o falso, sino que existen varios matices de gris, si me permiten: puede
faltar contexto, puede ser parcialmente falso, etcétera, no es simplemente, como decía, blanco o negro.


Finalmente, actuamos, tomamos medidas y aquí sí, nuevamente entra Facebook: en aquel contenido que un fact-checker independiente ha catalogado y etiquetado como falso, reducimos drásticamente la visibilidad de esta pieza de contenido en
nuestra plataforma; no la eliminamos, respetando el derecho a la libertad expresión, ya que no viola nuestras normas de la comunidad. Y, finalmente, para aquellas páginas o perfiles individuales, para cuentas individuales que repetidamente
comparten contenido que es analizado y catalogado como falso por una entidad de verificación de datos independiente, se acaba reduciendo la visibilidad de esta página y, en un último caso, se va limitando también su capacidad, por ejemplo, para
comprar anuncios, monetizar a través de diferentes herramientas, etcétera.


El tercer y último pilar de esta estrategia que les comentaba, señorías, es informar. Esta es un área fundamental dentro de nuestra estrategia de combate contra la misinformation o contenidos falsos. Básicamente, lo que hacemos es ofrecer
información adicional a las personas sobre estos contenidos. Por ejemplo, una vez que una pieza de contenido ha sido etiquetada, analizada y catalogada como falsa por un fact-checker independiente, se le añade un etiquetado, un velo, que clara y
visiblemente avisa de que este contenido ha sido verificado y catalogado como falso, se ofrece información y vínculos al informe de esta entidad verificadora de datos donde explica por qué ha llegado a esta conclusión. Cuando los usuarios y las
personas que interactúan con este tipo de contenidos, aun así, después de estas advertencias visionan el contenido y quieren compartirlo, hay un pop-up, un aviso emergente que dice: recuerda que esto ha sido catalogado como falso por una entidad de
verificación independiente. Lo que viene a decir es: piénsatelo dos veces antes de compartir. Hasta el 95 % de las personas que llegaron a este punto y visionaron este aviso no continuaron compartiendo esta pieza de contenido. Más recientemente,
hemos empezado a mostrar avisos en su sección de noticias a aquellas personas que interactuaron de alguna manera con una pieza de contenido, ya sea porque le dieron a like, compartieron o accedieron, antes de que fuese eliminada por los motivos que
les he ido exponiendo anteriormente. En este caso, les ponemos un aviso diciendo: esta pieza de contenido que visionaste o compartiste desde entonces ha sido eliminada por ser desinformación relativa al COVID. Y se les ofrece la posibilidad de
ser



Página 22





redirigidos a la página oficial de la Organización Mundial de la Salud, a la sección donde desmienten todos estos bulos relativos a la salud pública sobre la COVID-19.


Más recientemente -y con esto termino esta sección- y para dar más información, hemos incluido una iniciativa adicional, por la cual cuando una persona quiere seguir una página y clicar que le gusta en una página que ha compartido en
repetidas ocasiones desinformación, se le avisa con una ventana emergente donde se le dice: que sepas que esta página ha compartido repetidamente información que ha sido catalogada como falsa por entidades de fact-checking, de verificación de
datos.


Por último, quiero comentar que una parte fundamental en este pilar de informar es un área en la que estamos trabajando intensamente y en la que en el futuro trabajaremos más, que es conectar directamente a las personas con fuentes oficiales
o veraces de información. Por ejemplo, en el ámbito de la COVID, al principio de la pandemia lanzamos el Centro de información COVID-19. Esto lo hicimos en colaboración con la Organización Mundial de la Salud, lo lanzamos a nivel global -por
supuesto, en España también- y con las autoridades sanitarias locales, en el caso de España con el Ministerio de Sanidad. Aquí los usuarios pueden acceder a información y actualizaciones en tiempo real sobre la evolución de la pandemia, consejos
sanitarios de las entidades de salud pública, del Gobierno, y también ser redirigidos directamente a la página del Ministerio de Sanidad o la página de la OMS, donde pueden acceder a información veraz respeto a la COVID-19. Con esto, lo que
pretendemos es que las personas tengan la libertad de conformar su opinión libremente, pero de manera informada, que dispongan de los elementos de juicio, que dispongan de información veraz y que, una vez así, libremente, como personas adultas,
adopten una posición o una opinión al respecto. En este caso sería sobre COVID, pero estamos trabajando en iniciativas similares al respecto.


Como les comentaba, desde el inicio de la pandemia hemos puesto en contacto a 2000 millones de personas con información fiable, información veraz oficial sobre la COVID-19, tanto a través de este Centro de información COVID que lanzamos en
Facebook y después, un poco más adelante, en Instagram también como con mensajes informativos directamente en las secciones de noticias de los usuarios en 189 países. La mayoría de los datos los tenemos a nivel global europeo, pero, por darles un
dato relativo a España, solo en el mes de marzo de 2021 -hace un par de meses o tres- hubo 120 millones de visitantes a ese Centro de información sobre la COVID-19 en el mundo, 1,3 millones en España. Solo, repito, en el mes de marzo.


Por último, me gustaría hacer una especial mención a la importancia de la educación, a la importancia de la formación, especialmente en el ámbito de la alfabetización mediática. Recordarán, señorías, que apelaba a la responsabilidad
individual, además, por supuesto, de a la responsabilidad de los diferentes actores, como un elemento clave en la lucha contra la desinformación. Es importante que esta responsabilidad individual vaya acompañada, por supuesto, de las herramientas,
de los conocimientos necesarios. Hay muchas campañas de este tipo, pongo algunos ejemplos, como Stamp out false news, una campaña informativa que ofrecía información, tips, sobre cómo identificar una noticia falsa, cómo reaccionar, que en el caso
de España alcanzó a 11,3 millones de usuarios, o el programa GeneraZión, que es un programa de seguridad en internet y alfabetización mediática para jóvenes, del que estamos a punto de terminar la segunda edición, en el que habremos llegado a 15 000
alumnos en sesiones directas en las escuelas, además de a través de una serie de contenidos interactivos en nuestra plataforma digital, donde calculamos que para finales de mes, cuando terminará la segunda edición, habremos llegado a 50 000
personas. Este programa, además, añade información sobre una serie de entidades que lo apoyan, como Unicef, como el Intef, del Ministerio de Educación, o Incibe, la agencia de ciberseguridad del Gobierno.


La siguiente sección es la desinformación o -como les comentaba antes- lo que en Facebook denominamos operaciones de influencia. En este ámbito -y este es un mensaje que me van a oí repetir-, una parte fundamental del éxito que podamos
tener en la lucha contra este tipo de desinformación recae en la colaboración de todos los actores implicados, incluyendo representantes públicos, por supuesto, Gobierno, instituciones, fuerzas y cuerpos de seguridad, el mundo académico, la sociedad
civil, los verificadores de datos, etcétera, y, por supuesto, otras compañías o plataformas digitales para que seamos capaces de construir esta respuesta colectiva a este desafío que, en el caso de estas operaciones de influencia, es mayor aún, si
cabe.


Como les comentaba, utilizamos el término operaciones de influencia para referirnos a este tipo de desinformación o lo que en otros ámbitos se conoce como desinformación, y aquí nos referimos a esfuerzos coordinados -esto es importante- que
pretenden manipular o corromper el debate público para lograr un objetivo estratégico. Se caracterizan por la inautenticidad y la coordinación, como



Página 23





comentaba hace un momento. La forma, quizás, más dañina de este tipo de operaciones de influencia es lo que conocemos como comportamiento inauténtico coordinado, inauthentic coordinated behaviour. Este este caso, hablamos de redes
coordinadas, de cuentas, de páginas o de grupos en nuestras plataformas que se basan habitualmente -en este caso siempre- en cuentas falsas para engañar a Facebook y engañar a las personas, a los usuarios, sobre quién está detrás de esta campaña y,
por supuesto, qué objetivos persigue. Existen dos tipos de comportamiento inauténtico coordinado: puede ser extranjero, puede ser doméstico y pueden ser actores gubernamentales o actores no gubernamentales. Por ofrecerles también algunas cifras
que, desde luego, testifican el esfuerzo y las inversiones que está realizando nuestra compañía desde los últimos años, hemos triplicado el número de personas que trabajan en ámbitos de seguridad y de protección hasta alcanzar la cifra de más de 35
000 personas a nivel mundial, a nivel global, esto incluye expertos en seguridad, ingenieros en inteligencia artificial y aprendizaje automático, machine learning, y revisores de contenido, como comentaba también hace unos instantes. También en
relación con las operaciones de influencia, publicamos informes regularmente; hace poco publicamos el último, que incluía el periodo 2017-2021. Hemos desmantelado, hemos eliminado 150 operaciones de influencia encubiertas, eliminadas por violar
esta política contra el comportamiento inauténtico coordinado que les mencionaba.


En relación con nuestro informe de transparencia sobre la aplicación de nuestras normas comunitarias, que publicamos cada trimestre, en el último podemos hablar de que nuestra tecnología de detección nos ha ayudado a bloquear millones de
intentos de crear cuentas falsas. Saben ustedes -lo he comentado a lo largo de mi intervención- que eliminar, neutralizar la prevalencia de cuentas falsas es una forma bastante efectiva para luchar contra este tipo de acciones que, habitualmente,
se basan en cuentas falsas; en el caso de las operaciones de influencia, en todos los casos. Así, en el primer trimestre de este año hemos eliminado 1300 millones de cuentas falsas y el 99,8 % de estas han sido de manera proactiva gracias a la
automatización, a medios automatizados que, al final, si tienen ustedes en cuenta el volumen de usuarios que, afortunadamente, tenemos en nuestras plataformas, dado el volumen de cuentas que se genera es muy importante apoyarnos en la automatización
para poder operar a escala. En este caso, la práctica totalidad de estas cuentas las hemos eliminado por estos medios.


¿Cómo actuamos? Ya adelantaba al principio que aquí era importante hacer esta distinción entre estas operaciones de influencia y el misinformation; mientras en un ámbito nos focalizamos en el contenido -en el caso anterior-, en este el
foco debe estar en el comportamiento o quizás sea más preciso hablar de patrones de comportamiento; por lo tanto, pueden ser agnósticas estas investigaciones en cuanto a la ubicación o el propio contenido.


Elementos comunes a toda operación de influencia. Existe una coordinación -como comentaba anteriormente- entre cuentas, páginas o incluso grupos offline, fuera de la plataforma; existe un objetivo de manipular, de engañar y, por último,
este objetivo final estratégico de socavar o de impactar en el debate público. En la práctica, ¿cómo actuamos al respecto? Aquí aplicamos una combinación de expertos, investigaciones de expertos en seguridad y -como comentaba también- la
automatización es fundamental. De esta manera, los expertos en seguridad identifican estos patrones de comportamiento que luego se incorporan a los productos, se automatizan para que, por un lado, seamos capaces, por supuesto, de identificarlos y
eliminarlos, y, por otro, para que una vez que han sido eliminados no sean capaces de volver más tarde a la plataforma y, muy especialmente, que evitemos que se conviertan en contenidos virales a la mayor brevedad. Aquí una rápida reacción -como
saben ustedes, señorías- es fundamental.


En la última sección de esta comparecencia hablaré brevemente de la protección a la integridad de las elecciones en Facebook. Posiblemente, no haga falta que se diga que en el ámbito de la desinformación un proceso electoral representa el
punto máximo de tensión o de importancia o donde más daño se puede ocasionar a nuestras democracias. Esto casi es una obviedad, pero, desde luego, tenemos una gran responsabilidad al respecto en Facebook, la cual asumimos, y a lo largo de los años,
aprendiendo de las lecciones y también con la experiencia que hemos ido adquiriendo y con las inversiones en tecnología y en capital humano, hemos ido afinando o perfeccionando estos procesos o estas técnicas o estrategias de protección de la
integridad de las elecciones. Sin embargo, sabemos que este trabajo no termina nunca, conforme conseguimos detectar un patrón de comportamiento, eliminar un tipo de operaciones de influencia, estos actores maliciosos, vamos a decir, que están
detrás de esas operaciones están constantemente innovando, están constantemente buscando nuevas formas. Por lo tanto, esto es un proceso, si quieren como el del ratón y el gato, que nunca termina y siempre hay que estar innovando e



Página 24





incrementando la capacidad, sobre todo en el ámbito tecnológico, para poder ser más eficaces en esta lucha. Por supuesto, nuevamente hago el llamamiento a la colaboración, en este ámbito más, si cabe, en otros términos o con otros medios:
a la colaboración con gobiernos, con expertos en seguridad, con académicos, con verificadores de datos, etcétera, es fundamental para poder abordar este marco de manera colectiva. Nuevamente, si me permiten, vuelvo a reincidir en esta cifra que les
mostraba antes: hemos incrementado notablemente el número de personas que trabajan en seguridad -ingenieros, revisores de contenido a nivel global, etcétera-, más de 35 000, lo que supone un crecimiento del 300 % en pocos años. Solo para
elecciones tenemos a 40 equipos con más de 500 personas que trabajan única y exclusivamente en la protección de la integridad de los diferentes procesos electorales a nivel mundial, por supuesto, apoyados en este ecosistema. Por eso quería
enseñarles de nuevo la cifra de estas 35 000 personas que les comentaba hace un momento.


Hemos ido perfeccionando y mejorando nuestros sistemas, nuestras técnicas. Desde 2017 hasta hoy hemos participado para proteger la integridad de las elecciones en más de 200 procesos diferentes. La estrategia para proteger las elecciones
nuevamente contiene tres grandes bloques o pilares: prevenir la injerencia, eliminar el contenido dañino o reducir la visibilidad del contenido falso e incrementar la transparencia -este es clave-. Creo que he cubierto los dos primeros, tanto la
parte de las operaciones de influencia como la parte del contenido falso. Si les parece, voy a dedicar un par de minutos a la importancia que nosotros otorgamos a incrementar la transparencia en los anuncios políticos y en las páginas como un arma
fundamental para proteger la integridad de las elecciones. Aquí hablamos de anuncios políticos o issue ads. Cuando nos referimos a anuncios políticos no nos referimos solo -también, pero no solo- a un anuncio que pueda disponer un partido político
o un candidato o candidata, sino también a lo que llamamos issue ads, que son anuncios sobre temas sociales, también sobre elecciones, por supuesto, o política que puedan venir de organizaciones de la sociedad civil o grupos que estén haciendo
campaña en cualquier sentido. Para esto, incluimos avisos de por quién está pagado, quién está detrás o patrocinado por, para aportar esta transparencia, esta claridad a quién vea este anuncio y también lo ponemos en la biblioteca de anuncios, que
es pública, a la que puede acceder cualquier persona, donde se incluye toda esta información sobre gasto, etcétera, y está ahí durante siete años cada uno de estos anuncios para cualquier tipo de escrutinio público o investigación que pueda hacer
cualquier persona o entidad. Exigimos la verificación de los anunciantes. Esto quiere decir que exigimos que las personas pasen un proceso de autorización de Facebook antes de poder invertir, gastar en un anuncio de este tipo, issue ads, un
anuncio político, y tienen que demostrar la identidad, quiénes son y dónde se encuentran, donde está su ubicación. En el caso de las elecciones no permitimos anuncios que provengan de otros países. Una persona en Portugal no podrá comprar o
invertir en un anuncio en unas elecciones que estén ocurriendo en Francia o en cualquier otro país.


La transparencia de las diferentes páginas que se puedan crear en Facebook es fundamental también. Aquí se incluye información tal como la fecha de creación, el histórico de cambios de nombre que haya podido tener esta página o la ubicación
de los administradores de la página, todo esto para que las personas que vean información en una página tengan la máxima información de quién está detrás o de dónde viene esa página.


Y, por último, el ranking de la sección de noticias. Aquí hemos desarrollado una funcionalidad que se llama '¿Por qué veo esto?', donde tanto en anuncios políticos como en contenido generado por usuarios se puede acceder a información
sobre por qué se le está mostrando este anuncio o esta pieza de contenido. Esto puede ser porque siga un grupo determinado de un ámbito concreto, porque un contacto o amigo haya publicado un tipo de contenido..., y en determinadas cuentas se
explica por qué se le está mostrando esta pieza de contenido en su sección de noticias y, por supuesto, se otorga también el control para ver menos anuncios de ese tipo o para no ver anuncios de ese tipo de anunciante concretamente.


Y con esto termino mi intervención, señorías. Muchísimas gracias.


El señor PRESIDENTE: Muchas gracias, señor Serrano, por su trabajo en la preparación de diapositivas y por su ajuste magnífico al tiempo.


Según lo dicho anteriormente, tiene la palabra, por el Grupo Socialista, el vicepresidente de la comisión.


El señor RODRÍGUEZ SALAS: Señor Serrano, muchas gracias por estar aquí hoy, por supuesto, pero sobre todo por la claridad a la hora de expresar lo que está haciendo una compañía tan importante como Facebook, que no olvidemos que agrupa,
efectivamente, a Facebook, a Instagram y también a WhatsApp.



Página 25





Vivimos en la sociedad del minuto, esa sociedad que requiere de preguntas rápidas y respuestas inmediatas, una sociedad del minuto que está francamente dividida en muchas situaciones pero, sobre todo, en algo importante, y es que la sociedad
del minuto al final demuestra cómo ha pasado el tiempo a la hora de comunicarnos: desde aquellos tiempos, esos años veinte de hace ya un siglo, cuando se creaba un ministerio de la propaganda en un lugar llamado Alemania -que, además, tenía un
concepto muy diferente a la Alemania que conocemos hoy-, a la transformación de la comunicación, primero, con la época de Internet y, ahora, a continuación, con los medios sociales.


Después de todo lo que ha dicho usted hace un momento, me quedan muy claros todos los conceptos, prácticamente todo lo que queríamos preguntar está respondido, pero hay una cuestión que me preocupa y quisiera saber qué solución nos puede
dar. Me refiero a lo que se llama la crisis en red. En este concepto amplio que hemos estado viendo -por ejemplo, en una situación de pandemia, en una situación de elecciones, también podría ser en otros momentos críticos-, la crisis en red es
algo vital, porque el tiempo en la respuesta es absolutamente crítico. Se ha demostrado en procesos electorales, por ejemplo, cuando se enfrenta Hillary Clinton a Donald Trump en aquellas elecciones, que el tiempo era determinante: el equipo de
Trump tenía solo tres personas para decidir qué hacía en un proceso de crisis, mientras que el equipo demócrata tenía a doce personas y tardaban en responder a aproximadamente 38 o 40 horas; es decir, Trump respondía inmediatamente y los otros
tardaban en responder mucho más tiempo. Este es un ejemplo de los equipos de los partidos, pero a mí me preocupa mucho en este concepto del tiempo cómo responde una compañía como Facebook ante una crisis. Hemos visto que tiene 35 000 personas
dispuestas a darlo todo, pero tiene, sobre todo, algo muy importante, que es la inteligencia artificial. Porque, aunque tuviéramos 100 000 personas, la inteligencia artificial al final es mucho más rápida para encontrar y responder ante
situaciones. Ahí no ha abundado mucho y me gustaría que usted nos pudiera facilitar datos al respecto.


Hay otra cuestión que se ha mencionado anteriormente: en la comparecencia anterior algún compañero ha mencionado a WhatsApp y ha mencionado a Bolsonaro. Sabemos que dentro del concepto de medios sociales, que es un concepto bastante
amplio, WhatsApp -que es un medio social muy importante en España, lo es en los países latinos, pero aún más en España- tiene algo importante, y es que hasta hace muy poco sabíamos que existían herramientas de difusión masiva de mensajes:
simplemente comprando una base de datos de teléfonos y una de estas herramientas de multiplicación masiva se podía ahondar muy fuerte en una situación de crisis importante. Me gustaría que nos aclarara esto y nos diera algún dato al respecto.


Efectivamente, árbitro de la verdad no puede ser, y en ese concepto de árbitro de la verdad -y como tercera pregunta- también me gustaría que aclarara si, dentro de todo el proceso que se ha hecho en Europa y de la legislación europea, que
está en estos momentos en un momento bastante interesante, pero también en un momento en el que el decreto ministerial de España intenta combatir las situaciones de desinformación, la compañía se ha reunido con el Gobierno, si se ha reunido con los
ministerios, si se ha reunido con las instituciones europeas. Quisiera saber si nos podría aclarar también algo en ese sentido y, sobre todo, si ese tipo de reuniones han servido para que Facebook no sea el árbitro de la verdad, sino que sea en las
instituciones donde se deposite ese proceso para mantener un equilibrio en los procesos de control -que hemos visto en la comparecencia anterior y en otras de días anteriores, como la del general Ballesteros, que nos han aclarado muchísimo sobre los
procesos que puede haber-. Pero Facebook es una empresa fundamental, yo creo que es la plataforma número 1 en el mundo, y eso en España nos afecta muchísimo, porque precisamente Facebook, WhatsApp o Instagram al final agrupan a un número muy
importante de la población española. Y me gustaría también que, si tiene ese dato, nos lo facilitara: a cuántos usuarios llegamos en España con Facebook, Instagram y WhatsApp.


Y nada más. Como decía antes nuestro presidente, hay que aprovechar el tiempo exponiendo las preguntas suficientes.


El señor PRESIDENTE: El compareciente prefiere que haya agrupación de preguntas, lo que también facilitará que acabemos antes. Según esto, tiene la palabra el señor Cortés, del Grupo Parlamentario Popular.


El señor CORTÉS CARBALLO: Buenas tardes ya. Enhorabuena por la exposición; ha sido usted muy claro, y la verdad es que valoramos los esfuerzos que hace su compañía al abordar las dos líneas de trabajo contra la desinformación y eso que
llamamos influencia.



Página 26





Mi grupo tiene una visión muy clara de lo que sería una plataforma digital, una red social que no es, ni más ni menos, que un contrato que hace una empresa privada, un servicio que se presta entre el usuario y la compañía a través de una
cesión de datos o incluso del consumo de publicidad y, por tanto, se compromete a una serie de normas, de políticas y, como usted ha dicho, de normas de comunidad a la hora de usar ese tipo de servicios. Y ahí nos quedamos; tan simple como eso.
¿Por qué digo esto? Pues porque muchas veces se tiende a pensar que las redes sociales se convierten en un medio de comunicación, en un canal de información veraz o, incluso, si pensamos en cómo los utiliza algún que otro político, y lo hemos visto
en algún otro país, en un tablón oficial del Gobierno. Y de alguna forma los propios dirigentes políticos ayudamos a confundir a la opinión pública, a la ciudadanía sobre lo que es una red social y lo que es un canal de información como medio
gubernamental. Y ahí quizá esté la base de muchas de las cosas que estamos diciendo aquí.


Por tanto, desde ese punto de vista, vemos totalmente negativo meternos a regular o a legislar absolutamente nada que tenga que ver con los servicios privados que presta una compañía. Pero, claro, tampoco podemos olvidar el impacto real que
tiene una red social en la ciudadanía, provocado también, como decía, porque también los políticos y las administraciones públicas la usan como medio de comunicación, con las salvedades que, como hemos dicho al principio, eso tiene. Pero en ningún
caso, como legisladores, podemos tener la tentación de irrumpir en un servicio privado, y mucho menos permitir que el Gobierno de turno lo haga. Por lo tanto, ni ministerio de la verdad ni nada parecido nos podemos permitir.


Si entráramos ahí, y sé que hay algunas corrientes que así lo plantean, nos encontraríamos con la perversión de decidir qué contenidos son los veraces, cuáles no, qué criterios se siguen, qué criterios no se siguen y, al final, le haríamos
un flaco favor a la comunidad y a la opinión pública al intentar, como Gobierno, como Congreso o como Senado, definir qué puede ser aceptable o qué no puede ser aceptable publicar en una red social o en una plataforma digital. Por ello estamos en
contra de cualquier tipo de intromisión, como digo, en un servicio privado.


Por eso -y en este sentido viene muy bien su intervención-, apostamos por la autorregulación. Usted lo ha dejado bien claro, son políticas que está siguiendo, en este caso, Facebook para toda su plataforma, para autorregularse, para
combatir la desinformación y esas influencias negativas que nos llegan de terceros países o de grupos de presión. Por tanto, nosotros creemos que debemos quedarnos ahí como legisladores y no dar un paso más allá.


Pero sí creemos que todo este problema se podría solucionar directamente si apostáramos mucho más por la formación y la información de los usuarios, no solo contando con la propia base educativa, donde hay un gran déficit en estos temas, y
con las propias campañas de difusión de instituciones públicas, sino también -y ahí va la pregunta- dentro de la propia red social o de la propia plataforma. ¿Qué opina en este caso su compañía sobre la obligatoriedad de incluir -ya lo hacen en
cierto modo con esas etiquetas- información continua y constante en cada una de las publicaciones? Hay otros sectores, que no vienen al caso, a los que se obligó a meter una serie de mensajes dentro de su producto. Podríamos plantearnos algo
parecido, y quería conocer su opinión, porque evidentemente la comisión tiene este tipo de funciones.


Y, por último, conocemos el interés del Gobierno en controlar los mensajes, tanto sobre la propia gestión como de sus propios dirigentes. Ahí tenemos un histórico de hemeroteca de los últimos meses. Y ya que le tengo a tiro le pregunto si
existe algún tipo de relación con el Ministerio de Interior en cuanto al control de los mensajes que se publican en su plataforma, si existe algún tipo de colaboración operativa para este tema, y si es así, sobre la base de qué legislación se está
haciendo por el Gobierno a la hora de pedirles que eliminen o controlen algunos comentarios en su red.


Muchísimas gracias.


El señor PRESIDENTE: Tiene la palabra el señor Mariscal Zabala.


El señor MARISCAL ZABALA: Gracias, presidente.


Buenos días, señor Serrano Peña. En el Grupo Parlamentario de Vox teníamos mucho interés en poder mantener una conversación con uno de los responsables de Facebook en España, especialmente para conocer con más detalle cómo gestionan ustedes
los mensajes que se publican cada día en las plataformas de redes sociales de su empresa americana, que no solo abarca Facebook, sino también Instagram y WhatsApp. Y le decía que teníamos mucho interés en esta comparecencia porque millones de
españoles utilizan a diario sus redes sociales para informarse y entretenerse, pero también para



Página 27





informar y opinar. Es decir, no solo son una herramienta para recibir mensajes, sino también para emitirlos. Por eso, millones de españoles han convertido su página Facebook o su cuenta de Instagram en su propio medio de comunicación, y
algunos incluso en una herramienta de trabajo. Su plataforma no es una aplicación más. Hay que reconocer que su invento se ha convertido en un hito en la historia de la comunicación. Ha permitido a muchos ciudadanos llegar a millones de personas
y ha sido una herramienta fundamental para facilitar el nacimiento y la difusión de movimientos sociales y políticos que han marcado la historia de nuestro país. Tanto es así que algunos analistas consideran a las redes sociales como el quinto
poder, eso sí, un poder poco conocido. Da la sensación de que ustedes saben mucho sobre nosotros, pero nosotros poco sobre ustedes. Antes de venir a esta comparecencia, por ejemplo, le he buscado usted, y había muy poca información acerca de su
trayectoria, y tampoco he encontrado con facilidad qué personas trabajan en Facebook, cómo trabajan, qué impuestos pagan, dónde se encuentra su sede o un teléfono de contacto. Por eso, es tan interesante que esté hoy usted aquí, porque la ausencia
de información también es una forma de desinformar, y hoy tenemos una oportunidad para conocerles a ustedes mejor.


En primer lugar, muchos españoles se preguntan qué criterios utilizan ustedes para retirar contenido, algo que nos ha explicado hoy usted; y es una pregunta que se hacen ahora, porque hace unos años, cuando los españoles abrían una cuenta
de Facebook, no era habitual que se les controlase y censurase el contenido. En su origen, allá por 2008, las redes sociales se promocionaban como una herramienta para satisfacer el derecho de libertad de opinión y el derecho a recibir, y también a
publicar, información, y muchos expertos en comunicación explicaron cómo las redes sociales iban a tener un papel fundamental en la democratización de la información. A todos los que nos ha interesado la comunicación política y el periodismo hemos
tenido presente la figura de Charles Foster Kane, de la película Ciudadano Kane, donde se nos cuenta la historia de un magnate de la prensa americana que tenía la posibilidad de influir en la política, en los negocios, de hacer y deshacer guerras,
algo que podía hacer porque tenía el dinero suficiente para comprar la herramienta que lo hacía posible, que era un periódico. Sin embargo, con el nacimiento de las plataformas, como Facebook, periodistas, escritores, analistas, médicos, e incluso,
adolescentes, se podían convertir, si se lo propusiesen, en un ciudadano Kane, en directores de su propio medio de comunicación. Ya no les hacía falta ser unos privilegiados o millonarios para poder influir en la sociedad.


En política, las redes sociales supusieron una revolución para la comunicación entre los políticos y los ciudadanos. Su jefe, Zuckerberg, dijo que, gracias a Facebook, por fin, se iba a escuchar lo que pensaba el pueblo sin filtros ni
intermediarios, y el pueblo americano eligió como su presidente al primer candidato de los Estados Unidos que usó las redes sociales para llegar a sus votantes. Fíjese lo que decía El País en el año 2009. Publicaba una entrevista a un compañero
suyo que decía: Obama creyó en Internet. Uno de los fundadores sostiene que lo que nosotros hicimos con la tecnología fue hacer más fácil el trabajo a Obama y luego dejar el camino libre para ganar elecciones. En España, algunos identificaron el
éxito del 15M con el uso de las redes sociales, como Facebook, y más adelante también se vinculó el crecimiento de Podemos al manejo de Internet. Las redes sociales parecía que era lo mejor que se había inventado en la humanidad. Sin embargo, algo
ocurrió a partir de 2016 que les truncó a ustedes el relato. De repente, el pueblo empezó a cuestionar en las redes sociales las opiniones de los tertulianos de las televisiones, a criticar a los políticos que gobernaban, a rechazar las directrices
de los organismos supranacionales; en definitiva, los ciudadanos empezaron a reabrir los debates que habían cerrado los partidos políticos del consenso y una pequeña élite que controlaba a los grandes medios de comunicación. Y cuando en Facebook
empezaron a triunfar los discursos alternativos, como el de Donald Trump, en Estados Unidos, o el de Vox, en España, pasamos a esto otro: Las redes sociales una amenaza para la democracia. Ahora da la sensación de que las redes sociales molestan.
Los partidos del consenso, desde el PP al PSOE, pasando por Podemos, acusan a las redes sociales de ser foco de desinformación, de mentiras y de discursos del odio, y ustedes, señores de Facebook, desde sus despachos de la Castellana o desde
California, han decidido qué se puede decir y qué no se puede decir en su plataforma.


Sus redes sociales han pasado de ser una herramienta para democratizar la información a ser una herramienta de control de la opinión pública, y es que hoy miles de personas son expulsadas de Facebook o de Instagram por disentir del consenso
progre, ya sea un ciudadano cualquiera, periodistas o incluso diputados, y presidentes de Estados soberanos elegidos por los ciudadanos. Es paradójico comprobar cómo los diputados de Vox podemos decir aquí lo que piensan millones de españoles, y lo
podemos decir también en medios de comunicación y en nuestros mítines, pero no en nuestras cuentas de Facebook. Yo



Página 28





aquí puedo decir que un MENA es un menor que ha entrado ilegalmente en nuestro país y puedo relatar episodios de violencia que se han generado en barrios de toda España, y puedo demostrarlo con noticias y con vídeos reales. Sin embargo,
esto lo puedo decir aquí, pero no en su plataforma, y lo mismo les pasa a millones de españoles. Y aquí va la primera pregunta: ¿por qué sucede esto? ¿Por qué desde su plataforma no se permite alertar a los ciudadanos de las consecuencias que
trae la inmigración descontrolada? ¿Por qué es desinformar mostrar un vídeo de un MENA que está agrediendo a una mujer en Ciudad Lineal para robarla? Usted me podrá decir que, según la normativa de Facebook, no se puede vincular la inmigración
ilegal con la delincuencia. Pero ¿sabe lo que pasa? Que la justicia sí que lo permite. La fiscalía del Gobierno y el PSOE han denunciado a Vox en varias ocasiones por hablar de la delincuencia que traen los MENAS, y la justicia ha archivado esas
denuncias, porque decir la verdad, señores de Facebook, no es un delito en España, y tampoco debería serlo en su plataforma. Ustedes no pueden estar por encima de la justicia de los países ni pueden pisotear los derechos fundamentales de los
ciudadanos, como el derecho a la libertad de expresión; y si ahora pueden hacerlo en España, es porque tenemos un presidente al que no le importa la libertad de sus compatriotas con tal de mantenerse en el poder. Pero suceden otras cosas en países
como Polonia o Hungría, donde ya ha anunciado multas millonarias para las plataformas y para las empresas extranjeras que censuren a sus ciudadanos por decir la verdad.


Y hablando de la verdad -voy terminando-, a veces hay que buscarla, y eso es lo que han hecho muchos durante la pandemia; una pandemia que ha acabado con la vida de miles de personas y ha arruinado a millones. Muchos médicos y científicos
han tratado de buscar la verdad sobre el origen de la pandemia y han sido muchos los expertos y ciudadanos que han sido expulsados de su plataforma de Facebook y de Instagram por decir que el virus chino podría haber sido creado en un laboratorio de
Wuhan. Los datos nos los han dado ustedes, hoy, aquí: 18 millones de publicaciones en Facebook e Instagram han sido retiradas por publicar, según ustedes, información errónea relacionada con la COVID, y han etiquetado más de 167 millones de
publicaciones como información falsa, entre ellas, informaciones de presidentes de Estados democráticos, como Estados Unidos y Brasil. Sin embargo, esta semana hemos conocido que Joe Biden ha ordenado a los servicios de inteligencia de Estados
Unidos realizar una investigación sobre el origen del coronavirus, al existir estudios solventes que indican que lo más probable es que la COVID fuese creado en un laboratorio chino. Y ustedes acaban de anunciar que dejaran de cerrar las cuentas
donde se afirmaba que la COVID china pudiera tener un origen en un laboratorio chino; ahora sí, porque lo dice el presidente de los Estados Unidos que ustedes querían.


Mi segunda pregunta es: ¿qué van a hacer ustedes con todo el contenido que han eliminado o han etiquetado como falso? ¿Qué va a hacer con todos los científicos, médicos y periodistas a los que ustedes les han cerrado su cuenta, su
herramienta de trabajo, por decir algo que muy probablemente sea cierto? ¿Qué medidas van a tomar ustedes para que esto no vuelva a suceder?


Y, por último, ustedes dicen que en España han confiado en las verificadoras de Maldito Bulo y Newtral para decir qué es verdad y qué es mentira, pero ¿cuánto dinero les pagan por ese servicio? Se lo digo porque les están estafando, y se lo
puedo demostrar con cientos de ejemplos. Se lo repito: ustedes no están legitimados para decir lo que es verdad o lo que es mentira, y ustedes no pueden estar por encima de la justicia de los países soberanos ni pueden pisotear derechos
fundamentales de los españoles. Y, como tengo todavía treinta segundos, le voy a preguntar si usted sabe qué es esto que le muestro. Esto es la rana Pepe, un símbolo de miles de jóvenes de esta generación que no van a permitir que la izquierda les
imponga cómo pensar y qué decir. Y he de decir que usted, ustedes, responsables de Facebook, eliminan diariamente a muchos jóvenes de su plataforma por defender ideas conservadoras, por defender con orgullo los símbolos nacionales de su país, y le
digo que ustedes podrán matar digitalmente a la rana Pepe, pero no podrán acabar con las ideas de millones de jóvenes conservadores.


El señor PRESIDENTE: Señor Mariscal, voy a hacer dos observaciones a su denuncia. Primero, usted que ha estado en Mesa y Portavoces, no siendo ni lo uno ni lo otro, por dos veces, conoce el sentido de la ponencia, que a su vez ya he
explicado, en particular a su grupo y, por supuesto, a los demás, pero preferentemente a su grupo. Pues bien, su intervención puede haber sido, como dice usted -creo haber oído-, únicamente interesante para ustedes, pero no para el resto de la
comisión. Le hago simplemente una observación porque la palabra le corresponde a otro portavoz. En mi opinión, no sabemos de esta posible querella política que puede ocuparnos a los demás grupos, por mucho que afecte al suyo, y hacemos un trabajo
colectivo; por lo demás, es una cuestión de tiempo, simplemente.



Página 29





Volviendo a la polémica anterior, no dispone usted de diez minutos; en todo caso, los ha consumido. Espero que esté satisfecho. Un grupo no se apropia del tiempo, que se reparte uniforme o proporcionalmente. Le ruego que lo entienda. El
trabajo de una ponencia...


El señor MARISCAL ZABALA: Simplemente, quiero decir una sola cosa...


El señor PRESIDENTE: No le he dado la palabra.


El señor MARISCAL ZABALA: Disculpe, pero ha hecho usted una valoración de mi intervención.


El señor PRESIDENTE: Señor Mariscal...


El señor MARISCAL ZABALA: Yo, que vengo a estas comisiones, sé que en repetidas ocasiones usted ha interrumpido y ha valorado las intervenciones de los diputados de Vox; y solo le quiero decir que en una ocasión le busqué a usted en Google
para saber de qué partido era porque pensaba que era de Podemos o del Partido Socialista. Me fijé, y usted es diputado del Partido Popular y me quedé asombrado de en lo que se ha convertido usted: usted se ha convertido aquí en el mayordomo de la
izquierda.


El señor PRESIDENTE: ¿Qué quiere, que le llame la atención por una, dos y tres veces?


El señor MARISCAL ZABALA: Quiero que deje de valorar las intervenciones de los diputados de Vox y que deje de interrumpirnos, que también lo hace habitualmente. Esto es el Parlamento.


El señor PRESIDENTE: Señor Mariscal, puedo valorarlas por una sola cuestión...


El señor MARISCAL ZABALA: No, no puede.


El señor PRESIDENTE: Sí, sí. No me contradiga. Puedo valorarlas por una sola cuestión: porque lo hago para moderar el debate. Según su intervención, si otro portavoz quisiera hacer la misma práctica, simplemente el compareciente, este
en particular, y, en general, cualquier otro, con toda ley, diría que no son esos los términos acordados por la comparecencia. Podría retirarse en ese momento, podría rehusar contestar, y hasta podría emprender algún tipo de acción pública. Es muy
importante que observemos el procedimiento acordado en esta ponencia y por esta comisión, y por este presidente que les habla, reiterado en la sesión anterior. Si no, señor Mariscal, dejará de estar invitado a las reuniones porque no se hace
responsable de las mismas.


El señor MARISCAL ZABALA: ¿Eso qué quiere decir? (Rumores).


El señor PRESIDENTE: Señor diputado, guarde silencio.


Me refiero a las reuniones de Mesa y Portavoces donde tienen lugar estos acuerdos.


El señor MARISCAL ZABALA: Usted fue jefe de gabinete de Aznar. Cuando la izquierda decía que Aznar era un asesino, ¿qué hacía?


El señor PRESIDENTE: No le he dado la palabra, señor Mariscal.


El señor MARISCAL ZABALA: ¿Qué hacía usted?


El señor PRESIDENTE: Deje de hacer acusaciones personales, porque son absolutamente impropias.


Tiene la palabra el señor Mayoral.


El señor MAYORAL PERALES: Gracias, señor presidente. Seré muy breve.


La verdad es que me ha sorprendido mucho lo poco agradecida que es la extrema derecha con su empresa, después de tanto como le debe...


El señor PRESIDENTE: Señoría, le ruego que no volvamos a la polémica; este presidente espera que nadie más vuelva a hablar de nadie.


El señor MAYORAL PERALES: No he aludido a nadie. He hablado de la extrema derecha, que es un concepto mucho más amplio que el de una formación política ¿sabe usted?



Página 30





El señor PRESIDENTE: Sin duda, pero dada la simultaneidad en el tiempo entre una intervención y otra...


El señor MAYORAL PERALES: Muy bien, pues no voy a intervenir.


Muchísimas gracias, señor presidente.


El señor PRESIDENTE: Gracias.


Tiene la palabra el señor Gutiérrez Vivas.


El señor GUTIÉRREZ VIVAS: Gracias, señor presidente. Buenas tardes.


Muchísimas gracias, señor Serrano, por su intervención. La verdad es que era muy necesario. Es importante escuchar la voz de una de estas grandes plataformas, porque, al final, como hemos visto en todas las comparecencias anteriores,
lógicamente, tienen una enorme responsabilidad. Por cierto -corríjame, porque probablemente yo esté absolutamente equivocado-, me ha parecido que al principio de su intervención se sacudían un poquito de encima esta responsabilidad diciendo que a
ustedes no les corresponde el papel de decidir y de comentar qué es y qué no es cierto. Esas han sido sus palabras literales.


Como digo, creo que eso es sacudirse un poco la responsabilidad, señor Serrano, porque, al final, Facebook y sus plataformas, como Instagram, son como un gran parque de atracciones al que ustedes dan la entrada, pero luego parece que no
quieren responsabilizarse de lo que pasa dentro del parque. Seguramente ha sido este portavoz quien lo ha entendido mal. Usted ha dicho eso, pero a lo mejor lo quería decir de otra manera o usted no interpreta lo que ha dicho como yo, pero a mí me
parece que se quieren sacudir en cierta manera la responsabilidad. Es verdad que ustedes están llevando a cabo acciones, como nos ha comentado, que sin duda son muy beneficiosas, pero yo no hablo de las acciones, sino de la responsabilidad. En ese
sentido, me gustaría saber por qué aún no se ha legislado sobre esto, y no estoy pensando en que se tenga que legislar, pero es una posibilidad que existe ahí. Desde luego, nosotros creemos que ese sería un caso extremo y el último al que habría
que llegar, pero me gustaría que usted valorara el tema de la responsabilidad, porque me parece muy importante.


En segundo lugar -no voy a hacer más preguntas-, en esa relación -si ustedes la tienen, que entiendo que sí, por supuesto- con las fuerzas y cuerpos de seguridad del Estado -creo que algo le ha preguntado en este sentido el compañero del
Partido Popular- me gustaría ir un poco más allá, porque esa relación también debe estar regulada de alguna manera. En estos momentos no hay nada en nuestro ordenamiento jurídico que así lo haga, por tanto, parece que queda en manos de la buena
voluntad de su empresa, y me gustaría que esto, lógicamente, no pueda depender de las buenas o malas voluntades cuando estamos hablando de cosas que al final afectan a la seguridad del Estado y a la seguridad de los ciudadanos también. Quisiera
saber cómo entiende usted este tipo de relación, cómo la ve, hasta dónde piensan ustedes que pueden llegar, hasta dónde entenderían que debe llegar el Estado.


No voy a comentar nada más. Muchísimas gracias, presidente.


El señor PRESIDENTE: Señor Legarda, por favor.


El señor LEGARDA URIARTE: Muchas gracias. Intervendré muy brevemente, presidente, solo para una cuestión.


Le agradezco al compareciente lo extenso, intenso e interesante de su exposición, y paso a formularle una pregunta. Si ha tenido ocasión de seguir al anterior compareciente habrá visto que decía que una de las líneas maestras de actuación
de la Unión respecto a las plataformas está en exigir la transparencia y, dentro de la transparencia, la demanda o petición de que las plataformas -sobre todo, las grandes- abran las puertas a los investigadores para que puedan ver cómo funciona el
sistema, cómo funcionan los algoritmos, cómo reconducen.


Mi pregunta concreta sería cómo afrontan ustedes esta demanda estratégica de la Unión de que se abran las plataformas a los investigadores para que conozcan, digamos, los entresijos matemáticos e informáticos del fluir de esta información.


Muchas gracias.


El señor PRESIDENTE: Tiene la palabra el compareciente. Adelante.



Página 31





El señor SERRANO PEÑA (mánager de Políticas Públicas para España y Portugal de Facebook): Muchas gracias, señorías, por sus preguntas. Voy a intentar ordenarlas un poco y abordar las diferentes cuestiones que ustedes han planteado.


Señor Rodríguez, vicepresidente, hablaba usted de la importancia del tiempo de reacción, que es crítico -desde luego, lo es-, de cómo responde Facebook dependiendo de la amenaza, pero, por supuesto, con la mayor inmediatez. Les comentaba
antes ese informe de transparencia sobre las operaciones de influencia que hemos desmantelado en los últimos años. Ahí pueden ustedes encontrar toda la información, pero estamos completamente de acuerdo en que este tipo de situaciones requiere una
detección temprana y una acción inmediata. Este es el objetivo, y de ahí la importancia también de colaboración entre todos los actores, colaboración a la que apelaba en mi intervención.


Con respecto a los datos de usuarios, a nivel global nos indican que hay 2700 millones de usuarios que usan alguna de las aplicaciones cada mes. Este es el dato público que tenemos, lamento no tener aquí disponible una información más
detallada. Sobre las reuniones, contactos o interlocuciones, le diré que nosotros mantenemos interlocución con todos los diferentes actores de Gobierno a nivel europeo y a nivel estatal, con representantes -diputados, senadores y senadoras- de
partidos políticos en la normal actividad. Y en cuanto a la relación, tuve la oportunidad de escuchar la semana pasada al señor Ballesteros, que hablaba de ese grupo que se ha creado, en el que se incluye a fact checkers, a plataformas como la
nuestra y otras, a académicos. Nosotros saludamos este tipo de iniciativas y creemos que son foros muy positivos de aprendizaje y de oferta de recomendaciones. De hecho, estos grupos trabajarán una serie de áreas -que comentó el señor Ballesteros-
de alfabetización mediática, protección de elecciones, etcétera. Así que estamos presentes, lo estaremos, y participaremos activamente, como no podría ser de otra manera. Por supuesto, sabrá usted que a nivel de la Unión Europea somos miembros de
códigos europeos sobre la desinformación, sobre el discurso de odio, y todo un entramado de ámbitos o foros corregulatorios o autorregulatorios que, desde luego, creemos que son muy positivos para ese objetivo común que tenemos, que es la lucha
contra la desinformación en los diferentes ámbitos.


Le pondré otro ejemplo. Me preguntaba por la inmediatez. Bien, cambiando un poco, haré solo una referencia a ese código europeo contra el discurso de odio, que hace informes cada cierto tiempo sobre cómo las diferentes entidades firmantes
van evolucionando o cómo de bien o mal hacen su función. Y realmente Facebook ha ido mejorando. Analizamos el 95 % de las denuncias en el marco del discurso de odio durante las primeras veinticuatro horas y, obviamente, se tomó la acción apropiada
o adecuada en base a ese análisis. Es cierto que en Instagram el resultado no fue tan positivo, por lo que habrá que seguir trabajando. En cualquier caso, el mensaje que le quiero trasladar es que la inmediatez es fundamental y, desde luego, todos
nuestros esfuerzos van a ser lo más rápidos y eficaces posible.


El señor diputado del Partido Popular, el señor Cortés, nos hablaba de la posibilidad de incluir formación en las redes sociales. He hablado brevemente sobre los diferentes programas educativos en el campo de la alfabetización mediática,
pero hay muchos más en otros ámbitos, como seguridad de menores, promoción del desarrollo económico, empleabilidad, empresas... Nosotros estamos encantados de valorarlo. A lo largo de mi intervención he repetido varias veces que la formación y la
educación son fundamentales y, desde luego, ahí siempre nos encontrarán.


En cuanto a la colaboración con el Ministerio del Interior, Facebook, como cualquier otra empresa, colabora con las fuerzas y cuerpos de seguridad del Estado de manera regular en investigaciones, que obviamente no se pueden detallar, para
asegurar la seguridad, valga la redundancia, de los ciudadanos. En ningún caso hay un mandato de eliminar tal contenido u otro por ningún ministerio de ningún Gobierno, al menos hasta donde llega mi conocimiento, más allá de los canales habituales
de denuncia que les he explicado, que, por supuesto, están disponibles para cualquier persona, o con organizaciones con las que podamos trabajar en determinados ámbitos, habitualmente de la sociedad civil, como pueden ser esos trusted flaggers o
entidades de confianza, que pueden poner en conocimiento determinadas piezas de contenido o contenidos que potencialmente infringieran las normas de la comunidad en diferentes ámbitos, y aquí me centraré sobre todo en la desinformación.


Señor Mariscal, me hablaba usted de la censura, de la no libertad que permite. Facebook -lo sabe usted, lo he explicado, y esto aplica a la desinformación en este caso, pero también a las otras áreas- permite la libertad de expresión; la
permite y la defiende firmemente, si bien es cierto que existen unas normas comunitarias que tratan de evitar que el debate libre y público derive en algunos casos, como hablábamos, en desinformación que pueda generar un daño en la salud, en un
contenido que incite al



Página 32





odio, a la violencia, o en cualquiera de los muchos ámbitos. Yo no soy una persona experta, por ejemplo, en temas de odio, pero en Facebook se permite hablar sobre la emigración. Es perfectamente lícito opinar sobre si hay o no hay
demasiado o si se puede, pero lo que no se puede es incitar al odio. No hablo de ningún caso concreto, estoy hablando, por supuesto, en términos generales.


Las normas comunitarias a las que he hecho referencia, estas normas de la comunidad, evolucionan con el tiempo en base a la investigación científica, a la evidencia, a las conversaciones con expertos, y son documentos vivos. Me hablaba de
algunos cambios que hemos introducido recientemente. Efectivamente, esta política ha cambiado y no se elimina ese contenido que discute esa posibilidad sobre el virus. Eso se publicó la semana pasada y es así. Se ha hecho este cambio. Se
evoluciona en base a la evidencia científica, y en este caso será así. Creo que con esto he contestado a sus cuestiones.


Señor Gutiérrez, también muchísimas gracias por su intervención y sus comentarios. Como usted dice, quizás haya sido yo quien no lo haya expresado bien o con la suficiente claridad. Por supuesto, no nos sacudimos ninguna responsabilidad
sobre lo que pasa en nuestras plataformas. El matiz aquí -y en esto me gustaría ser claro, por supuesto respetando que se discrepe- es que nosotros entendemos que no podemos ser esos árbitros de la verdad. Nosotros no podemos decidir, muchas veces
porque no tenemos los elementos de juicio y otras, porque entendemos que es un rol que no le corresponde a una red social. Esto no quiere decir que no tengamos la responsabilidad de tomar acción respecto a los contenidos en los diferentes ámbitos
que he ido desgranando en mi intervención. Pero en el caso del contenido falso que no contraviene nuestras normas de la comunidad -es este caso específico, el que reducimos- nos basamos en entidades verificadoras de datos, y hasta la fecha es el
sistema con el que trabajamos. Y son las entidades que encontramos más adecuadas para llevar a cabo esa labor de verificación, más allá de una plataforma o una empresa privada, porque entendemos que no es nuestro rol entrar en esos ámbitos.


Me hablaba usted también de la posibilidad de regulación. Nosotros llevamos ya algunos años pidiendo activamente la regulación: pedimos que se establezcan e introduzcan unas normas claras sobre esa moderación que hay que hacer en unos
casos y en otros y sobre los diferentes grados de responsabilidad que pueden tener los distintos actores, incluidas plataformas o cualquiera de los otros que interactúan. Como usted sabe, en estos momentos se está debatiendo a nivel de la Unión
Europea la famosa Digital Services Act, que precisamente actualizará ese marco de responsabilidad respecto a la moderación de contenidos, contenidos dañinos, contenidos ilegales, etcétera. Creemos que es el marco idóneo para introducir este tipo de
normas. Por supuesto, estamos participando en este proceso, como en cualquier proceso legislativo democrático habitual, para que se establezcan este tipo de normas que ofrezcan una seguridad yo diría que casi jurídica a la hora de actuar y, a la
vez -creo que es importante- que no se coarte o limite la innovación de nuevos productos y nuevas compañías, especialmente en el ámbito tecnológico, que, como sabe, evoluciona a gran velocidad.


Nosotros sí pedimos, y creo que esto también es importante, que cualquier iniciativa regulatoria haga una distinción precisamente entre estos dos ámbitos de desinformación que comentaba en mi comparecencia. Entendemos que no es lo mismo la
misinformation, esa información falsa. Creo, como decía, que es importante establecer normas claras de moderación de contenidos, pero hay que ser muy cuidadosos a la hora de no limitar el derecho a la libertad de expresión. Es un equilibrio
complejísimo que, desde luego, esperamos que se logre.


Además de normas de regulación, entendemos que son importantes también la auto y la corregulación. Creemos que estos códigos de conducta, códigos europeos sobre desinformación en este caso -hay otros: aludía antes al relativo al discurso
de odio-, son un buen foro para compartir experiencias, para colaborar con reguladores, con otras entidades, con otras empresas del ámbito tecnológico, pero también con fact checkers académicos. Esto es fundamental, pensamos que es un buen marco.
La Comisión Europea hace unos días publicó una comunicación para la actualización de este código, que estamos viendo y que nosotros apoyamos. Creo recordar que hablaba precisamente de poner más énfasis -se recordará- cuando se refería a conectar
directamente, a exponer directamente a las personas a estas fuentes de información veraz como una vía eficaz para luchar contra esto. Y luego, obviamente, que las personas adultas, una vez informadas, conformen su opinión libremente.


Y hay dos áreas en las que estaré encantado de aportar información adicional. Entendemos que hacen falta normas más claras en anuncios políticos. Hablé antes de las medidas de transparencia, pero creo que esto es muy importante y hemos
pedido regulación aquí. También European Democracy Action Plan está debatiendo este tipo de medidas, pero es fundamental quién paga el anuncio, quién lo ha visto



Página 33





y el gasto, como decía en mi intervención, y un mayor control a los usuarios sobre qué ven y por qué lo ven -les he hablado de la herramienta para preguntarse por qué estoy viviendo esto y la posibilidad de controlar no querer ver más este
tipo de contenido, este tipo de anuncios-. Repito que es fundamental. Y lo mismo para las operaciones de influencia. Estaremos encantados de compartir una serie de principios legislativos que versan sobre definiciones de comportamiento malicioso,
promoción de buenas prácticas en transparencia, la imposición de mayores costes a los actores que están detrás de esas operaciones de influencia y para impulsar una mayor compartición de información entre sectores y actores.


Y con esta compartición hago un poco la transición con usted, señor Legarda. De nuevo, gracias por su pregunta. Creemos que es importante avanzar hacia más transparencia y cómo ordenar los contenidos, si no he apuntado mal a lo que aludía
usted. Hablaba, por ejemplo, de estas herramientas, de por qué estoy viendo esto, etcétera, para que la gente entienda cómo se ordena su contenido. Y respecto a la necesidad de colaborar más con el ámbito de la investigación, no podríamos estar
más de acuerdo con usted. Llevamos años colaborando en distintas medidas con el ámbito académico. Esto tiene una serie de desafíos a la hora de compartir datos que pueden ser, por ejemplo, sensibles. Como sabe, hay una normativa sobre protección
de datos y otros ámbitos y hay que encontrar los mecanismos correctos, pero desde luego creemos que es fundamental y esta es nuestra línea de colaborar más con los investigadores y académicos.


Terminaré diciéndole que recientemente nos hemos unido al European Digital Media Observatory, que precisamente tiene un grupo de trabajo sobre el artículo 40 del GDPR, el famoso Reglamento General de Protección de Datos, para estudiar o
elaborar un código de conducta sobre cómo compartir datos entre las plataformas y los investigadores de forma segura y respetuosa, obviamente con la privacidad de los usuarios.


Con esto espero haber cubierto todos los temas. Muchísimas gracias.


El señor PRESIDENTE: Esperemos que sí. En todo caso, que no sea esta la última ocasión en que tengamos relación con usted los miembros de la ponencia y de la comisión.


Muchas gracias a todos los portavoces. Hay una próxima sesión de la ponencia el día 15 de junio en el Congreso, cuyo orden del día ya está en marcha, con otros dos comparecientes.


Muchísimas gracias, señor Serrano, de Facebook, y a los demás.


Se levanta la sesión.


Eran las catorce horas y treinta y dos minutos.