April 27, 2026

Las noticias de Herrero: Expertos presentan 70 evidencias del "hackeo cerebral" que las pantallas provocan en niños

Las noticias de Herrero: Expertos presentan 70 evidencias del "hackeo cerebral" que las pantallas provocan en niños
Spotify podcast player badge
RSS Feed podcast player badge
Spotify podcast player iconRSS Feed podcast player icon
Luis Herrero entrevista a Francesc Feliú, abogado del espacio jurídico Feliú Fins, que representa legalmente a una moderadora de contenido de Tik Tok.
WEBVTT

1
00:00:00.090 --> 00:00:06.849
En

2
00:00:06.889 --> 00:00:14.320
casa de Herrero, con Luis

3
00:00:15.380 --> 00:00:18.140
Herrero,

4
00:00:18.199 --> 00:00:21.199
es radio. 25 minutos, faltan amigos para que sean las 5

5
00:00:21.460 --> 00:00:24.280
de la tarde, las 4 en la Comunidad Canaria. Hoy de

6
00:00:24.339 --> 00:00:28.079
los 7 nombres raros que nos ofrece el Santoral, solo me

7
00:00:28.120 --> 00:00:32.320
atrevo a mojarme en 3. Creo que no hay ningún polión,

8
00:00:33.380 --> 00:00:36.780
creo que no hay ningún macaldo y creo que no

9
00:00:36.799 --> 00:00:40.560
hay ningún antimo. Pero no tengo nada claro que no

10
00:00:40.600 --> 00:00:44.950
haya ningún liberal, que no haya ninguna cita, que no

11
00:00:44.990 --> 00:00:47.409
haya ninguna franca y que no haya ninguna meruvina.

12
00:00:48.049 --> 00:00:50.289
Bueno, pues ahí has acertado en algunas, en otras no.

13
00:00:51.049 --> 00:00:52.750
Vamos por orden polión, has dicho que no y no

14
00:00:52.789 --> 00:00:56.600
hay ninguno, no hay poliones. Liberal has dudado, liberal no hay,

15
00:00:56.780 --> 00:00:59.759
ningún liberal, yo pensé que sí que habría alguno. Macaldos

16
00:00:59.859 --> 00:01:04.400
no hay, has acertado. Ántimo, o antimo, antimo sería, has

17
00:01:04.439 --> 00:01:05.799
dicho que no.

18
00:01:06.560 --> 00:01:07.040
He dicho que no

19
00:01:07.079 --> 00:01:12.120
me mojaría. Y sí que hay. 57, Antimo, 61 años de media,

20
00:01:12.310 --> 00:01:16.530
muchos en Valladolid. Citas, sí que hay, 188, cita como nombre,

21
00:01:16.590 --> 00:01:21.950
no como apodo, en Asturias y Alicante, Franca, sí, 218, muchas

22
00:01:21.989 --> 00:01:24.769
en Canarias, y Merubinas, que has dicho que no había,

23
00:01:25.090 --> 00:01:26.409
pues no había. O sea

24
00:01:26.489 --> 00:01:27.959
que solo he cometido un fallo de 7. Antimo

25
00:01:28.489 --> 00:01:28.810
Antimo,

26
00:01:28.859 --> 00:01:31.879
ahí has fallado. Solo de 7 es un porcentaje elevadísimo, no

27
00:01:31.900 --> 00:01:33.859
es por nada. Bueno,¿ y de qué se está hablando

28
00:01:33.879 --> 00:01:36.980
en las redes sociales? Pues saben ustedes que siempre la

29
00:01:37.019 --> 00:01:40.200
política y el deporte suelen estar ahí en los trending

30
00:01:40.219 --> 00:01:42.879
topics y hoy no podemos hablar de deporte porque no

31
00:01:42.920 --> 00:01:45.840
es exactamente un comportamiento deportivo el que se está comentando.

32
00:01:46.599 --> 00:01:50.200
El bofetón, el puñetazo que le asestó el portero del

33
00:01:50.269 --> 00:01:53.890
Zaragoza al jugador del Huesca que según el portero había

34
00:01:53.930 --> 00:01:56.620
hecho mucho teatro y que les costó un pelote. Esto

35
00:01:56.640 --> 00:01:57.980
es lo que más está comentando.

36
00:01:58.200 --> 00:02:02.290
De hecho, el portero del Zaragoza se llama Esteban Andrada

37
00:02:02.329 --> 00:02:06.849
y es hashtag Andrada, que fue expulsado y después de expulsarle,

38
00:02:06.870 --> 00:02:09.469
en lugar de irse al vestuario, fue a darle un

39
00:02:09.550 --> 00:02:13.520
puñetazo a Jorge Pulido. Todo ocurrió delante del árbitro, de

40
00:02:13.560 --> 00:02:18.080
los medios, del público, se montó una tangana, todos empujándose,

41
00:02:18.120 --> 00:02:21.659
dándose patadas y tuvo que entrar la Policía Nacional. Entonces, bueno,

42
00:02:21.740 --> 00:02:24.370
los narradores no sabían qué decir exactamente y se ha

43
00:02:24.389 --> 00:02:27.069
hecho muy viral la frase, no por Dios.

44
00:02:40.259 --> 00:02:43.960
Y luego Andrada agredido, aburrido. Es que era una batalla

45
00:02:44.039 --> 00:02:44.439
campal.

46
00:02:44.460 --> 00:02:47.180
Era una batalla campal. Le metió un gancho con el guante,

47
00:02:47.460 --> 00:02:49.189
es que es tremendo, parece un combate de boxeo.

48
00:02:49.310 --> 00:02:52.610
Sí, Andrada por su parte pidió disculpas públicamente y reconoció

49
00:02:52.650 --> 00:02:55.949
que se desconectó, asegurando que está muy arrepentido. Pero decía

50
00:02:55.969 --> 00:02:56.050
que

51
00:02:56.069 --> 00:02:57.590
era su colega también, que era nadie.

52
00:02:58.069 --> 00:02:59.889
Sí, eso es lo que no está muy claro, pero

53
00:02:59.930 --> 00:03:03.539
al parecer se llevan bien, entonces puede ser real que desconectó,

54
00:03:03.699 --> 00:03:07.300
disoció un poco la realidad. Y bueno, comentarios hay de todo,

55
00:03:07.340 --> 00:03:10.199
hay algunos con humor, aunque no tenga ni puñetera gracia,

56
00:03:10.280 --> 00:03:12.800
pero por ejemplo dice un usuario, primera vez que Andrada

57
00:03:12.860 --> 00:03:16.569
sale bien de puños. Esta temporada. El resto ya son

58
00:03:16.629 --> 00:03:20.009
de indignación. Esto es una vergüenza. Qué vergüenza. Qué ganas

59
00:03:20.050 --> 00:03:23.689
de ver mañana la detención en su domicilio. Otro muy

60
00:03:23.750 --> 00:03:28.930
contundente proponiendo una sanción. Sanción histórica. Inhabilitación de por vida.

61
00:03:28.949 --> 00:03:31.719
Que se busque otro oficio. Que se ponga a trabajar

62
00:03:31.780 --> 00:03:35.259
en el campo. De la sanción no sabemos nada, pero... Bueno,

63
00:03:35.300 --> 00:03:37.379
en el campo no de fútbol, sino en el campo

64
00:03:37.419 --> 00:03:40.300
de la huerta. Y de sanción no sabemos nada, pero

65
00:03:40.340 --> 00:03:42.539
le pueden caer hasta 15 partidos por el puñetazo.

66
00:03:43.039 --> 00:03:44.659
Bueno, pues ya veremos lo que le pasa, pero bueno,

67
00:03:44.800 --> 00:03:46.840
él sí está muy arrepentido, lo digo porque he oído

68
00:03:46.900 --> 00:03:49.919
sus declaraciones. No sé hasta qué punto eso le va

69
00:03:49.960 --> 00:03:50.560
a aliviar. Hombre, tampoco

70
00:03:50.580 --> 00:03:52.379
vas a salir luego sacando pecho, ¿no? O sea, es

71
00:03:52.400 --> 00:03:53.360
que es injustificable.

72
00:03:53.419 --> 00:03:55.020
Bueno, hombre, pero a la hora de pedir disculpas ya

73
00:03:55.080 --> 00:03:56.819
sabes que hay muchas maneras de pedirlas.

74
00:03:57.280 --> 00:03:58.740
Con la boca pequeña y este hombre lo ha

75
00:03:58.759 --> 00:04:01.120
reconocido. Este hombre, pues por lo menos ha entendido que

76
00:04:01.139 --> 00:04:03.599
lo que ha hecho no es razonable. Y también se

77
00:04:03.620 --> 00:04:06.710
está hablando mucho de la infanta Leonor, porque ya sabemos

78
00:04:06.770 --> 00:04:09.050
lo que va a estudiar cuando acabe en el ejército.

79
00:04:09.729 --> 00:04:12.530
Y además sabemos también dónde va a estudiar y además

80
00:04:12.610 --> 00:04:15.000
sabemos lo que opinamos a propósito de esas dos cuestiones.

81
00:04:15.500 --> 00:04:17.560
Hoy la Casa Real en un comunicado ha anunciado que

82
00:04:17.600 --> 00:04:20.800
la princesa de Asturias cursará el grado de Ciencias Políticas

83
00:04:20.819 --> 00:04:23.879
en la Universidad Carlos III de Madrid. Y bueno, ha

84
00:04:23.899 --> 00:04:26.879
sido una sorpresa, Luis, porque lo previsible habría sido que

85
00:04:26.930 --> 00:04:30.550
Leonor hubiera seguido la moda. Y he escogido un doble grado,

86
00:04:30.629 --> 00:04:34.069
por ejemplo, el de Estudios Internacionales y Ciencias Políticas o

87
00:04:34.089 --> 00:04:37.009
el de Derecho y Ciencias Políticas, pero se ha salido

88
00:04:37.050 --> 00:04:40.269
del guión y va a matricularse en un grado simple

89
00:04:40.290 --> 00:04:44.379
que dura cuatro años, como todos los grados, y que

90
00:04:44.420 --> 00:04:47.040
le piden solamente una nota de nueve y medio de

91
00:04:47.100 --> 00:04:50.779
nota de corte sobre catorce en la selectividad. Esto también

92
00:04:50.800 --> 00:04:53.779
lo están haciendo. preguntando en redes, dicen si Leonor va

93
00:04:53.800 --> 00:04:56.459
a tener que hacer la selectividad como todos los alumnos,

94
00:04:57.240 --> 00:05:01.800
se quejan de que su entrada sea... adelantada y libre

95
00:05:01.839 --> 00:05:03.660
por así decirlo... aunque sí que hay otros que sí

96
00:05:03.680 --> 00:05:06.100
que dicen gran elección... la Carlos III es una de

97
00:05:06.139 --> 00:05:10.019
las mejores universidades... en ciencias políticas... Leonor va a por

98
00:05:10.139 --> 00:05:13.519
todas como futura reina... estudiará como una alumna más... en

99
00:05:13.579 --> 00:05:17.759
una universidad pública... sin privilegios como su padre... y bueno,

100
00:05:17.779 --> 00:05:20.870
algunos comentarios más irónicos... que sí que dicen ciencias políticas...

101
00:05:20.959 --> 00:05:23.610
para aprender a lidiar con el gobierno... suerte princesa... o

102
00:05:24.209 --> 00:05:27.949
Leonor Engetafe de la Academia del Aire... a los atascos madrileños...

103
00:05:28.050 --> 00:05:32.069
bienvenida a la Universidad Real... o princesa en getafe suena

104
00:05:32.089 --> 00:05:33.079
a comedia dosmilera

105
00:05:33.370 --> 00:05:34.730
dice. De todos modos, yo no sé cómo va a

106
00:05:34.769 --> 00:05:37.850
estudiar Leonor como una alumna más, porque imagino que tendrá

107
00:05:37.870 --> 00:05:40.750
escolta y lo que hablábamos antes en la redacción, que

108
00:05:40.769 --> 00:05:43.529
era con los móviles, cualquiera puede grabar a Leonor haciendo

109
00:05:43.569 --> 00:05:46.790
una exposición en la clase, o no sé, es que

110
00:05:46.910 --> 00:05:48.949
tendrá alguna escolta que vigile todo eso, imagino.

111
00:05:49.129 --> 00:05:51.730
Bueno, ese mismo riesgo lo ha corrido en el Cano,

112
00:05:51.750 --> 00:05:53.550
por ejemplo, quiero decir que también ahí... Sí, pero eso

113
00:05:53.569 --> 00:05:53.629
es

114
00:05:53.670 --> 00:05:55.889
un ambiente militar que es más difícil que una universidad

115
00:05:55.949 --> 00:05:57.850
pública donde está lleno de chavales con móviles.

116
00:05:58.449 --> 00:06:01.480
Bueno, supongo que de todas formas ya se enterarán los

117
00:06:01.519 --> 00:06:05.000
compañeros del ENOR. Ya nos daremos cuenta. No tengas ninguna duda. Bueno,¿

118
00:06:05.459 --> 00:06:07.220
y saben ustedes lo que me ha sorprendido? Yo creía

119
00:06:07.240 --> 00:06:09.500
que iba a estar mucho más arriba en el catálogo

120
00:06:09.560 --> 00:06:15.259
de Trending Topics lo del atentado frustrado contra el presidente norteamericano,

121
00:06:15.279 --> 00:06:18.230
contra Donald Trump, pero… Cuando he preguntado, me parece que

122
00:06:18.269 --> 00:06:20.129
estaba en el puesto 25 y de ahí no ha pasado,

123
00:06:20.269 --> 00:06:21.439
tengo entendido, ¿no? No,

124
00:06:21.560 --> 00:06:23.459
no ha pasado de ahí. Lo que pasó, bueno, es

125
00:06:23.500 --> 00:06:26.220
que se celebró una cita en el Hotel Washington Hilton

126
00:06:26.300 --> 00:06:30.199
contra su esposa Melania y demás personalidades públicas. En pleno

127
00:06:30.290 --> 00:06:34.529
acto se escucharon disparos dentro del propio salón y la

128
00:06:34.589 --> 00:06:37.310
policía enseguida ordenó a desalojar.

129
00:06:37.949 --> 00:06:39.009
Bueno, ya sé, ya sé.

130
00:06:43.069 --> 00:06:46.459
Un hombre armado fue interceptado en un punto del control

131
00:06:46.480 --> 00:06:48.600
de seguridad del hotel y ahora mismo de lo que

132
00:06:48.660 --> 00:06:51.519
se está hablando son de los momentos que ayer no

133
00:06:51.579 --> 00:06:54.240
eran virales. Por ejemplo, que un señor, cuando la policía

134
00:06:54.259 --> 00:06:57.259
estaba pidiendo que la gente se pusiese debajo de la mesa,

135
00:06:57.339 --> 00:07:00.199
pues siguió comiendo de pie el menú, no se inmutó

136
00:07:00.230 --> 00:07:03.329
y hoy este vídeo es viral. Después la mujer de

137
00:07:03.449 --> 00:07:05.910
Charlie Kirk, asesinado en septiembre en Utah, también se ha

138
00:07:05.930 --> 00:07:09.009
hecho hoy viral porque salió del salón muy afectada, llorando

139
00:07:09.089 --> 00:07:12.009
y sollozando, pidiendo que la llevasen a su casa. Y

140
00:07:12.089 --> 00:07:14.649
otra cosa que se comenta mucho es que parece que

141
00:07:14.709 --> 00:07:17.009
la seguridad de la Casa Blanca solo se centró en

142
00:07:17.060 --> 00:07:19.120
Donald Trump y Melania se quedó debajo de la mesa

143
00:07:19.139 --> 00:07:20.639
y nadie parece que fue a por ella

144
00:07:20.740 --> 00:07:22.600
Es que parece que muchas de las esposas se quedaron

145
00:07:22.639 --> 00:07:24.920
debajo de la mesa, de las esposas de los mandatarios,

146
00:07:24.939 --> 00:07:27.660
y mucho tiempo después, bueno, mucho tiempo no, pero un

147
00:07:27.699 --> 00:07:30.500
poco más tarde ya fueron preguntando¿ dónde está la mujer

148
00:07:30.519 --> 00:07:31.939
de no sé quién? Y en

149
00:07:32.019 --> 00:07:34.899
sí me sorprende porque la mayoría de comentarios son de

150
00:07:34.959 --> 00:07:37.660
gente asegurando que es puro teatro, que era un montaje.

151
00:07:38.810 --> 00:07:38.860
Bueno

152
00:07:38.930 --> 00:07:40.199
ya sabes que

153
00:07:40.829 --> 00:07:41.410
Ya, en redes al final

154
00:07:41.569 --> 00:07:44.060
La imaginación no es un órgano de la verdad. Bueno,

155
00:07:44.100 --> 00:07:46.300
déjenme que les cuente algo que sí que nos interesa mucho.

156
00:07:46.800 --> 00:07:49.600
Seguro que no les sorprende si les digo que las

157
00:07:49.699 --> 00:07:52.420
pantallas no son buenas para los menores. Bueno, no son

158
00:07:52.500 --> 00:07:55.250
buenas para nadie, sobre todo si hay sobredosis de pantalla,

159
00:07:55.310 --> 00:07:58.449
pero especialmente no sirve para los menores. Pero les voy

160
00:07:58.470 --> 00:08:01.589
a dar un dato que creo que sí que va a,

161
00:08:01.649 --> 00:08:04.689
o por lo menos debería hacer que atiendan con un

162
00:08:04.750 --> 00:08:10.910
cierto interés. Las 13 sociedades científicas de nuestro país, las 13 todas,

163
00:08:11.870 --> 00:08:15.259
han llegado a la conclusión de que las pantallas están

164
00:08:15.319 --> 00:08:18.800
ejerciendo sobre los menores muchos más efectos negativos de los

165
00:08:18.860 --> 00:08:23.230
que pensamos y en concreto han sido capaces de catalogar

166
00:08:23.730 --> 00:08:27.759
Hasta 70 evidencias que ponen de manifiesto que esta denuncia no

167
00:08:27.899 --> 00:08:30.779
es una denuncia a humo de pajas. Lorena López Lobo.

168
00:08:30.860 --> 00:08:33.259
Así es Luis, ya no son medias sospechas, no es

169
00:08:33.279 --> 00:08:35.919
una percepción de los profesionales sobre el impacto negativo que

170
00:08:36.059 --> 00:08:38.990
tiene el uso compulsivo de pantallas en los menores, sino

171
00:08:39.049 --> 00:08:42.110
que hablamos de una realidad con cifras y datos precisos.

172
00:08:42.210 --> 00:08:45.990
Un completo dosier con 70 evidencias entregado en el Congreso la

173
00:08:46.029 --> 00:08:50.940
semana pasada por pediatras, neurólogos, psiquiatras y psicólogos que demuestran

174
00:08:51.000 --> 00:08:53.620
que se está produciendo... un problema de maduración cerebral... en

175
00:08:53.679 --> 00:08:57.399
niños y adolescentes... por este uso abusivo de nuevas tecnologías...

176
00:08:57.820 --> 00:09:01.159
pediatras como María Angustia Salmerón... presidenta de la Sociedad Española

177
00:09:01.179 --> 00:09:04.720
de Medicina de la Adolescencia... reconoce que ella en su consulta...

178
00:09:04.740 --> 00:09:07.720
ve a bebés de dos añitos en su carro con

179
00:09:07.759 --> 00:09:08.139
el móvil.

180
00:09:08.500 --> 00:09:12.000
Cuando vienen niños con un trastorno generalizado del desarrollo... pues

181
00:09:12.019 --> 00:09:15.529
porque tienen un cierto retraso en el lenguaje... cierto retraso,

182
00:09:16.409 --> 00:09:19.669
bueno pues... los primeros pasos en la deambulación... le preguntamos

183
00:09:19.690 --> 00:09:21.909
a los padres si usan pantallas... y si usan las

184
00:09:21.950 --> 00:09:24.129
pantallas le quitamos las pantallas... y le decimos que venga

185
00:09:24.169 --> 00:09:25.710
un mes más tarde... y volvemos a reevaluar.

186
00:09:26.490 --> 00:09:28.470
Hablan de un problema de salud pública... del que la

187
00:09:28.509 --> 00:09:32.220
sociedad debe protegerse... entre las consecuencias de esta sobreexposición... se

188
00:09:32.820 --> 00:09:37.220
encuentra una menor actividad física... aislamiento, dificultades para dormir... problemas

189
00:09:37.279 --> 00:09:39.860
en las habilidades sociales y emocionales... pero es que además...

190
00:09:40.299 --> 00:09:43.100
se han observado cambios en la estructura del cerebro... una

191
00:09:43.179 --> 00:09:45.779
disminución de la corteza cerebral en algunas áreas.

192
00:09:46.080 --> 00:09:47.830
La media son más de seis horas al día... por

193
00:09:47.870 --> 00:09:49.879
parte de la gente joven... Si lo sumas a la

194
00:09:49.940 --> 00:09:53.600
digitalización de la enseñanza, estamos hablando de problemas de atención,

195
00:09:53.879 --> 00:10:00.350
problemas en el neurodesarrollo, problemas comportamentales, déficit intelectual 7 puntos menos

196
00:10:00.450 --> 00:10:02.580
cada 10 años y hay que hacer algo y hay que

197
00:10:02.620 --> 00:10:03.820
hacerlo ya y rápido.

198
00:10:04.409 --> 00:10:06.370
Hay alarma entre los expertos que ya han empezado a

199
00:10:06.409 --> 00:10:09.450
organizarse y han puesto en marcha la plataforma Control Z,

200
00:10:09.850 --> 00:10:12.649
que agrupa una quincena de sociedades médicas y otras tantas

201
00:10:12.669 --> 00:10:16.590
de la sociedad civil. Sus representantes, con su presidenta Mar España,

202
00:10:16.610 --> 00:10:18.990
la que escuchábamos ahora a la cabeza, son los que

203
00:10:19.009 --> 00:10:21.789
el pasado martes se reunieron con los distintos grupos políticos,

204
00:10:22.049 --> 00:10:25.250
con todos los grupos políticos, para trasladarles su preocupación. Y

205
00:10:25.710 --> 00:10:28.649
son muy claros, ellos dicen que estamos ante el mayor

206
00:10:28.789 --> 00:10:30.809
hackeo cerebral de la historia de la humanidad.

207
00:10:31.350 --> 00:10:33.769
Permitir el acceso a redes sociales a las tan tempranas

208
00:10:34.009 --> 00:10:36.720
daña el cerebro de una manera más grave que si

209
00:10:36.759 --> 00:10:38.220
le estuviéramos dando alcohol o tabaco.

210
00:10:38.299 --> 00:10:41.100
Cuando se cesa ese uso frecuente y ese consumo de

211
00:10:41.159 --> 00:10:43.860
contenidos inapropiados bajan los índices de ansiedad.

212
00:10:45.549 --> 00:10:49.220
Las recomendaciones son muy claras y muy contundentes. Cero exposiciones

213
00:10:49.240 --> 00:10:52.340
a pantallas hasta los 6 años, un máximo de una hora

214
00:10:52.379 --> 00:10:55.379
al día entre los 6 y los 12 años y un tope

215
00:10:55.440 --> 00:10:58.039
máximo de dos horas diarias a partir de esa edad.

216
00:10:58.059 --> 00:11:00.539
Bueno, a ver si somos capaces de cumplir esas recomendaciones.

217
00:11:00.899 --> 00:11:03.500
Mientras tanto, les vuelvo a repetir que no es ninguna

218
00:11:03.539 --> 00:11:06.669
novedad que nos digan, ojo, que esto ejerce un efecto

219
00:11:06.730 --> 00:11:09.450
especialmente negativo en los menores. Los gobiernos de muchos países,

220
00:11:09.509 --> 00:11:13.059
también el nuestro, están preparando ya leyes para retrasar el

221
00:11:13.100 --> 00:11:16.000
acceso de los menores a las pantallas o a las

222
00:11:16.159 --> 00:11:21.009
redes sociales, algunas de ellas por lo menos tan populares

223
00:11:21.149 --> 00:11:25.230
como Instagram O TikTok, porque realmente es que no sabemos,

224
00:11:25.470 --> 00:11:28.399
no somos conscientes de lo que está pasando al otro

225
00:11:28.500 --> 00:11:31.600
lado de la red social. No solo lo que se ve,

226
00:11:31.700 --> 00:11:32.580
sino lo que no se ve.

227
00:11:32.899 --> 00:11:35.820
Exactamente. Por ejemplo, el TikTok es una red social, Luis,

228
00:11:35.879 --> 00:11:38.600
que es la que se cree más inofensiva y es

229
00:11:38.639 --> 00:11:41.960
la que primero se da a los niños. Niños entre 9

230
00:11:41.259 --> 00:11:45.490
y 10 años, 12 años, tienen ya cuentas en TikTok. Instagram cuesta

231
00:11:45.549 --> 00:11:47.590
un poquito más. Pero es que hace unos meses, ya

232
00:11:47.669 --> 00:11:51.049
contamos aquí en este programa, hablamos con una moderadora de Meta,

233
00:11:51.289 --> 00:11:54.529
que ella nos contaba los contenidos que realmente llegan a

234
00:11:54.570 --> 00:11:57.269
estas redes sociales y son tremendos, son contenidos que a

235
00:11:57.309 --> 00:12:01.009
estos moderadores que son adultos dejan secuelas psicológicas de por vida, imaginaros,

236
00:12:01.529 --> 00:12:04.529
en una mente adolescente. Bueno, pues ahora ya han empezado

237
00:12:04.549 --> 00:12:07.600
a llegar en España denuncias de moderadoras de TikTok, que

238
00:12:07.620 --> 00:12:09.289
es esta red que digo afecta mucho a los niños

239
00:12:09.320 --> 00:12:11.820
más pequeños. Y es que el listón de la criba,

240
00:12:11.840 --> 00:12:13.519
de lo que no se puede ver, es tan bajo,

241
00:12:13.580 --> 00:12:15.000
tan bajo, que entra casi de todo.

242
00:12:15.320 --> 00:12:19.840
Bueno, pues precisamente el abogado que defendió a las moderadoras

243
00:12:19.899 --> 00:12:24.179
de Meta se llamaba Francesc Feliu y este mismo abogado

244
00:12:24.200 --> 00:12:26.600
es el que está empezando a representar también a las

245
00:12:26.679 --> 00:12:29.690
moderadoras de TikTok que están denunciando lo mismo que habían

246
00:12:29.730 --> 00:12:32.990
denunciado sus colegas meses antes. Don Francesc Feliu, bienvenido, muy

247
00:12:33.029 --> 00:12:33.490
buenas tardes.

248
00:12:34.710 --> 00:12:35.330
Hola, buenas tardes.

249
00:12:35.720 --> 00:12:38.100
Bueno, lo primero que le quiero preguntar es si ve

250
00:12:38.159 --> 00:12:41.830
usted alguna diferencia fundamental entre lo que le contaban las

251
00:12:41.879 --> 00:12:44.289
moderadoras de Meta y lo que le están contando ahora

252
00:12:44.309 --> 00:12:45.690
las moderadoras de TikTok.

253
00:12:47.570 --> 00:12:51.490
Pues buena pregunta. Pues no, no vemos mucha diferencia, la verdad.

254
00:12:52.210 --> 00:12:54.230
Al final lo que estamos viendo es un patrón muy

255
00:12:54.289 --> 00:12:57.769
definido respecto de lo que son las plataformas en sí mismas.

256
00:12:58.169 --> 00:13:00.309
Al final lo que son las plataformas lo que buscan

257
00:13:00.370 --> 00:13:03.809
es que haya el máximo número de usuarios posible y

258
00:13:04.470 --> 00:13:09.970
para tener más, potenciar su negocio, que es que estemos

259
00:13:10.009 --> 00:13:12.190
en las redes, y eso es lo que les genera dinero.

260
00:13:12.230 --> 00:13:14.529
Por lo tanto, lo que vemos es que, tanto una

261
00:13:14.570 --> 00:13:18.870
plataforma como la otra que habéis nombrado, aplican políticas de

262
00:13:18.950 --> 00:13:22.750
moderación distintas, y en algunos de estos casos, esas políticas

263
00:13:23.009 --> 00:13:27.149
son menos o más, digamoslo así, son más laxas respecto

264
00:13:27.169 --> 00:13:30.100
a la permisibilidad de tener un tipo de contenido, como

265
00:13:30.200 --> 00:13:32.879
ahora mismo estamos viendo en la plataforma de TikTok, como

266
00:13:32.919 --> 00:13:33.500
habéis definido.

267
00:13:33.960 --> 00:13:36.840
Pero claro, lo que quiero pensar es que al final

268
00:13:37.059 --> 00:13:39.639
lo que termina siendo exhibido en una plataforma, ya sea

269
00:13:39.990 --> 00:13:43.490
TikTok o ya sea cualquiera de Meta, Instagram, lo que fuera,

270
00:13:44.049 --> 00:13:47.090
es aquello que los moderadores o las moderadoras permiten que

271
00:13:47.129 --> 00:13:49.909
se vea después de haber pasado ese control, digamos. Pero claro,

272
00:13:50.289 --> 00:13:52.490
para ellos no hay control. Es decir, ellos lo ven

273
00:13:52.549 --> 00:13:56.950
todo y luego sin ningún tipo de modelación previa, con

274
00:13:56.970 --> 00:14:00.889
lo cual están expuestos a un impacto que nadie controla.

275
00:14:01.070 --> 00:14:02.549
Y esto es lo que a mí me parece estremecedor.

276
00:14:03.649 --> 00:14:06.909
Sí, y además hemos visto una diferencia, si me permites,

277
00:14:07.409 --> 00:14:10.289
que sí que es importante respecto de una plataforma respecto

278
00:14:10.330 --> 00:14:13.269
de la otra. Por ejemplo, hemos visto que en Instagram,

279
00:14:13.370 --> 00:14:15.990
la plataforma de Meta, pues sí que el moderador tenía

280
00:14:16.029 --> 00:14:19.879
esa capacidad para poder eliminar un vídeo una vez pasaba

281
00:14:19.940 --> 00:14:23.580
el periplo de saber cuál era la política en concreto

282
00:14:23.600 --> 00:14:26.580
que infligía la plataforma, porque ese es el requisito. No

283
00:14:26.659 --> 00:14:30.700
pueden eliminar sin más un contenido, sino que hay que justificar...

284
00:14:31.399 --> 00:14:34.490
la política infringida en cuestión. Sin embargo, en la plataforma

285
00:14:34.509 --> 00:14:37.669
de TikTok, las moderadoras lo que nos han explicado es

286
00:14:37.710 --> 00:14:40.669
algo un poco diferente, que es que ellos deben de

287
00:14:40.789 --> 00:14:44.730
calibrar cuál es ese ticket, ellos le llaman tickets a

288
00:14:44.769 --> 00:14:48.370
los vídeos, pues el ticket que se infrige o no

289
00:14:48.429 --> 00:14:51.700
las políticas de moderación, y una vez hecho esto, no

290
00:14:51.799 --> 00:14:56.019
pueden suprimir directamente el vídeo, sino que parece ser que

291
00:14:56.059 --> 00:15:00.059
hay un organismo superior, una... o una escala superior a

292
00:15:00.100 --> 00:15:03.299
los propios moderadores, que son los que se encargarían realmente

293
00:15:03.899 --> 00:15:07.259
de suprimir ese vídeo que previamente se ha calificado que

294
00:15:07.320 --> 00:15:10.679
infrige la plataforma. Es un tema bastante distinto de una

295
00:15:10.720 --> 00:15:11.940
plataforma respecto de la otra.

296
00:15:12.919 --> 00:15:14.659
Entiendo perfectamente lo que dice, lo que pasa es que

297
00:15:14.759 --> 00:15:17.840
yo sigo pensando que, claro, a estas personas, es decir,

298
00:15:17.860 --> 00:15:20.330
estas personas pueden tener muy claro que hay determinados vídeos

299
00:15:20.379 --> 00:15:23.230
que llegan a su, digamos, pantalla, su pantalla previa, y

300
00:15:23.950 --> 00:15:27.250
que ellos visualizan y dicen, esto evidentemente no se puede evitar.¿

301
00:15:27.289 --> 00:15:30.610
Por qué? Pues porque sea un adolescente incitando a otro

302
00:15:30.629 --> 00:15:34.850
a suicidarse, o simulando ahorcamientos, o de contenido sexual explícito,

303
00:15:34.870 --> 00:15:38.190
o cosas parecidas. Pero es que esas personas, esas imágenes

304
00:15:38.230 --> 00:15:40.289
que han visto, se las llevan a su casa. Quiero decir,

305
00:15:40.379 --> 00:15:41.799
se las llevan a su casa en la cabeza, ¿no?

306
00:15:43.539 --> 00:15:47.309
Sí, sí, es así. Yo me acuerdo que en una

307
00:15:47.350 --> 00:15:50.429
de las declaraciones donde estaba el abogado de la compañía,

308
00:15:50.769 --> 00:15:53.620
nos decían, oye, pero si al final, por ejemplo, había

309
00:15:53.639 --> 00:15:56.340
un moderador de Meta que decía que había estado ocho

310
00:15:56.399 --> 00:15:59.259
meses solamente trabajando en la plataforma. Mi respuesta fue clara

311
00:15:59.279 --> 00:16:03.259
y contundente. Intenta tú estar una semana moderando, por ejemplo,

312
00:16:03.320 --> 00:16:08.639
en Meta, la media son casi 500 tickets diarios, en TikTok casi 1.200 diarios,

313
00:16:09.080 --> 00:16:13.340
y de esas dos cifras, Habría un porcentaje entre el 20

314
00:16:13.220 --> 00:16:16.240
y el 30% de contenido violento o perturbador, dentro del

315
00:16:16.340 --> 00:16:19.980
cual estaría contenido como el que has definido. Podemos ver

316
00:16:20.059 --> 00:16:27.110
incitaciones al suicidio, mutilaciones, torturas, decapitaciones, temas de pedofilia, etc.,

317
00:16:27.149 --> 00:16:31.399
pornografía infantil… Entonces, intenta tú estar un día, ya no

318
00:16:31.440 --> 00:16:35.070
solamente una semana, un día intentando moderar eso, si no

319
00:16:35.090 --> 00:16:37.950
va a afectar a la salud mental. Y esto es importante.

320
00:16:38.129 --> 00:16:40.590
La salud mental, el daño a la salud mental, no

321
00:16:40.649 --> 00:16:43.759
lo ves venir. A diferencia de un daño físico, en

322
00:16:44.120 --> 00:16:46.960
donde obviamente si me rompo una pierna el dolor es

323
00:16:47.019 --> 00:16:51.059
inmediato… La patología mental no es así. No actúa de

324
00:16:51.080 --> 00:16:55.399
esta manera. La patología mental viene despacio y te afecta

325
00:16:55.460 --> 00:16:58.730
de manera sin ser consciente. Y cuando ya eres consciente,

326
00:16:58.750 --> 00:16:59.710
ya la tienes encima.

327
00:17:00.139 --> 00:17:00.509
Y eso es

328
00:17:00.549 --> 00:17:01.629
lo que es la patología mental.

329
00:17:02.250 --> 00:17:04.549
La cuestión jurídica que se me ocurre, don Frances, es

330
00:17:05.369 --> 00:17:09.390
qué hacemos si la justicia efectivamente determina que hay responsabilidad

331
00:17:09.450 --> 00:17:11.890
por parte de los responsables de la plataforma, ya sea

332
00:17:11.930 --> 00:17:14.089
de TikTok, de Instagram, me da igual, cualquiera de ellas,

333
00:17:14.509 --> 00:17:17.839
por haber expuesto a estas personas... de manera indiscriminada, habidos

334
00:17:17.880 --> 00:17:21.539
que hayan producido esas perturbaciones mentales. Porque, vale, de acuerdo,

335
00:17:21.579 --> 00:17:23.980
la responsabilidad es de las plataformas.¿ Qué pueden hacer esas

336
00:17:24.019 --> 00:17:25.440
plataformas o qué deberían hacer?

337
00:17:25.700 --> 00:17:28.220
Y sobre todo el contenido que está llegando a los

338
00:17:28.279 --> 00:17:30.339
menores porque no se filtra porque el listón es muy

339
00:17:30.400 --> 00:17:30.619
bajo

340
00:17:31.279 --> 00:17:34.299
Sí, pero tú te estás fijando en lo que se

341
00:17:34.359 --> 00:17:38.039
ve y yo quiero poner el acento en aquellas cosas

342
00:17:38.539 --> 00:17:40.279
que no se llegan a ver pero que han visto

343
00:17:40.359 --> 00:17:43.960
unas personas que están sufriéndose mal. Si la justicia diera

344
00:17:44.400 --> 00:17:47.880
la razón a sus representadas... Don Francesc,¿ qué pasaría?¿ Cuál

345
00:17:47.900 --> 00:17:48.680
sería la consecuencia?

346
00:17:49.869 --> 00:17:52.430
Bueno, nosotros lo que buscamos es que a través de

347
00:17:52.470 --> 00:17:55.210
la justicia hay un reconocimiento de que se ha provocado

348
00:17:55.269 --> 00:17:59.509
precisamente ese mal. Para nosotros es muy importante ese tema. Obviamente,

349
00:18:00.130 --> 00:18:01.730
uno puede tener la sensación de que lo que estoy

350
00:18:01.769 --> 00:18:04.849
diciendo es una obviedad, pero no lo es cuando las plataformas,

351
00:18:04.869 --> 00:18:09.250
su defensa, es decir que, por ejemplo, el contenido violento

352
00:18:09.269 --> 00:18:12.769
o perturbador que alegamos que se ven en redes sociales

353
00:18:12.950 --> 00:18:15.150
no es cierto. Esto es lo que nos han llegado

354
00:18:15.190 --> 00:18:18.859
a decir... los representantes de la subcontrata de Meta, que

355
00:18:18.900 --> 00:18:22.119
nos ha dicho en sede judicial, y cuidado, los representantes

356
00:18:22.140 --> 00:18:24.920
de TikTok también en sede judicial nos han dicho lo mismo,

357
00:18:25.059 --> 00:18:27.509
nos han dicho que el contenido violento y perturbador no

358
00:18:27.589 --> 00:18:30.450
se modera desde Barcelona, sino que se modera desde otro lugar,

359
00:18:30.849 --> 00:18:34.670
pero no desde Barcelona. Esto, claro, cuando tú escuchas esto,

360
00:18:34.690 --> 00:18:38.390
que tenían la mayor, pues más énfasis tienes en querer

361
00:18:38.410 --> 00:18:41.319
demostrar que esto no es verdad. Lo primero que buscamos

362
00:18:41.460 --> 00:18:45.039
es ese reconocimiento. El trabajo de la moderación es esencial

363
00:18:45.259 --> 00:18:47.980
para que todo el mundo pueda usar las redes sociales.

364
00:18:48.680 --> 00:18:52.420
Dicho de otra forma, las redes sociales no existirían si

365
00:18:52.440 --> 00:18:55.230
no hubiera una red de moderadores de contenido, que son

366
00:18:55.289 --> 00:18:58.329
las personas que trabajan en ellas. Y segundo, lo que

367
00:18:58.369 --> 00:19:01.630
buscamos es crear conciencia. Crear en el sentido de que

368
00:19:01.670 --> 00:19:04.829
la gente sea conocedora de que lo que existe en

369
00:19:04.869 --> 00:19:08.019
redes sociales no todo es bonito, no todos son... vídeos

370
00:19:08.039 --> 00:19:11.400
de diversión... no todos son animales... haciendo bromas... no, hay

371
00:19:11.420 --> 00:19:16.990
un contenido... altamente pernicioso... y cuidado también... las plataformas... en

372
00:19:17.029 --> 00:19:20.849
determinado tipo de contenido... hay esa laxitud que decía... no

373
00:19:20.910 --> 00:19:23.829
puede ser que por ejemplo... sabemos que hay muchos... TikTok

374
00:19:23.910 --> 00:19:28.700
es la plataforma... de los adolescentes... por antonomasia... es así...

375
00:19:29.579 --> 00:19:32.660
Y sin embargo, determinados tipos de conductas del tipo alimenticio

376
00:19:32.680 --> 00:19:37.519
se permiten abiertamente. Pongo un ejemplo. Hay unos vídeos virales

377
00:19:38.160 --> 00:19:42.529
de chicos comiendo sin parar. Esto desde luego es una alteración,

378
00:19:43.849 --> 00:19:46.190
es un trastorno alimenticio, sin embargo la plataforma no lo

379
00:19:46.250 --> 00:19:49.069
define como tal. Pues sobre esta la actitud, o por

380
00:19:49.109 --> 00:19:53.549
ejemplo la actitud en vídeos eróticos, o dejar que no

381
00:19:53.589 --> 00:19:57.059
haya un control real a día de hoy de cuáles

382
00:19:57.119 --> 00:19:59.319
son los usuarios que entran en redes, si son menores

383
00:19:59.359 --> 00:20:01.240
de edad o no, qué edad tienen, si son menores

384
00:20:01.279 --> 00:20:04.759
de 13 o de 14. O sea, todo esto, cuando no hay

385
00:20:04.799 --> 00:20:07.420
un control por parte de la plataforma, y cuidado, es

386
00:20:07.480 --> 00:20:11.079
una falta de control interesado, porque a más perfiles, a

387
00:20:11.279 --> 00:20:13.680
más usuarios, más dinero ganan, pues esto es lo que

388
00:20:13.700 --> 00:20:15.440
hay que poner coto. Pues si una cosa yo he

389
00:20:15.480 --> 00:20:19.079
aprendido es que al principio... La primera línea afectada son

390
00:20:19.119 --> 00:20:22.259
los modelos de contenido, desde luego, pero hemos aprendido que

391
00:20:22.849 --> 00:20:27.109
la segunda línea más afectada son los usuarios. Y esto

392
00:20:27.150 --> 00:20:28.869
se tiene que poner en un coto legal. Por eso,

393
00:20:29.029 --> 00:20:32.730
antes de mi intervención, escuchaba la noticia que estabais dando

394
00:20:32.809 --> 00:20:36.690
sobre… el control Z, que se está hablando de la

395
00:20:37.029 --> 00:20:39.410
necesidad de poner un coto a los menores de edad

396
00:20:39.430 --> 00:20:42.890
en las redes sociales. Apoyo totalmente esta medida y espero

397
00:20:42.930 --> 00:20:45.880
que llegue pronto, porque desde luego España ya va tarde.

398
00:20:48.269 --> 00:20:50.930
En tu caridad de abogado, es decir, de jurista que

399
00:20:50.950 --> 00:20:54.039
está entrando en esta materia y también de padre de adolescentes.

400
00:20:55.019 --> 00:20:55.380
Absolutamente

401
00:20:56.940 --> 00:20:59.559
Y tú has conseguido en tu propia casa trasladar el

402
00:20:59.940 --> 00:21:03.019
peligro que supone el uso indiscriminado de esas plataformas a

403
00:21:03.160 --> 00:21:04.240
tu propio hijo, Francis.

404
00:21:05.319 --> 00:21:09.349
Sí. Bueno, mi hijo ahora actualmente tiene 14 años y llevo

405
00:21:09.410 --> 00:21:13.549
desde esto, desde el año 2020, que fue cuando empecé con

406
00:21:13.609 --> 00:21:15.569
el tema de las redes sociales, con el primer cliente

407
00:21:15.609 --> 00:21:18.589
de moderación de metas. Pues esto hace seis años. Mi

408
00:21:18.609 --> 00:21:21.210
hijo entonces tenía nueve. Todos sus amigos ya con nueve,

409
00:21:21.289 --> 00:21:25.089
diez años, casi todo el mundo tenía perfiles en Instagram

410
00:21:25.250 --> 00:21:29.029
y en TikTok. Obviamente eso no se puede permitir, es ilegal,

411
00:21:29.470 --> 00:21:31.589
pero la realidad es que era así. Y a mí

412
00:21:31.630 --> 00:21:33.490
mi hijo me llamaba directamente, papá, es que yo soy

413
00:21:33.529 --> 00:21:37.430
un paria. Entonces la forma de poder hacer que mi

414
00:21:37.450 --> 00:21:39.579
hijo no fuera una lucha diaria, porque llegó un momento

415
00:21:39.630 --> 00:21:41.859
en que era diario, que quería un perfil de Instagram

416
00:21:41.880 --> 00:21:44.519
o un perfil de TikTok, fue hacerle partícipe de lo

417
00:21:44.559 --> 00:21:46.359
que hacía su padre. Yo me lo he llevado a

418
00:21:46.380 --> 00:21:49.279
programas de televisión, me lo he llevado, le permití ver

419
00:21:50.359 --> 00:21:53.240
un documental que hicimos en el programa de Salvados que

420
00:21:53.349 --> 00:21:56.890
fue un gran documental porque realmente explica lo que ha

421
00:21:56.970 --> 00:21:59.470
ocurrido y lo que ocurre en las redes sociales. Le

422
00:21:59.490 --> 00:22:01.609
dejé ver ese vídeo junto conmigo y su madre y

423
00:22:03.069 --> 00:22:07.140
hacerle eso. Ha liado en el sentido de que conozca

424
00:22:07.180 --> 00:22:08.819
de primera línea lo que yo sé.

425
00:22:09.740 --> 00:22:13.220
Lo que pasa es que esa herramienta que a ti

426
00:22:13.240 --> 00:22:16.490
te resultó útil desde el punto de vista familiar... No

427
00:22:16.509 --> 00:22:16.990
todo el mundo

428
00:22:17.009 --> 00:22:19.910
las tiene, ¿no? Lo digo porque... Exacto, exacto. Entonces, por

429
00:22:19.930 --> 00:22:21.950
eso es necesario que no nos digan en las redes

430
00:22:22.009 --> 00:22:23.930
sociales que la culpa es de los padres o de

431
00:22:23.970 --> 00:22:27.009
las madres, que les permitimos que nuestros hijos entren en

432
00:22:27.029 --> 00:22:29.069
las redes sociales. Es que esto es muy fácil. Yo

433
00:22:29.089 --> 00:22:31.819
creo que al final necesitamos los padres y las madres

434
00:22:32.119 --> 00:22:36.460
una legislación que nos ayude a no tener que ser

435
00:22:36.539 --> 00:22:40.880
nosotros los responsables solo, solo del acceso, ¿no?, de las redes.

436
00:22:40.900 --> 00:22:41.019
Es que

437
00:22:41.039 --> 00:22:44.319
además... Sí, sí, no, no te cuento nada, Francesc.

438
00:22:45.079 --> 00:22:48.240
Si al final tenemos una norma que puede limitar el

439
00:22:48.289 --> 00:22:49.960
acceso a las redes a los menores de edad, porque

440
00:22:50.029 --> 00:22:53.490
se está demostrando la adicción que les genera, porque otro tema,

441
00:22:53.829 --> 00:22:56.430
podríamos hablar aquí del algoritmo, que es un algoritmo que

442
00:22:56.450 --> 00:22:58.829
yo defiendo que es ilegal con la normativa comunitaria que

443
00:22:58.869 --> 00:23:00.789
tenemos ahora mismo encima de la mesa, que es el

444
00:23:00.829 --> 00:23:04.809
reglamento de inteligencia artificial, pues todas estas herramientas son lo

445
00:23:04.849 --> 00:23:08.099
que crean adicción. Entonces, Una herramienta que ayude a los

446
00:23:08.160 --> 00:23:10.960
menores a no estar en las redes también nos quita

447
00:23:11.059 --> 00:23:14.630
presión a los padres para limitar y decirles a nuestros hijos,

448
00:23:14.690 --> 00:23:16.390
porque claro, una cosa es lo que yo digo ahora

449
00:23:16.430 --> 00:23:18.500
aquí y otra cosa es la batalla que tú tienes

450
00:23:18.579 --> 00:23:20.079
en tu casa de manera diaria, ¿no?

451
00:23:21.299 --> 00:23:24.000
Es que se crean incluso en TikTok, por ejemplo, hay

452
00:23:24.039 --> 00:23:26.940
un mecanismo de adicción muy fácil y es crearse rachas

453
00:23:27.000 --> 00:23:29.960
entre amigas. Todos los días tienen que mandarse un mensaje

454
00:23:29.980 --> 00:23:32.480
y si no se mandan pierden la racha de 100 días,

455
00:23:32.539 --> 00:23:35.099
de 20 días. Y eso, claro, ya no es un problema

456
00:23:35.619 --> 00:23:37.920
con la plataforma, es un problema con tu amiga. Ya

457
00:23:37.980 --> 00:23:40.299
a nivel personal, esas son las estrategias que se usan

458
00:23:40.339 --> 00:23:42.579
en TikTok para mantener a los adolescentes enganchados.

459
00:23:42.599 --> 00:23:44.000
Ya te imaginarás que está hablando

460
00:23:44.799 --> 00:23:44.880
la

461
00:23:45.019 --> 00:23:47.200
madre de una adolescente preocupada igual que tú. O sea,

462
00:23:47.220 --> 00:23:48.920
que es que ella habla desde la experiencia personal.

463
00:23:49.980 --> 00:23:51.769
Sí, sí, es que es así, lo que estás diciendo

464
00:23:51.789 --> 00:23:54.509
es que es eso, y son esas batallas que os digo,

465
00:23:54.630 --> 00:23:57.390
que las sabes tú, o las conoces tú como padre

466
00:23:57.430 --> 00:23:59.950
o como madre, porque lo tienes en casa, y además

467
00:24:00.789 --> 00:24:03.220
llega un momento en el que era día sí y

468
00:24:03.279 --> 00:24:07.099
día también, mi hijo insistiéndome con esto, y al final

469
00:24:07.819 --> 00:24:11.319
era muy desgastante, y claro, lo fácil que es, oye hijo, mira,

470
00:24:11.420 --> 00:24:13.960
te doy el teléfono, te pongo un perfil y ya

471
00:24:14.049 --> 00:24:17.319
te lo vigilaré, Esto no es real. Esto lo podrás

472
00:24:17.380 --> 00:24:20.519
controlar una semana. Pero incluso moderadores de contenido a mí

473
00:24:20.559 --> 00:24:23.220
me decían, digo, es que yo he llegado a no

474
00:24:23.299 --> 00:24:24.960
poder controlar el perfil de mi hijo. Y

475
00:24:26.440 --> 00:24:27.079
llegarle contenido

476
00:24:27.359 --> 00:24:29.819
pues bueno, hay contenido de todo tipo, ¿no? Porque el

477
00:24:29.859 --> 00:24:33.160
algoritmo te bombardea en función de lo que tú estás mirando.

478
00:24:33.400 --> 00:24:36.529
Es así de sencillo. Y en la adolescencia, que la mayoría,

479
00:24:36.609 --> 00:24:39.809
pues bueno, es algo natural que empiezas a descubrir la sexualidad,

480
00:24:40.309 --> 00:24:42.970
pues imagínate el tipo de contenido que les puede llegar

481
00:24:42.990 --> 00:24:49.259
a entrar. Eso sin hablar de las redes de pedofilia

482
00:24:49.380 --> 00:24:50.940
que hay en las redes sociales.

483
00:24:51.480 --> 00:24:51.660
Eso

484
00:24:53.240 --> 00:24:55.039
la policía desde luego os podría hablar mucho de esto.

485
00:24:55.359 --> 00:24:57.730
Es tremendo. De hecho, de vez en cuando nos asomamos

486
00:24:57.750 --> 00:25:01.190
a ese mundo tan terrorífico. Pero bueno, en esta batalla,

487
00:25:01.250 --> 00:25:04.269
en esta campaña de adquirir o por lo menos contribuir

488
00:25:04.289 --> 00:25:06.609
a que la sociedad sepa cuáles son los riesgos que ocurren,

489
00:25:06.650 --> 00:25:09.589
me parece que esta conversación no ha sido para nada

490
00:25:09.859 --> 00:25:12.539
baladí o banal. Francis Félix, te agradezco mucho la presencia

491
00:25:12.579 --> 00:25:15.240
entre los micrófonos del programa. Un saludo muy coreano

492
00:25:16.519 --> 00:25:21.819
Gracias, muchas, muchas. Buenas tardes.