April 28, 2026

Entrevistas de Herrero: Chema Alonso

Entrevistas de Herrero: Chema Alonso
Spotify podcast player badge
RSS Feed podcast player badge
Spotify podcast player iconRSS Feed podcast player icon
Luis Herrero entrevista al vicepresidente de Cloudfare, y uno uno de los mayores expertos en ciberseguridad de España.
WEBVTT

1
00:00:06.780 --> 00:00:10.960
En Casa de Herrero, con Luis Herrero, es radio.

2
00:00:17.899 --> 00:00:19.739
Bueno, vamos allá, amigos. Ya saben ustedes que todos los

3
00:00:19.780 --> 00:00:22.949
martes aprovechamos estos minutos hasta las noticias de las cinco

4
00:00:22.989 --> 00:00:26.899
para tratar en profundidad algún asunto que que tenga especial interés,

5
00:00:27.039 --> 00:00:29.820
ya sea desde el punto de vista literario, ya sea

6
00:00:29.859 --> 00:00:32.759
desde el punto de vista informativo, ya sea desde el

7
00:00:32.780 --> 00:00:35.320
punto de vista histórico, ya sea desde el punto de

8
00:00:35.359 --> 00:00:37.780
vista que hoy quiero tratar, que es algo que está

9
00:00:37.969 --> 00:00:40.869
en las conversaciones de todas y cada una de las

10
00:00:40.990 --> 00:00:45.729
tertulias familiares que yo conozco, que es, bueno, para entendernos,

11
00:00:45.770 --> 00:00:49.210
la inteligencia artificial. Hay un enorme temor a que la

12
00:00:49.250 --> 00:00:52.049
inteligencia artificial acabe destruyendo con el mundo que conocemos, con

13
00:00:52.090 --> 00:00:54.250
el mundo laboral. Yo estoy rodeado de gente que está

14
00:00:54.310 --> 00:00:56.850
temblando porque dice¿ y mi puesto de trabajo cuánto va

15
00:00:56.869 --> 00:00:59.530
a durar?¿ Y la inteligencia artificial va a ser capaz

16
00:00:59.549 --> 00:01:04.209
de hacer lo que yo hago?¿ Tengo un hijo que

17
00:01:04.230 --> 00:01:06.200
está a punto de estudiar?¿ Qué hago con él? Es decir,¿

18
00:01:07.040 --> 00:01:08.870
que vaya a la universidad para hacer algo que la

19
00:01:08.909 --> 00:01:11.790
inteligencia artificial ya hace mejor que él?¿ Por dónde tengo

20
00:01:11.829 --> 00:01:16.450
que encaminar esas tendencias? Bueno, esto es solo por hablar

21
00:01:16.489 --> 00:01:18.590
de algunas cosas que están, digo, en el orden del

22
00:01:18.629 --> 00:01:20.730
día porque ya todos tenemos más o menos la experiencia

23
00:01:21.409 --> 00:01:24.810
de lo cómodo que es de repente, pues si tienes

24
00:01:24.849 --> 00:01:27.489
que hacer, hablo de un caso personal, poner orden en

25
00:01:27.530 --> 00:01:31.250
tus finanzas. Yo que soy bien perezoso y de letras

26
00:01:31.290 --> 00:01:33.109
y que no sé sumar y que cada vez mejor

27
00:01:33.530 --> 00:01:36.530
tenía que puntear todas las cosas que sucedían en mi

28
00:01:36.590 --> 00:01:40.109
cuenta bancaria, ahora le doy el extracto a una inteligencia

29
00:01:40.129 --> 00:01:42.370
artificial y me lo ordena y me lo suma y

30
00:01:42.430 --> 00:01:45.219
yo no tengo que hacer nada. Bueno, quien es, ustedes

31
00:01:45.260 --> 00:01:46.760
lo saben, no voy a perder ni un minuto más

32
00:01:46.840 --> 00:01:49.739
en presentarlo, porque ha sido colaborador de nuestro programa, confío

33
00:01:49.780 --> 00:01:51.599
en que lo vuelva a ser cuando se lo permita

34
00:01:52.200 --> 00:01:55.700
su tarea profesional, Chema Alonso, que se hizo conocidísimo por

35
00:01:55.739 --> 00:01:58.680
ser el hacker, ya nos aclaró en muchas ocasiones que

36
00:01:58.859 --> 00:02:03.420
hacker no es un término peyorativo. Don Chema Alonso, bienvenido

37
00:02:03.459 --> 00:02:06.430
antes de nada, buenas tardes, porque me gustaría hablar. Buenas tardes,

38
00:02:06.469 --> 00:02:06.730
me

39
00:02:06.790 --> 00:02:10.449
encanta, cuánto echo de menos estar escuchándote, Luis, me encanta,

40
00:02:10.469 --> 00:02:12.810
te estaba escuchando y digo, yo quiero volver ya. Bueno,

41
00:02:12.830 --> 00:02:16.949
pues no, pero al final, bueno, déjame que te pregunte

42
00:02:16.990 --> 00:02:19.770
por ese cambio, porque cuando estabas en Telefónica eras uno

43
00:02:19.789 --> 00:02:21.780
de los hackers más conocidos del mundo, luego te fuiste

44
00:02:21.789 --> 00:02:24.979
a Cloucer, que es una empresa, yo de esto sabes

45
00:02:25.020 --> 00:02:26.960
que sé muy poquito, lo que sé es que se

46
00:02:26.979 --> 00:02:29.539
dedica precisamente a la seguridad en Internet, es decir, para

47
00:02:29.620 --> 00:02:32.379
que todos podamos estar tranquilos y saber... Que lo que

48
00:02:32.419 --> 00:02:34.590
hacemos en las redes está bien protegido.¿ Más o menos

49
00:02:34.789 --> 00:02:35.090
es eso?

50
00:02:35.349 --> 00:02:39.210
Bueno, Cloudflare es una empresa muy grande en el mundo

51
00:02:39.250 --> 00:02:42.629
de Internet. Es el anillo de seguridad de Internet en

52
00:02:42.669 --> 00:02:45.840
el Edge, en lo que se llaman los servidores de borde,

53
00:02:45.860 --> 00:02:48.550
que es lo que está más cerca de los de

54
00:02:48.610 --> 00:02:50.669
los usuarios cuando se conectan desde sus casas y desde

55
00:02:50.789 --> 00:02:53.430
teléfonos móviles, son unos servidores especiales que están muy cerquita,

56
00:02:53.949 --> 00:02:55.900
entonces se hace que todo vaya mucho más rápido en

57
00:02:55.939 --> 00:02:58.030
Internet y es un anillo de seguridad y para que

58
00:02:58.069 --> 00:03:01.280
la gente se haga un poco la idea, porque los

59
00:03:01.319 --> 00:03:04.419
servicios muchos son gratuitos para proteger a los usuarios, es

60
00:03:04.439 --> 00:03:07.900
una de las misiones que tiene esta compañía, nació con

61
00:03:07.960 --> 00:03:10.199
la misión de hacer un mejor Internet para todos y

62
00:03:11.060 --> 00:03:18.780
se están bloqueando 234 billones, billones americanos, billones de ataques al

63
00:03:18.879 --> 00:03:21.520
día en Internet de la plataforma de Cloudflare. Ese es

64
00:03:21.560 --> 00:03:24.979
el nivel de virulencia que tenemos hoy en día en Internet.

65
00:03:25.080 --> 00:03:29.590
Y si de repente dejáramos de dar este servicio en Cloudflare,

66
00:03:29.759 --> 00:03:35.430
pues la seguridad y los servidores de las páginas web

67
00:03:35.469 --> 00:03:38.669
de muchos países, de las empresas de muchos países, pequeñas

68
00:03:38.689 --> 00:03:42.509
y medianas empresas, etc., pues tendrían un serio problema para

69
00:03:42.569 --> 00:03:43.189
funcionar en Internet

70
00:03:43.449 --> 00:03:45.430
Sabes que los periodistas somos gente de mala leche en

71
00:03:45.469 --> 00:03:48.889
general y tenemos que hacer preguntas comprometidas. Te lo digo porque, claro,

72
00:03:48.969 --> 00:03:51.870
si alguien nos escucha y alguien está en los antecedentes

73
00:03:51.889 --> 00:03:54.400
y dice, o sea, que Klauffler es, digamos, el cancerbero,

74
00:03:54.409 --> 00:03:57.379
el que tiene que velar precisamente para que no haya riesgos.

75
00:03:57.860 --> 00:04:02.039
Pero¿ no fue Klauffler la que fue acusada por la

76
00:04:02.139 --> 00:04:05.620
Liga de Fútbol Profesional de estar amparando la piratería?¿ Cómo

77
00:04:05.680 --> 00:04:08.080
se puede proteger y al mismo tiempo amparar la piratería?

78
00:04:08.319 --> 00:04:11.240
No, no, nosotros no amparamos la piratería, ni mucho menos.

79
00:04:11.300 --> 00:04:11.879
Pero sabes

80
00:04:11.919 --> 00:04:16.860
que esa denuncia se hizo. Bueno, denuncia pública, se hizo

81
00:04:16.879 --> 00:04:22.250
una denuncia pública, pero Cloudflare no ha estado... Primero, no

82
00:04:22.310 --> 00:04:25.910
ampara la piratería, para nada, están nuestros términos y condiciones

83
00:04:25.949 --> 00:04:30.209
y hemos sido claros siempre con ello. Segundo, luchamos activamente

84
00:04:30.290 --> 00:04:33.569
contra todos los piratas que hay en Internet, activamente, de

85
00:04:33.589 --> 00:04:38.569
hecho tenemos... Un track record, un historial de luchar contra

86
00:04:38.629 --> 00:04:41.620
ellos y de bloquearlos y de tumbar grandes grupos organizados,

87
00:04:41.680 --> 00:04:45.680
que estos no son cuatro chavales en internet compartiendo una

88
00:04:45.740 --> 00:04:48.110
página pirata o un canal pirata, no, no, estamos hablando

89
00:04:48.139 --> 00:04:52.350
de grandes organizaciones que están... en países offshore donde son

90
00:04:52.410 --> 00:04:56.420
paraísos legales y la piratería no es ningún delito y

91
00:04:56.759 --> 00:05:00.879
que además utilizan servidores de la Darknet, servidores creados que

92
00:05:00.899 --> 00:05:04.029
se llaman Bulletproof, a prueba de balas, porque los que

93
00:05:04.089 --> 00:05:07.290
trabajan en esos servidores, en esas empresas para darles servidores...

94
00:05:08.300 --> 00:05:12.779
trabajan a favor de los cibercriminales, no trabajan a favor

95
00:05:12.860 --> 00:05:16.019
de los cuerpos de seguridad del Estado que están luchando

96
00:05:16.079 --> 00:05:21.170
contra ellos. Si alguien intenta entrar, lo bloquean para esto. Entonces,

97
00:05:21.389 --> 00:05:24.649
no solo estamos... Estamos en contra de la piratería, luchamos

98
00:05:24.709 --> 00:05:27.430
activamente con ella, sino que estamos trabajando con proveedores de

99
00:05:27.529 --> 00:05:32.180
contenido de todo el mundo para ir más rápido y

100
00:05:32.189 --> 00:05:35.500
proteger mejor los derechos. La piratería, hoy en día, tú

101
00:05:35.519 --> 00:05:38.240
te vas a una de estas páginas web piratas que

102
00:05:38.259 --> 00:05:42.819
tienen distribuidores. A veces el distribuidor es una persona del

103
00:05:42.860 --> 00:05:45.350
barrio que se ha dado de alta como distribuidor en

104
00:05:45.509 --> 00:05:50.000
esta empresa pirata. Pues estos te dan el béisbol, la NBA,

105
00:05:50.240 --> 00:05:55.329
la Bundesliga, la Fórmula 1, la NASCAR. Tienen más películas y

106
00:05:55.629 --> 00:06:00.410
más series que la suma de tu Netflix, Disney, Movistar Plus,

107
00:06:00.709 --> 00:06:05.949
Prime Video juntos y todos a tarifas que son 85 euros

108
00:06:06.069 --> 00:06:10.319
por tres años o cosas así. Entonces es un negocio

109
00:06:10.379 --> 00:06:12.759
muy rentable para los cibercriminales en el que tenemos que

110
00:06:12.819 --> 00:06:16.839
trabajar todos coordinados para... para reducir y luchar con ellos.

111
00:06:16.860 --> 00:06:20.600
Y a nosotros, lógicamente, aparte de todo que está en

112
00:06:20.620 --> 00:06:23.560
contra de nuestros términos y condiciones y de que estamos

113
00:06:23.579 --> 00:06:26.779
luchando con ellos, nos genera unos costes tremendos que queremos, lógicamente,

114
00:06:28.399 --> 00:06:29.019
que no los generen.

115
00:06:29.279 --> 00:06:32.990
Bueno, vamos a abordar esta cuestión que creo que efectivamente

116
00:06:33.000 --> 00:06:35.889
está en el ánimo y en la preocupación de tantos

117
00:06:35.930 --> 00:06:39.089
ciudadanos de España y del mundo entero.¿ Es verdad lo

118
00:06:39.110 --> 00:06:41.610
que a veces leo, de que el 80% de los

119
00:06:41.649 --> 00:06:44.490
puestos de trabajo ahora mismo podrían ser prescindibles?

120
00:06:46.370 --> 00:06:50.209
Es una pregunta difícil y que la respuesta puede ser

121
00:06:50.329 --> 00:06:53.139
difícil y dura. Es verdad que lo que estamos viendo

122
00:06:53.180 --> 00:06:55.920
es que muchas de las tareas que hace la inteligencia

123
00:06:55.959 --> 00:06:59.899
artificial hoy en día son tareas por las que están

124
00:06:59.959 --> 00:07:02.420
pagándose a puestos de trabajo a personas y muchas de

125
00:07:02.500 --> 00:07:06.420
las cosas que antes tenías a una persona ahora se

126
00:07:06.480 --> 00:07:10.439
pueden empezar a hacer con inteligencia artificial. Yo sí que

127
00:07:10.480 --> 00:07:12.860
veo ese riesgo, lo llevo viendo muchos años, hemos hablado

128
00:07:12.899 --> 00:07:16.699
de ello muchos años. desde que la inteligencia artificial empezó

129
00:07:17.379 --> 00:07:21.189
a crecer. No ha sido un periodo de dos años.

130
00:07:21.230 --> 00:07:24.750
Ha sido un poco casi como el metaverso y las criptomonedas.

131
00:07:25.329 --> 00:07:28.259
La gente pensaba que la inteligencia artificial era igual, porque...

132
00:07:28.819 --> 00:07:32.800
Esto nace en el año 1950, cuando Alan Turing habla del

133
00:07:32.860 --> 00:07:36.110
test de Turing y habla de la película famosa de

134
00:07:36.290 --> 00:07:40.870
Imitation Game, donde empezaba a preguntarse si la inteligencia artificial

135
00:07:42.970 --> 00:07:46.160
podía pensar, si las máquinas podían pensar. Entonces, desde 1950 hasta

136
00:07:46.180 --> 00:07:53.290
el año 2010... no se tienen todas las piezas tecnológicas necesarias.

137
00:07:53.670 --> 00:07:57.550
Es necesario avanzar mucho en potencia de cómputo, que esto

138
00:07:57.629 --> 00:08:01.310
no llega hasta que en el año 2010 tenemos cloud computing

139
00:08:01.449 --> 00:08:04.670
y está democratizado el acceso a grandes cantidades de cómputo

140
00:08:05.029 --> 00:08:07.009
a un coste muy bajo, que es lo que sucede

141
00:08:07.029 --> 00:08:10.819
en el año 2010. Previamente necesitábamos muchos datos y hasta que

142
00:08:10.839 --> 00:08:13.740
el año 2004 no aparecen las técnicas de Big Data, pues

143
00:08:13.959 --> 00:08:17.990
no se podía... procesar muchas cantidades de datos en tiempo

144
00:08:18.069 --> 00:08:21.410
útil y antes de eso necesitábamos los algoritmos de inteligencia artificial,

145
00:08:21.509 --> 00:08:24.100
que son los de las redes neuronales, que son los

146
00:08:24.139 --> 00:08:28.959
que les otorgaron el premio Nobel recientemente, ¿no? Pero una

147
00:08:28.980 --> 00:08:31.100
vez que se dan esas tres piezas, que ya tienes

148
00:08:31.300 --> 00:08:34.019
Big Data, que tienes Cloud Computing y que tienes algoritmos

149
00:08:34.039 --> 00:08:36.500
de inteligencia artificial, pues ha ido muy rápido. Esto fue

150
00:08:36.519 --> 00:08:41.799
en 2010 y de 2010 a 2020, en esa década, hemos visto eclosionar

151
00:08:41.860 --> 00:08:44.100
y la inteligencia artificial... Cada mes hay una novedad,

152
00:08:44.159 --> 00:08:44.789
¿eh? Claro, claro. Bueno

153
00:08:45.039 --> 00:08:47.779
y cada semana y cada día. O sea, esto es tremendo.

154
00:08:48.259 --> 00:08:49.909
Y a todos los que estamos en este mundo, que

155
00:08:50.269 --> 00:08:53.710
yo lo llevo viendo muy de cerca, muchos años, con

156
00:08:53.750 --> 00:08:57.330
las redes generativas, con la GNI, yo empecé a dar conferencias...

157
00:08:59.000 --> 00:09:01.250
En el año 2017 empezamos a hablar de, oye, van a

158
00:09:01.289 --> 00:09:03.789
llegar esto de las deep space, de las suplantaciones de

159
00:09:03.850 --> 00:09:07.490
personas y demás. Pues todo lo que estamos en el

160
00:09:07.509 --> 00:09:10.700
mundo nos genera esta ansiedad, ¿no? De, oye,¿ qué hacemos?¿

161
00:09:10.740 --> 00:09:13.870
Qué hacemos? Ahora con los agentes... estamos viendo que pueden

162
00:09:13.929 --> 00:09:16.809
hacer cosas maravillosas en el mundo del marketing de las finanzas,

163
00:09:16.889 --> 00:09:18.639
en el mundo de la gestión de la información, en

164
00:09:19.100 --> 00:09:24.990
el mundo de generar contenido. Hoy en día escriben. El

165
00:09:25.019 --> 00:09:29.669
otro día hablaba con Arturo P. Reverte que en el año 2019...

166
00:09:30.809 --> 00:09:34.059
Cuando la inteligencia artificial estaba empezando, yo hice un proyecto

167
00:09:34.120 --> 00:09:37.580
con Arturo donde le pedí crear una inteligencia artificial del

168
00:09:37.860 --> 00:09:42.710
año 2019 para escribir, le daba un texto y lo transformaba

169
00:09:42.750 --> 00:09:45.529
para que se pareciera a los textos del Capitán Alatriste

170
00:09:45.570 --> 00:09:51.259
de De Arturo P. Reverte. Y entonces fue un poco divertido.

171
00:09:51.860 --> 00:09:54.879
Y es verdad que daba como el tufillo a que

172
00:09:54.940 --> 00:09:58.639
se parecía a Arturo P. Reverte. Pero era un filtro malo.

173
00:09:58.740 --> 00:10:01.539
Era como ponerle pintura por encima de algo que no

174
00:10:01.600 --> 00:10:05.840
estaba bien. Y él se reía. De hecho, él reescribió

175
00:10:05.879 --> 00:10:08.740
el texto que hizo la inteligencia artificial a su estilo.

176
00:10:08.840 --> 00:10:11.860
Y hizo un texto maravilloso. Está publicado en la web

177
00:10:11.879 --> 00:10:15.750
de Zenda Libros. Y pues hace no demasiado hablaba con él,

178
00:10:16.629 --> 00:10:21.210
hace poco, que yo tengo la suerte de disfrutarlo de

179
00:10:21.289 --> 00:10:24.820
cerca de vez en cuando, y estábamos hablando y me decía, Chema,

180
00:10:24.879 --> 00:10:27.500
es que ya empieza a escribir como yo, es que

181
00:10:27.559 --> 00:10:30.340
ya veo lo que escribe cuando le digo que escriba

182
00:10:30.399 --> 00:10:33.419
como Arturo P. Reverte y se parece mucho a mí.

183
00:10:34.129 --> 00:10:38.559
Pues eso trasladado al mundo del cine, del vídeo, del contenido,

184
00:10:38.580 --> 00:10:41.399
del marketing, de la exposición, de las

185
00:10:42.220 --> 00:10:47.330
matemáticas, de las finanzas, de los asesores, de la asistencia jurídica,

186
00:10:47.350 --> 00:10:51.190
de las enfermedades. Hay cantidad de gente que dice, tengo

187
00:10:51.230 --> 00:10:51.850
estos síntomas.

188
00:10:52.110 --> 00:10:54.429
Sí, pero hay que tener cuidado, porque no está perfecta.

189
00:10:54.830 --> 00:10:58.919
Hay que tener cuidado, por ejemplo, con las... enfermedades, es

190
00:10:58.960 --> 00:11:03.399
verdad que te da unas posibilidades que podrían ser, pero

191
00:11:03.740 --> 00:11:05.820
el otro día estaba leyendo un informe de esta misma

192
00:11:05.879 --> 00:11:09.419
semana y decía que en el 80% de los casos no...

193
00:11:09.759 --> 00:11:12.240
O sea, es verdad que si hubiera estado enfermo estos

194
00:11:12.340 --> 00:11:14.850
síntomas podrían haber sido, pero la persona no estaba enferma, ¿no?

195
00:11:15.139 --> 00:11:18.929
Pero¿ a qué mundo vamos? Es decir,¿ cómo va a

196
00:11:18.970 --> 00:11:21.730
cambiar la sociedad? Hasta ahora sabemos que cada vez que

197
00:11:21.769 --> 00:11:24.710
ha habido algún acontecimiento importante, como por ejemplo yo que sé,

198
00:11:24.750 --> 00:11:27.970
la imprenta, la revolución industrial, la cuarta ola de la

199
00:11:27.990 --> 00:11:30.500
que hablaba Tobler, la sociedad se ha acomodado y ha

200
00:11:30.539 --> 00:11:34.759
sido capaz de encontrar la manera de digerir eso. Ahora

201
00:11:34.820 --> 00:11:36.779
se está hablando de algo que a mí me parece,

202
00:11:36.980 --> 00:11:38.639
no sé, ciencia ficción, pero ya no te diría que no,

203
00:11:38.659 --> 00:11:40.730
y es que todo el mundo se toque las narices

204
00:11:40.750 --> 00:11:42.549
y que haya como una especie de renta universal que

205
00:11:42.590 --> 00:11:46.070
trabaje la inteligencia artificial y que nosotros cobremos lo que

206
00:11:46.230 --> 00:11:48.679
produce la propia inteligencia artificial sin la necesidad de trabajar.¿

207
00:11:49.190 --> 00:11:51.279
Eso es razonable pensar que va a ocurrir?

208
00:11:51.990 --> 00:11:56.289
Bueno, desde luego yo no tengo la bola mágica y

209
00:11:56.330 --> 00:12:00.330
ya me gustaría tener la bola mágica. Pero tengo el

210
00:12:00.370 --> 00:12:05.250
problema que tú comentabas antes, ¿no? De mi hacker, mi

211
00:12:05.289 --> 00:12:08.580
primera hija que va a entrar a la universidad ahora, ¿no?¿

212
00:12:08.820 --> 00:12:12.960
Y qué voy a estudiar?¿ De qué voy a vivir?

213
00:12:13.100 --> 00:12:16.899
Yo creo que vamos a un mundo donde evidentemente si

214
00:12:17.059 --> 00:12:20.279
cada vez crecemos más población, porque la población sigue creciendo,

215
00:12:20.320 --> 00:12:24.110
la población mundial, Dicen que se estabilizará en los 10 billions

216
00:12:24.250 --> 00:12:27.850
o los 10 billones de personas, 10.000 millones de personas. No lo sabemos.

217
00:12:28.549 --> 00:12:32.610
Pero si seguimos creciendo, pues lógicamente habrá que tener más protección,

218
00:12:32.970 --> 00:12:35.909
más proteccionismo. Yo creo que llegaremos a un modelo donde

219
00:12:36.669 --> 00:12:39.029
todavía nos quedan muchos años, donde el ser humano va

220
00:12:39.049 --> 00:12:44.620
a marcar la diferencia para muchas cosas. Ya se están

221
00:12:44.669 --> 00:12:48.700
hablando de la inteligencia artificial general y de que está

222
00:12:48.759 --> 00:12:51.000
ya aquí y que pronto va a ser capaz de

223
00:12:52.950 --> 00:12:57.789
de superar a toda la especie humana, los robots, el

224
00:12:57.850 --> 00:13:00.409
trabajo y tal. Yo creo que nos quedan años todavía,

225
00:13:00.570 --> 00:13:02.960
pero que nos tenemos que ir adaptando a ello. Y

226
00:13:03.009 --> 00:13:09.519
creo que tendremos que encontrar el modelo. Es a día

227
00:13:09.559 --> 00:13:13.039
de hoy y diferentes países tienen diferentes modelos económicos y

228
00:13:13.100 --> 00:13:16.210
sociales distintos. No sé cómo se adaptará cada uno de

229
00:13:16.250 --> 00:13:19.240
esos modelos económicos y sociales que tenemos en el mundo

230
00:13:19.259 --> 00:13:21.940
a la llegada tan masiva de la inteligencia

231
00:13:21.960 --> 00:13:24.460
artificial. Pero me interesa mucho saber qué consejo concreto le

232
00:13:24.500 --> 00:13:26.940
has dado al hacker a la que tienes que asesorar.

233
00:13:27.299 --> 00:13:28.779
A mi hacker, a mi super hacker. Claro, porque esto

234
00:13:28.799 --> 00:13:31.200
nos da una idea de por dónde va tu planteamiento.

235
00:13:31.220 --> 00:13:31.580
Pues mira,

236
00:13:32.620 --> 00:13:37.169
yo soy un creyente de que las habilidades personales son

237
00:13:38.409 --> 00:13:42.740
lo que marca las diferencias. Yo... evidentemente yo he estudiado todo,

238
00:13:42.779 --> 00:13:44.820
ya lo sabes, yo hice el EGB, el BUP, el COU,

239
00:13:45.059 --> 00:13:48.419
el instituto, o sea, luego hice la ingeniería técnica con

240
00:13:48.590 --> 00:13:50.649
mi proyecto de fin de carrera, la ingeniería superior, luego

241
00:13:50.690 --> 00:13:53.789
hice mi máster, luego hice mi doctorado, luego he sacado

242
00:13:53.830 --> 00:13:57.149
las certificaciones tecnológicas, o sea, yo he estado estudiando toda

243
00:13:57.190 --> 00:14:01.230
la vida, pero lo que... lo que yo siempre he

244
00:14:01.279 --> 00:14:05.029
considerado que me ha permitido ir mejor ha sido capacidad

245
00:14:05.529 --> 00:14:11.470
de adaptarme al cambio, soy una persona muy trabajadora, soy

246
00:14:11.509 --> 00:14:15.350
muy resistente a los problemas, si algo sale mal no

247
00:14:15.389 --> 00:14:21.470
me frustro y me enfado y me bloqueo, lo que

248
00:14:21.529 --> 00:14:25.220
intento es trabajar todas esas habilidades que te van a

249
00:14:25.269 --> 00:14:27.720
permitir adaptarte a lo que venga al mundo. Entonces yo

250
00:14:28.080 --> 00:14:31.549
a mi hija le he dicho que que elija algo

251
00:14:31.590 --> 00:14:35.000
que le guste a ella. Ella le gusta emprender, etcétera.

252
00:14:35.139 --> 00:14:37.840
Ya sabes que yo también tengo esa faceta emprendedora que

253
00:14:38.480 --> 00:14:42.960
siempre estoy pensando en alguna nueva empresa y, bueno, pues

254
00:14:42.980 --> 00:14:45.720
supongo que tirará por ahí, ¿no? Ella le gusta la

255
00:14:45.740 --> 00:14:49.450
parte de administración de empresas, de finanzas, de económicas, aprender eso,

256
00:14:50.070 --> 00:14:52.490
pero trabajando mucho toda la otra disciplina. Fíjate

257
00:14:52.889 --> 00:14:56.490
le he preguntado a la inteligencia artificial, le he dicho,

258
00:14:56.529 --> 00:14:57.889
voy a entrevistar a Xemalos.

259
00:14:58.070 --> 00:14:58.169
Mmm.

260
00:14:58.840 --> 00:15:02.279
dime qué cuatro preguntas fundamentales le harías sobre el futuro

261
00:15:02.320 --> 00:15:02.720
de la IA.

262
00:15:03.080 --> 00:15:03.419
Bien.

263
00:15:03.500 --> 00:15:05.769
Y entonces, la primera, tengo que decirte que yo no

264
00:15:05.830 --> 00:15:09.669
la entiendo, seguramente tú sí, pero te la leo tal

265
00:15:09.750 --> 00:15:13.269
cual ella me la ha dictado.¿ qué parte del valor

266
00:15:13.389 --> 00:15:16.190
real de la IA estará en los modelos y qué

267
00:15:16.309 --> 00:15:19.259
parte en los datos, la infraestructura y la distribución? ¡Ostras

268
00:15:19.549 --> 00:15:21.450
Es muy buena pregunta. Pero la

269
00:15:21.490 --> 00:15:26.009
tendrás que traducir. Sí. El modelo al final es el algoritmo, ¿vale?

270
00:15:26.149 --> 00:15:31.500
Es el algoritmo. El modelo es el GPT, ¿vale? Ese

271
00:15:31.539 --> 00:15:35.259
es el modelo. Para que ese modelo sea inteligente, necesita datos,

272
00:15:35.500 --> 00:15:39.240
necesita proveedores de datos. Y además necesita proveedores de datos

273
00:15:39.259 --> 00:15:42.679
que sean proveedores de datos en... En tiempo real. A

274
00:15:42.740 --> 00:15:46.580
ti te interesa, si quieres tomar un análisis, para que

275
00:15:46.679 --> 00:15:48.100
la pregunta esa que le has hecho de qué le

276
00:15:48.120 --> 00:15:52.039
puedo hacer a Chema Alonso, el modelo tiene que conocer

277
00:15:52.139 --> 00:15:54.279
quién es Chema Alonso y qué hace Chema Alonso hoy

278
00:15:54.350 --> 00:15:58.250
en día. Entonces necesita datos frescos. Esto es la disrupción

279
00:15:58.269 --> 00:16:00.230
que hemos tenido en el modelo de negocio con los

280
00:16:00.289 --> 00:16:05.129
medios de comunicación y los periódicos, donde todos estos modelos

281
00:16:05.840 --> 00:16:09.080
se han llevado los datos y le han quitado el

282
00:16:09.159 --> 00:16:11.860
tráfico a las páginas web. Por eso los ingresos de

283
00:16:11.919 --> 00:16:14.679
publicidad han caído en todos los grandes medios digitales. En

284
00:16:14.960 --> 00:16:19.320
Cloudflare nosotros creemos que eso no es justo y estamos

285
00:16:19.759 --> 00:16:23.539
abogando Por ayudar a los medios de comunicación, estamos con

286
00:16:23.580 --> 00:16:26.799
New York Times y con muchos medios para conseguir que

287
00:16:26.820 --> 00:16:33.299
estos algoritmos hagan un acuerdo justo con los proveedores de contenidos,

288
00:16:33.409 --> 00:16:36.929
con los medios, ya sea bien pagando parte de la

289
00:16:36.990 --> 00:16:40.090
suscripción que cobran a los usuarios... Por los datos o

290
00:16:42.789 --> 00:16:46.169
ya sea dándoles el tráfico que le daban antes para

291
00:16:46.210 --> 00:16:49.149
que pudieran tener el modelo de negocio de los anuncios. Entonces,

292
00:16:49.210 --> 00:16:51.289
una cosa son los datos y otra es el modelo.

293
00:16:51.629 --> 00:16:53.720
Pero claro, luego el modelo tiene que tener un uso,

294
00:16:53.740 --> 00:16:55.759
un caso de uso, ¿no? Y el caso de uso

295
00:16:55.820 --> 00:16:59.419
pueden ser muchas cosas. Puede ser el asistente que tú

296
00:16:59.500 --> 00:17:03.379
tienes para... Ayudarte en el Office o en el iPhone

297
00:17:03.419 --> 00:17:08.250
o en el Android, que es el caso de uso,

298
00:17:08.309 --> 00:17:11.650
la distribución. Pongo el modelo a hacer un caso de

299
00:17:11.710 --> 00:17:13.089
uso que quieren los usuarios. Eso es a lo que

300
00:17:13.109 --> 00:17:16.670
se refiere la distribución. Y luego es necesario para que

301
00:17:16.750 --> 00:17:19.509
los modelos se entrenen y para que los modelos se

302
00:17:19.589 --> 00:17:22.710
puedan utilizar en tiempo real, hace falta infraestructura, que son

303
00:17:22.750 --> 00:17:25.349
los data centers. que son las redes de comunicaciones, que

304
00:17:25.549 --> 00:17:29.150
son los fabricantes de tarjeta, tipo los NVIDIA, etc. Entonces,

305
00:17:29.190 --> 00:17:32.869
esas son las cuatro piezas que se necesitan. Datos, modelos

306
00:17:32.890 --> 00:17:37.279
de inteligencia artificial, infraestructura para correrlo. Cloudflare es una infraestructura.

307
00:17:37.619 --> 00:17:40.799
Nosotros corremos todos los modelos en el Edge para proteger

308
00:17:40.819 --> 00:17:45.380
a los servicios digitales. Y luego, los casos de uso.

309
00:17:46.279 --> 00:17:50.430
Hago una... una herramienta para ayudarte a escribir o hago

310
00:17:50.519 --> 00:17:54.599
un editor de vídeo que te deja súper guapo y

311
00:17:54.619 --> 00:17:56.400
súper delgado en las fotografías, ¿no?

312
00:17:57.420 --> 00:18:01.180
Bueno, segunda pregunta. Esta de alguna manera ya veníamos hablando,

313
00:18:01.240 --> 00:18:04.430
pero a ver si lo concretamos. Dice,¿ qué trabajos va

314
00:18:04.450 --> 00:18:06.930
a transformar de verdad la IA en los próximos tres

315
00:18:06.970 --> 00:18:09.710
a cinco años y cuáles no va a tocar tanto

316
00:18:09.789 --> 00:18:10.309
como se dice?

317
00:18:12.049 --> 00:18:18.650
Uf, yo creo que la IA va a tocar y

318
00:18:18.730 --> 00:18:23.200
trastocar muchos de los trabajos de poco valor, de procesado,

319
00:18:23.539 --> 00:18:28.900
todos los más cercanos a la automatización sencilla. Por ejemplo,

320
00:18:30.279 --> 00:18:34.430
yo recuerdo años atrás que cuando se enviaban los tomates,

321
00:18:34.450 --> 00:18:36.789
y seguro que alguno de nuestros oyentes lo conoce bien,

322
00:18:37.289 --> 00:18:41.599
Cuando los tomates se envían, se exportan, se exportan con

323
00:18:41.640 --> 00:18:47.299
un determinado color y el color implica un grado de madurez, ¿no? Entonces,

324
00:18:48.980 --> 00:18:53.569
en muchos de los campos tenían a personas eligiendo el

325
00:18:53.630 --> 00:18:56.490
color exacto en el cual había que recolectar el tomate

326
00:18:56.509 --> 00:18:59.430
uno a uno para enviarlo y que durante el tiempo

327
00:18:59.470 --> 00:19:03.359
del viaje el proceso de maduración llegara con el color contratado, ¿no?

328
00:19:03.990 --> 00:19:06.369
Había personas que lo único que utilizaban es su capacidad

329
00:19:06.470 --> 00:19:10.230
cognitiva de visión para reconocerlo y llegó un momento que

330
00:19:11.329 --> 00:19:15.039
se automatizó y lógicamente ya se hace con sistemas de

331
00:19:15.079 --> 00:19:18.160
inteligencia artificial hace ya muchos años. Hoy en día yo

332
00:19:18.180 --> 00:19:20.240
creo que estamos en lo mismo. Entonces en las empresas

333
00:19:20.319 --> 00:19:25.180
todos los trabajos que son automatizables porque son generación de informes,

334
00:19:25.650 --> 00:19:29.490
generación de textos, procesado de datos, etc., pues cada vez

335
00:19:29.529 --> 00:19:34.640
van a tener mucho más, menos valor, ¿no? En uno

336
00:19:34.680 --> 00:19:36.920
de los casos de uso que nosotros utilizamos mucho más

337
00:19:36.940 --> 00:19:43.099
es el triaje de datos, ¿no? de ficheros de cosas

338
00:19:43.119 --> 00:19:45.720
que están pasando, de log, mensajes que no llegan, etc.

339
00:19:45.769 --> 00:19:48.369
Entonces todo eso la inteligencia artificial le hace un triaje

340
00:19:48.390 --> 00:19:52.029
y lo clasifica y dice, oye, pues esto puede ser

341
00:19:52.130 --> 00:19:54.829
por esta causa y además esto que llega por aquí

342
00:19:55.009 --> 00:19:57.369
creo que es el mismo caso pero explicado de manera

343
00:19:57.470 --> 00:20:01.789
distinta y está asistiendo a nuestros ingenieros a tomar una

344
00:20:01.869 --> 00:20:04.869
decisión a la hora de algo que está pasando en

345
00:20:04.890 --> 00:20:07.619
nuestros sistemas y en nuestras plataformas y a mejorar. Entonces,

346
00:20:07.640 --> 00:20:13.279
todos esos que son procesado de información para generar dentro

347
00:20:13.319 --> 00:20:16.920
de la cadena de valor y de toma de decisiones inteligencia,

348
00:20:17.240 --> 00:20:20.000
pues cada vez se van a ir cambiando. viendo más afectados. Claro,

349
00:20:20.079 --> 00:20:20.240
o sea

350
00:20:20.259 --> 00:20:22.170
que hay que ser fontanero y electricista, digo, por llegar

351
00:20:22.190 --> 00:20:22.410
a alguna

352
00:20:22.430 --> 00:20:22.930
conclusión. No, yo

353
00:20:23.789 --> 00:20:25.750
tampoco, yo creo que todavía no está en el nivel

354
00:20:25.789 --> 00:20:29.029
de creatividad que tenemos

355
00:20:29.109 --> 00:20:31.359
los seres humanos. Bueno, el artículo Pérez Reverte que ya

356
00:20:31.390 --> 00:20:34.119
está acojonado porque empieza a ver que escriben como él.

357
00:20:34.319 --> 00:20:34.390
Sí

358
00:20:34.539 --> 00:20:38.920
pero yo he estado viendo ahí cómo está escribiendo la

359
00:20:38.980 --> 00:20:40.619
novela esa que va a sacar en septiembre y no

360
00:20:41.359 --> 00:20:44.369
creo que se le ocurriera algo así a una idea.

361
00:20:44.740 --> 00:20:47.579
Bueno, tercera pregunta que me dicta la inteligencia artificial.¿ Cuál

362
00:20:47.640 --> 00:20:52.069
será el mayor riesgo no obvio de la inteligencia artificial? ¿Desinformación,

363
00:20:52.630 --> 00:20:58.109
ciberataques automatizados, dependencia tecnológica o concentración de poder?

364
00:20:58.490 --> 00:21:00.930
Pues mira, yo, y esto es un tema personal mío

365
00:21:00.970 --> 00:21:04.529
que he estado hablando, yo creo que la manipulación de

366
00:21:04.609 --> 00:21:09.150
las sociedades con la inteligencia artificial a gran escala es

367
00:21:09.230 --> 00:21:14.680
uno de los grandes riesgos. La polarización... es muy fácil

368
00:21:14.779 --> 00:21:18.220
de explotarla con la inteligencia artificial. Yo hacía un estudio,

369
00:21:19.000 --> 00:21:22.240
lo publiqué en un evento en el mes de marzo,

370
00:21:22.259 --> 00:21:24.700
hice una conferencia que se llamaba Fear of the Dark,

371
00:21:24.789 --> 00:21:27.049
como la canción de los Iron Maiden, ¿no? Miedo a

372
00:21:27.069 --> 00:21:31.450
la oscuridad. Entonces, lo que moviliza a las personas es

373
00:21:31.470 --> 00:21:34.890
el miedo, ¿no? Y hay un estudio que cataloga todos

374
00:21:34.930 --> 00:21:37.490
los miedos de los seres humanos en cinco categorías. Lo

375
00:21:37.529 --> 00:21:40.730
llaman los five primal fears, ¿no? Los cinco miedos primarios

376
00:21:40.789 --> 00:21:44.819
de los seres humanos. donde están la muerte, la mutilación,

377
00:21:44.839 --> 00:21:49.349
la exclusión social, etc. Son cinco miedos. Entonces yo cogí

378
00:21:51.049 --> 00:21:54.309
los vídeos que se están publicando en redes sociales hechos

379
00:21:54.410 --> 00:21:59.049
con inteligencia artificial, con un eje político incluso de influencers

380
00:21:59.190 --> 00:22:03.839
e incluso de medios de comunicación tradicionales. Cogí los canales

381
00:22:03.880 --> 00:22:06.940
de Instagram y de TikTok, los de los Reels y

382
00:22:07.000 --> 00:22:10.009
los TikToks, Y los pasé con un análisis detallado y

383
00:22:10.049 --> 00:22:14.049
concienciudo de inteligencia artificial que buscaba en ese vídeo la

384
00:22:14.109 --> 00:22:17.609
narración y qué miedos se están explotando. Y es tremendo

385
00:22:18.150 --> 00:22:20.509
la cantidad de miedos que se están poniendo. Pero además,

386
00:22:22.599 --> 00:22:25.940
con ese modelo de inteligencia artificial lo que sacábamos era

387
00:22:26.000 --> 00:22:30.160
también un análisis crítico de si el mensaje era correcto

388
00:22:30.180 --> 00:22:33.859
o cuál era la trampa. Y es sorprendente el análisis

389
00:22:33.980 --> 00:22:38.400
crítico que te hace para detectar, oye, en este... en

390
00:22:38.440 --> 00:22:41.579
este vídeo, que se están explotando este miedo y este

391
00:22:41.619 --> 00:22:46.299
miedo con este nivel de intensidad, se está omitiendo correctamente,

392
00:22:46.319 --> 00:22:49.980
o sea, expresamente este dato, este dato, para construir un

393
00:22:50.059 --> 00:22:53.180
relato de no sé qué. Tremendo, tremendo. Claro,¿ por qué

394
00:22:53.200 --> 00:22:56.630
hice yo ese estudio? Porque la historia es que igual

395
00:22:56.869 --> 00:23:01.069
que se explotan esos miedos para conseguir la atención de

396
00:23:01.109 --> 00:23:03.490
las personas, el ser humano pone atención a lo que

397
00:23:03.529 --> 00:23:07.829
le es peligroso para él, nadie las cosas... Que vaya

398
00:23:07.890 --> 00:23:09.750
bien en Francia todo, no te presta atención a ti

399
00:23:09.789 --> 00:23:13.119
en Francia. Te presta atención, pones atención cuando algo no

400
00:23:13.160 --> 00:23:17.940
va bien. Pues lo contrario.¿ Cómo generar con inteligencia artificial

401
00:23:17.960 --> 00:23:24.880
vídeos totalmente hiperrealistas que están manipulando a la opinión pública

402
00:23:27.180 --> 00:23:29.170
por el uso de miedos? Y hay una cosa fantástica

403
00:23:29.230 --> 00:23:32.589
que tienen los miedos, que es la RAE, que el

404
00:23:32.650 --> 00:23:38.450
miedo es temor y preocupación a que una amenaza real

405
00:23:38.630 --> 00:23:42.099
o imaginaria tenga lugar. O sea, puedes tener miedo a

406
00:23:42.170 --> 00:23:45.920
los vampiros o a los fantasmas o a algo que

407
00:23:46.000 --> 00:23:50.880
no sea real y eso te puede movilizar. Entonces, movilizar

408
00:23:51.700 --> 00:23:56.500
por medio de inteligencia artificial explotada masivamente a través de

409
00:23:57.039 --> 00:24:00.259
redes sociales, yo creo que es un riesgo muy grande

410
00:24:00.279 --> 00:24:04.180
que puede permitir, puede hacer daño a las sociedades.

411
00:24:04.809 --> 00:24:07.650
Déjame, porque ya nos hemos comido todo el tiempo que teníamos.

412
00:24:07.670 --> 00:24:09.990
Te hablo mucho yo. No, no, no, pero yo creo

413
00:24:10.029 --> 00:24:12.490
que todo es interesante. A mí la última pregunta me

414
00:24:12.509 --> 00:24:14.660
parece que es clave. Por eso, y además vuelvo a

415
00:24:14.700 --> 00:24:18.559
repetir que yo no he sido aquí el artífice de

416
00:24:18.700 --> 00:24:23.619
la idea.¿ Quién debería tener el botón de apagado cuando

417
00:24:23.680 --> 00:24:28.009
la inteligencia artificial toma decisiones críticas?¿ La empresa, el regulador,

418
00:24:28.250 --> 00:24:29.509
el usuario o nadie?

419
00:24:30.769 --> 00:24:33.589
Una pregunta muy complicada. Yo creo que es un trabajo

420
00:24:34.150 --> 00:24:40.140
coordinado entre todos. Todos tenemos que tener esa responsabilidad. Los

421
00:24:40.180 --> 00:24:42.950
seres humanos tenemos que decidir.¿ Qué hacemos con esta tecnología?

422
00:24:43.029 --> 00:24:45.049
Lo hemos tenido en el pasado que tomar esta decisión.

423
00:24:45.750 --> 00:24:48.890
Cuando aparecieron las bombas nucleares, yo nací en los 70 y

424
00:24:49.509 --> 00:24:51.150
recordarás que entonces lo que se decía es que no

425
00:24:51.170 --> 00:24:54.819
íbamos a llegar al siglo XXI, que antes íbamos a

426
00:24:54.900 --> 00:24:58.160
tener la Tercera Guerra Mundial. Hasta el propio Einstein hablaba

427
00:24:58.720 --> 00:25:01.400
de eso y los científicos. Hablábamos del invierno nuclear, de

428
00:25:01.539 --> 00:25:04.750
cómo iba a ser la vida cuando estallaran las bombas atómicas.

429
00:25:04.769 --> 00:25:06.890
Todavía hemos conseguido que eso no haya pasado. Pues ahora

430
00:25:06.930 --> 00:25:09.509
tenemos una tecnología que es una disrupción muy grande... Y

431
00:25:09.549 --> 00:25:11.970
lo que tenemos que intentar es que no pase lo

432
00:25:11.990 --> 00:25:15.750
que sucedió con la revolución industrial, que fue un auténtico

433
00:25:16.630 --> 00:25:19.950
dolor para las personas que la sufrieron en primera persona

434
00:25:20.549 --> 00:25:23.029
y que además coleó durante muchas décadas y es parte

435
00:25:23.089 --> 00:25:26.490
de todo lo que sucedió en Europa posterior y que

436
00:25:26.509 --> 00:25:30.730
hemos estado viendo en tantos años en tantos países. Entonces

437
00:25:30.769 --> 00:25:32.849
yo creo que debe ser responsabilidad de todos y no

438
00:25:32.890 --> 00:25:35.819
debemos excluir nuestra responsabilidad en eso.

439
00:25:36.250 --> 00:25:37.869
Bueno, lo que queda claro es que tienes que venir más,

440
00:25:38.430 --> 00:25:41.339
porque me han quedado muchas dudas en el tindero, pero

441
00:25:41.400 --> 00:25:42.059
el tiempo, ya sabes...

442
00:25:42.160 --> 00:25:42.279
Yo

443
00:25:42.539 --> 00:25:42.700
te

444
00:25:42.759 --> 00:25:45.380
pido públicamente que en cuanto pueda me deje hueco volver

445
00:25:45.400 --> 00:25:47.259
a la tertulia contigo, ya lo sabes.

446
00:25:47.279 --> 00:25:50.099
Lo pensaré, lo consultaré con la inteligencia artificial a ver

447
00:25:50.140 --> 00:25:52.339
cuál es el consejo que me da. Y, hermanos, gracias

448
00:25:52.400 --> 00:25:53.940
por estar con nosotros. Un saludo muy cordial.

449
00:25:54.140 --> 00:26:00.069
Un saludo. En Casa de

450
00:26:01.029 --> 00:26:04.769
Herrero, con Luis Herrero, es radio.