March 15, 2026

¿Se deben regular las redes sociales?

¿Se deben regular las redes sociales?
Apple Podcasts podcast player iconSpotify podcast player iconYoutube Music podcast player icon
Apple Podcasts podcast player iconSpotify podcast player iconYoutube Music podcast player icon

Las redes sociales han servido como medio de expresión importante, también están causando daño, especialmente a niños y jóvenes. ¿Cuál es la responsabilidad de las plataformas de redes sociales de los efectos negativos en sus usuarios?

Para este capítulo hablamos con Carolina Piñeros, directora ejecutiva de Red PaPaz; con Rocío López, docente e investigadora de la Universidad Javeriana; con Daniela Flórez, directora ejecutiva de Linterna Verde; con Alejandro Castañeda Molina, jefe del Centro de Internet Seguro - Viguías; y el con exministro de las tecnologías de comunicación, David Luna.

WEBVTT

1
00:00:06.780 --> 00:00:10.640
Soy Roberto Pombo. Bienvenidos a Mis Preguntas, un programa de

2
00:00:10.740 --> 00:00:14.769
Prisa Media patrocinado por CAFAM, una caja llena de oportunidades

3
00:00:14.849 --> 00:00:21.329
para trabajadores, empresarios y emprendedores. CAFAM, una caja llena.¿ Se

4
00:00:21.390 --> 00:00:25.309
deben regular las redes sociales? Las redes sociales han servido

5
00:00:25.390 --> 00:00:29.800
como medio de expresión importante. También están causando daño, especialmente

6
00:00:29.839 --> 00:00:33.350
a niños y a jóvenes.¿ Cuál es la responsabilidad de

7
00:00:33.390 --> 00:00:37.090
las plataformas de redes sociales por los efectos negativos en

8
00:00:37.250 --> 00:00:41.939
sus usuarios? Para este capítulo hablamos con Carolina Piñeros, directora

9
00:00:41.979 --> 00:00:46.259
ejecutiva de Red Papaz, con Rocío López, docente e investigadora

10
00:00:46.299 --> 00:00:50.259
de la Universidad Javeriana, con Daniela Flores, directora ejecutiva de

11
00:00:50.280 --> 00:00:54.340
Linterna Verde, con Alejandro Castañeda Molina, jefe del Centro de

12
00:00:54.409 --> 00:00:58.609
Internet Seguro Vigías y con el exministro de las Tecnologías

13
00:00:58.649 --> 00:01:02.560
de Comunicación David Luna. Soy Roberto Pombo y este es

14
00:01:02.600 --> 00:01:08.920
el capítulo 183 de Mis Preguntas. Bienvenidos.¿ Se han dado cuenta

15
00:01:09.099 --> 00:01:12.530
de que cada vez hay menos fumadores? Con el paso

16
00:01:12.609 --> 00:01:15.849
del tiempo y gracias a los descubrimientos científicos del impacto

17
00:01:15.890 --> 00:01:19.170
del tabaco, se ha vuelto un vicio en vías de extinción.

18
00:01:19.810 --> 00:01:22.849
Pero esto no fue casualidad, se lo debemos a un hombre,

19
00:01:23.349 --> 00:01:28.680
Jeffrey Wigand. Wigand es bioquímico con doctorado y a principios

20
00:01:28.719 --> 00:01:33.239
de la década de 1990 se convirtió en vicepresidente de investigación

21
00:01:33.260 --> 00:01:36.959
y desarrollo de Brown & Williamson, entonces una de las

22
00:01:37.060 --> 00:01:41.310
grandes tabacaleras de Estados Unidos. Su trabajo era sencillo, entender

23
00:01:41.450 --> 00:01:45.250
científicamente el producto que la compañía fabrica, o sea, cigarrillos.

24
00:01:45.890 --> 00:01:49.489
Tenía acceso a estudios internos, reportes químicos y reuniones con

25
00:01:49.549 --> 00:01:54.280
otros científicos globales. Estaba ahí para desarrollar cigarrillos de menor daño.

26
00:01:55.319 --> 00:01:59.120
Pero con el tiempo, Wigand descubre algo que lo sorprende

27
00:01:59.140 --> 00:02:02.450
y con el paso del tiempo lo inquieta profundamente. Los

28
00:02:02.510 --> 00:02:06.569
documentos de la propia empresa mostraban un conocimiento que contrasta

29
00:02:06.750 --> 00:02:09.840
radicalmente con lo que decía la industria en público y

30
00:02:09.900 --> 00:02:13.460
por esa época se ocultaba. Los altos ejecutivos sabían que

31
00:02:13.500 --> 00:02:17.000
la nicotina era adictiva y que ciertos aditivos, como los

32
00:02:17.180 --> 00:02:20.659
que aceleran la absorción de nicotina en los pulmones, no

33
00:02:20.719 --> 00:02:24.330
solo generaban dependencia, sino que estaban diseñados para ser el

34
00:02:24.349 --> 00:02:29.210
producto más difícil de abandonar. Wiggins sintió que el mundo

35
00:02:29.349 --> 00:02:32.740
debía saber esto. que las tabacaleras estaban creando productos más

36
00:02:32.800 --> 00:02:36.599
adictivos después de años de observar cómo la empresa negaba

37
00:02:36.659 --> 00:02:42.330
públicamente lo que internamente se sabía. En 1995, decidió hablar con

38
00:02:42.370 --> 00:02:46.530
el famoso programa periodístico 60 Minutes y con agentes de la

39
00:02:46.550 --> 00:02:50.370
Administración de Alimentos y Medicamentos de Estados Unidos. Reveló que

40
00:02:50.430 --> 00:02:54.590
la industria tabacalera no solo sabía que la nicotina era adictiva,

41
00:02:55.090 --> 00:02:59.039
sino que había diseñado sus productos para maximizar esa adicción.

42
00:02:59.870 --> 00:03:03.189
Lo que había sido un secreto exclusivo de los laboratorios

43
00:03:03.210 --> 00:03:19.699
ahora se convertía en conocimiento público. En el fragmento que

44
00:03:19.740 --> 00:03:23.759
acaban de escuchar, Wigand revela que la tabacalera hacía un

45
00:03:23.819 --> 00:03:28.139
uso extensivo de una tecnología llamada química del amoníaco que

46
00:03:28.199 --> 00:03:31.150
permite que la nicotina se absorba más rápidamente en los

47
00:03:31.219 --> 00:03:34.650
pulmones y, por lo tanto, afecte al cerebro y al

48
00:03:34.689 --> 00:03:38.430
sistema nervioso central. Como era de esperarse, Wigand fue despedido

49
00:03:38.469 --> 00:03:41.409
y demandado por la empresa y, además, vivió una persecución

50
00:03:41.490 --> 00:03:44.210
intensa que lo llevó a cambiar de identidad por un tiempo.

51
00:03:44.509 --> 00:03:47.819
Su declaración fue pieza clave en una serie de demandas

52
00:03:47.840 --> 00:03:51.650
estatales que terminaron por forzar a las grandes tabacaleras a

53
00:03:52.150 --> 00:03:54.729
pagar miles de millones de dólares por los daños a

54
00:03:54.849 --> 00:03:57.830
la salud pública en Estados Unidos. Y su lucha inspiró

55
00:03:57.849 --> 00:04:01.469
debates regulatorios y ayudó a que gobiernos y organismos de

56
00:04:01.550 --> 00:04:05.560
salud reconocieran oficialmente la adicción al tabaco como un asunto

57
00:04:05.599 --> 00:04:09.939
de interés público. Hoy, más de tres décadas después, parece

58
00:04:09.960 --> 00:04:13.180
estar pasando algo similar. Solo que ahora, en vez de

59
00:04:13.219 --> 00:04:17.500
las tabacaleras, hablamos de las grandes empresas tecnológicas, creadoras de

60
00:04:17.540 --> 00:04:22.060
las redes sociales como Facebook, Instagram, TikTok o X. Hay

61
00:04:22.139 --> 00:04:26.000
suficientes evidencias de que el uso de redes sociales tiene

62
00:04:26.060 --> 00:04:30.050
un efecto negativo, no solo en niñas y niños adolescentes,

63
00:04:30.449 --> 00:04:34.730
sino también en adultos.¿ Podemos decir que las redes sociales

64
00:04:35.110 --> 00:04:38.910
son la nicotina del siglo XXI? Escuchemos lo que me

65
00:04:38.990 --> 00:04:42.410
contó Carolina Piñeros, directora ejecutiva de Red Papaz.

66
00:04:44.129 --> 00:04:48.620
Las redes sociales han diseñado sus productos a conciencia, buscando

67
00:04:48.639 --> 00:04:52.420
la no desconexión a cualquier precio y usando los datos

68
00:04:52.439 --> 00:04:55.480
e información de las personas como su moneda de cambio.

69
00:04:56.240 --> 00:05:00.019
Y al igual que otros productos nocivos, han puesto el

70
00:04:59.879 --> 00:05:04.850
100% de la responsabilidad en los individuos, en su debilidad.

71
00:05:05.300 --> 00:05:08.939
en su falta de decisión y fortaleza para no mantenerse conectado.

72
00:05:09.480 --> 00:05:12.959
Y en el caso de menores de 18 años, responsabilizan a

73
00:05:13.019 --> 00:05:15.250
su vez a sus familias y a los colegios. Es

74
00:05:15.970 --> 00:05:18.870
quizá la razón por la que estos últimos no vieron

75
00:05:19.209 --> 00:05:22.589
otra salida que prohibirlos en las aulas y en el recreo.

76
00:05:24.649 --> 00:05:27.110
Las redes sociales son un fenómeno del que no parece

77
00:05:27.149 --> 00:05:30.839
haber regreso. Todo el mundo tiene una cuenta en Instagram,

78
00:05:30.879 --> 00:05:34.120
en Facebook o en X. Las redes sociales son testigos

79
00:05:34.139 --> 00:05:38.420
de nuestras vidas, los matrimonios, las vacaciones, nuestras opiniones políticas.

80
00:05:38.540 --> 00:05:43.629
Todo está contenido allí. Según el informe digital 2025 de Data Reportal,

81
00:05:44.089 --> 00:05:48.189
hay más de 5.200 millones de usuarios de redes sociales en

82
00:05:48.230 --> 00:05:49.589
el mundo, algo así como el 62% de la población global.

83
00:05:52.790 --> 00:05:57.889
Solamente en 2024 y 2025 se sumaron más de 200 millones de nuevas

84
00:05:57.970 --> 00:06:02.439
cuentas o identidades de usuarios en redes sociales. A nivel global,

85
00:06:02.459 --> 00:06:06.620
el promedio de tiempo total en Internet ronda las 6 horas

86
00:06:06.660 --> 00:06:10.699
y 38 minutos al día. Latinoamérica es una región especialmente activa

87
00:06:10.740 --> 00:06:15.160
en redes sociales. De acuerdo con datos de Comscore, 86%

88
00:06:15.220 --> 00:06:19.180
de los latinoamericanos son activos en redes sociales, una tasa

89
00:06:19.279 --> 00:06:23.000
muy superior al promedio global. Las cifras nacionales son tremendas.

90
00:06:23.459 --> 00:06:27.230
Casi el 93% de los usuarios de Internet accede al

91
00:06:27.269 --> 00:06:30.189
menos a una red social, una penetración muy alta en

92
00:06:30.230 --> 00:06:33.360
comparación con la población total conectada. Y en el país

93
00:06:33.379 --> 00:06:37.160
dedicamos unas 3 horas y 25 minutos al día a interactuar en

94
00:06:37.220 --> 00:06:40.100
redes sociales, lo que pone al país entre los que

95
00:06:40.199 --> 00:06:43.370
más tiempo diario invierten en estas plataformas en el mundo,

96
00:06:43.759 --> 00:06:51.290
superando ampliamente el promedio global. Para octubre de 2025, alrededor de 37,7

97
00:06:51.290 --> 00:06:55.649
millones de identidades de uso activas en redes sociales, equivalentes

98
00:06:55.670 --> 00:07:00.360
a 70,4% de la población total, con un crecimiento de

99
00:07:00.439 --> 00:07:05.500
más de 1,6 millones entre finales de 2024 y finales de 2025. Y

100
00:07:05.860 --> 00:07:09.040
aquí viene un dato al que tenemos que prestarle mucha atención.

101
00:07:09.540 --> 00:07:13.040
De acuerdo con datos de la Comisión de Regulación de Comunicaciones,

102
00:07:13.060 --> 00:07:18.240
los niños, niñas y adolescentes Entre los 3 y 17 años pasan 8.9

103
00:07:18.360 --> 00:07:22.139
horas diarias en el celular, o sea, más de una

104
00:07:22.259 --> 00:07:25.750
cuarta parte del día. Mejor dicho, las redes sociales se

105
00:07:25.819 --> 00:07:30.350
convirtieron en una realidad alterna donde también pasan nuestras vidas.

106
00:07:31.009 --> 00:07:34.589
Están siempre al alcance de nuestras manos, en nuestros bolsillos.

107
00:07:35.089 --> 00:07:38.209
Eso puede ser una buena o una mala noticia, depende

108
00:07:38.230 --> 00:07:41.149
de cómo se mire. Pero todo apunta a que es

109
00:07:41.269 --> 00:07:45.490
más una mala noticia. Unos capítulos atrás, Hablaba sobre la

110
00:07:45.500 --> 00:07:48.250
adicción al celular y la cuestión es grave. Las redes

111
00:07:48.350 --> 00:07:52.829
sociales están capturando toda nuestra atención y funcionan como máquinas

112
00:07:52.889 --> 00:07:56.529
tragamonedas que llevamos en el bolsillo. Y cada vez que

113
00:07:56.610 --> 00:08:02.290
revisamos Instagram, Facebook o TikTok, el cerebro libera dopamina anticipando

114
00:08:02.329 --> 00:08:06.360
una posible recompensa. Los me gusta o los likes. Las

115
00:08:06.379 --> 00:08:10.110
notificaciones y los mensajes y los videos satisfactorios llegan de

116
00:08:10.170 --> 00:08:13.680
forma impredecible, lo que crea un poderoso sistema de refuerzo

117
00:08:14.040 --> 00:08:19.100
que hace que revisemos el celular constantemente esperando esa retroalimentación social.

118
00:08:19.970 --> 00:08:22.410
En un mundo donde el uso de redes sociales es

119
00:08:22.529 --> 00:08:26.060
cada vez más alto,¿ hay vuelta de hoja de esta situación?¿

120
00:08:26.589 --> 00:08:30.939
Es posible pensar en futuras generaciones libres de redes sociales?

121
00:08:31.459 --> 00:08:34.460
Esto me explicó Rocío López, doctora en Ciencias de la

122
00:08:34.519 --> 00:08:38.200
Información y de la Comunicación e Investigadora de la Universidad Javeriana.

123
00:08:40.250 --> 00:08:43.620
Bueno, ciertamente sí estamos en un mundo donde las redes

124
00:08:43.700 --> 00:08:48.600
sociales ganan mayor protagonismo, tienen mayor espacio y esto también

125
00:08:48.620 --> 00:08:52.080
tiene que ver con todas las posibilidades que ofrecen, ¿no?

126
00:08:52.120 --> 00:08:57.509
En términos de inmediatez, múltiples formas de comunicación, múltiples formas

127
00:08:57.529 --> 00:09:00.710
de lenguajes, de acercárselos unos a los otros en

128
00:09:02.190 --> 00:09:02.269
un

129
00:09:02.330 --> 00:09:04.990
ritmo de vida que al menos en las ciudades pues

130
00:09:05.669 --> 00:09:09.179
cada vez también es más exigente en términos de productividad.

131
00:09:09.620 --> 00:09:15.840
de permanecer activo, actualizado, etc. Entonces, es muy probable, digamos,

132
00:09:15.860 --> 00:09:18.919
que en lugar de desaparecer, lo que puede ocurrir es

133
00:09:19.480 --> 00:09:23.000
que se transforme, como ya ha ocurrido en los últimos años,

134
00:09:23.080 --> 00:09:26.600
digamos que unas primeras redes sociales que estaban como muy

135
00:09:26.639 --> 00:09:29.399
en los primeros lugares, pues fueron reemplazadas por otras que

136
00:09:29.440 --> 00:09:33.379
ofrecían a lo mejor mayor protagonismo en términos de imagen,

137
00:09:33.440 --> 00:09:38.340
de música, de interactividad, etc., etc., Digamos que en lugar

138
00:09:38.379 --> 00:09:41.279
de que desaparezcan, lo más probable es que se transformen

139
00:09:41.299 --> 00:09:47.669
y probablemente proponiendo unos espacios comunicativos con mayor interactividad, de

140
00:09:48.090 --> 00:09:53.980
mayor atractivo, con mayores posibilidades. Si habrá una generación que

141
00:09:54.000 --> 00:09:57.039
pueda estar libre de esto, por lo menos las próximas generaciones,

142
00:09:57.220 --> 00:10:00.980
es muy probable que no, porque justamente cada vez están

143
00:10:01.059 --> 00:10:03.360
más incorporadas en nuestra vida cotidiana y

144
00:10:03.379 --> 00:10:04.230
en nuestra vida diaria

145
00:10:04.580 --> 00:10:07.320
Por lo tanto, no sé, ya no solamente es un

146
00:10:07.379 --> 00:10:11.240
tema de redes familiares o de amistades, sino que también

147
00:10:11.259 --> 00:10:15.350
hay temas laborales, profesionales, para los chicos también tienen que

148
00:10:15.399 --> 00:10:19.389
ver con las tareas, con sus roles de estudiante, etcétera, etcétera. Entonces,

149
00:10:20.000 --> 00:10:23.970
Es muy poco probable que en las próximas generaciones nos

150
00:10:24.019 --> 00:10:28.289
encontremos sin esta tecnología que ya está muy en nuestra

151
00:10:28.389 --> 00:10:31.330
vida cotidiana. Lo que sí puede ocurrir es que estas

152
00:10:31.409 --> 00:10:35.289
tecnologías evolucionen, se transformen y nos ofrezcan cosas nuevas.

153
00:10:38.289 --> 00:10:41.090
Usted se preguntará por qué es tan problemático que cada

154
00:10:41.149 --> 00:10:44.669
vez más personas usen redes sociales, si finalmente es un

155
00:10:44.750 --> 00:10:48.490
medio que sirve para acercar a las personas, para mantenernos

156
00:10:48.549 --> 00:10:52.529
informados o para entretenernos. Y sí, estas razones son ciertas.

157
00:10:52.850 --> 00:10:56.700
De hecho, la misma OCDE asegura que las plataformas digitales

158
00:10:56.769 --> 00:11:00.600
pueden facilitar la conexión social, el acceso a información y

159
00:11:01.059 --> 00:11:05.000
la participación cívica, especialmente para jóvenes que se sienten aislados

160
00:11:05.019 --> 00:11:08.669
en su entorno físico. Y en adultos, las redes sociales

161
00:11:08.750 --> 00:11:13.070
también cumplen funciones laborales, informativas y comunitarias. Pero aquí hay

162
00:11:13.110 --> 00:11:17.649
un punto importante. Comencé el programa hablándoles de cómo las tabacaleras,

163
00:11:17.730 --> 00:11:21.759
sabiendo que su producto generaba adicción, lo ocultaron y, peor aún,

164
00:11:22.100 --> 00:11:25.480
buscaron activamente que lo fuera. Pues bien, con las redes

165
00:11:25.519 --> 00:11:29.700
sociales pasa algo similar y las evidencias son abundantes. En

166
00:11:29.740 --> 00:11:33.279
los últimos años han salido a la luz investigaciones basadas

167
00:11:33.299 --> 00:11:38.570
en documentos internos de grandes plataformas, principalmente Meta, empresa dueña

168
00:11:38.610 --> 00:11:43.639
de Facebook e Instagram. Estos documentos eran estudios internos, presentaciones,

169
00:11:43.659 --> 00:11:48.220
chats de empleados o filtraciones de investigaciones que no estaban

170
00:11:48.279 --> 00:11:51.870
destinados al público y fueron publicados o usadas como evidencia

171
00:11:51.879 --> 00:11:57.460
en demandas, declaraciones ante gobiernos o reportajes periodísticos conocidos como

172
00:11:57.480 --> 00:12:00.960
los Facebook Papers. Por ejemplo, en septiembre de 2021, el Wall

173
00:12:01.000 --> 00:12:07.019
Street Journal publicó un reportaje basado en documentos internos proporcionados

174
00:12:07.080 --> 00:12:10.600
por la científica de datos Frances Hogan, que así como

175
00:12:10.620 --> 00:12:14.460
Jeffrey Wigand hizo con las tabacaleras, mostró al mundo el

176
00:12:14.919 --> 00:12:18.610
conflicto de interés de la empresa tecnológica. Los archivos mostraban

177
00:12:18.639 --> 00:12:23.490
que Meta, entonces Facebook, tenía estudios internos que señalaban que

178
00:12:23.669 --> 00:12:28.419
Instagram era perjudicial para muchos adolescentes, especialmente para mujeres adolescentes.

179
00:12:28.940 --> 00:12:33.220
El reportaje describe directamente hallazgos de las investigaciones internas de

180
00:12:33.259 --> 00:12:38.009
la empresa. Los documentos mostraban que el 32% de las

181
00:12:38.029 --> 00:12:41.389
adolescentes dijeron que cuando se sentían mal con su cuerpo,

182
00:12:41.789 --> 00:12:45.590
Instagram las hacía sentir peor. En estos estudios también se

183
00:12:45.620 --> 00:12:49.690
indicaba que parte del contenido mostraba resultados que la compañía

184
00:12:49.809 --> 00:12:54.149
sabía que podían agravar problemas de autoestima y ansiedad en jóvenes.

185
00:12:55.000 --> 00:12:58.940
Otros medios, como The Verge, Político y The New York Times,

186
00:12:59.259 --> 00:13:03.200
también publicaron varios de estos hallazgos. De acuerdo con los reportajes,

187
00:13:03.700 --> 00:13:07.740
las investigaciones internas que ahora forman parte de ese conjunto

188
00:13:08.139 --> 00:13:13.110
incluían análisis propios de meta sobre ciertos efectos adversos en adolescentes,

189
00:13:13.470 --> 00:13:19.110
incluyendo autoestima, ansiedad y respuestas a comentarios dañinos. Y la empresa,

190
00:13:19.129 --> 00:13:22.470
a pesar de conocer esos efectos adversos de sus plataformas,

191
00:13:22.490 --> 00:13:26.289
no los había divulgado en público. Así como Jeffrey Wigand,

192
00:13:26.669 --> 00:13:30.720
Francis Haugen le contó al programa 60 Minutes lo que estaba pasando.

193
00:13:32.019 --> 00:13:33.200
Lo que vi en Facebook de nuevo y de nuevo

194
00:13:33.220 --> 00:13:37.049
fue que había conflictos de interés entre lo que era

195
00:13:37.070 --> 00:13:40.389
bueno para el público y lo que era bueno para Facebook.

196
00:13:41.340 --> 00:13:43.000
Y Facebook de nuevo y de nuevo decidió optimizar por

197
00:13:43.039 --> 00:13:44.279
sus propios intereses, como hacer más dinero.

198
00:13:46.110 --> 00:13:49.370
Lo que cuenta Haugen es que lo que vio en

199
00:13:49.409 --> 00:13:52.490
repetidas ocasiones al interior de la empresa es que había

200
00:13:52.549 --> 00:13:55.529
conflictos de intereses entre lo que era bueno para el

201
00:13:55.629 --> 00:13:57.990
público y lo que era bueno para Facebook. Y Facebook

202
00:13:58.330 --> 00:14:01.289
una y otra vez eligió optimizar sus algoritmos para sus

203
00:14:01.350 --> 00:14:05.289
propios intereses, para ganar más dinero a sabiendas del daño

204
00:14:05.590 --> 00:14:10.100
que causaba a sus usuarios. Pero Instagram y Facebook no

205
00:14:10.179 --> 00:14:13.799
son las únicas redes con algoritmos que pueden causar efectos

206
00:14:13.899 --> 00:14:17.120
negativos en sus usuarios. Si usted es usuario de TikTok,

207
00:14:17.559 --> 00:14:20.500
sabrá que es una aplicación de la que es difícil salir,

208
00:14:20.840 --> 00:14:24.240
que uno puede quedarse enganchado por mucho tiempo viendo videos

209
00:14:24.299 --> 00:14:28.159
que nos gustan tanto que parece que le hieran nuestra mente. Bueno,

210
00:14:28.659 --> 00:14:32.179
eso no es una casualidad, todo lo contrario. Una investigación

211
00:14:32.580 --> 00:14:36.539
de Washington Post encontró que esta plataforma usa algoritmos para

212
00:14:36.620 --> 00:14:40.279
mantener a los usuarios enganchados y crear patrones de uso compulsivo,

213
00:14:40.799 --> 00:14:44.070
basándose en un análisis real de datos de usuarios. La

214
00:14:44.129 --> 00:14:49.220
investigación encontró que las personas que inicialmente usaban TikTok alrededor

215
00:14:49.240 --> 00:14:53.659
de 30 minutos al día, terminaron consumiendo más de 70 minutos diarios

216
00:14:53.980 --> 00:14:58.179
tras varios meses de uso. Viendo estos antecedentes,¿ el modelo

217
00:14:58.220 --> 00:15:02.340
de negocio de las redes sociales es, por definición, incompatible

218
00:15:02.399 --> 00:15:05.370
con el bienestar de los usuarios?¿ O puede haber una

219
00:15:05.450 --> 00:15:08.309
versión de este modelo que sea rentable y que no

220
00:15:08.409 --> 00:15:11.950
cause daño? Le trasladé la inquietud a Danila Flores, directora

221
00:15:11.990 --> 00:15:13.649
ejecutiva de Linterna Verde.

222
00:15:15.470 --> 00:15:18.850
Bueno, ahora mismo hay un debate muy interesante sobre qué

223
00:15:18.909 --> 00:15:23.450
tanta responsabilidad le cabe a las plataformas por el diseño

224
00:15:23.509 --> 00:15:26.710
de sus productos. Esto también relacionado con el juicio que

225
00:15:26.870 --> 00:15:31.149
están enfrentando Meta y YouTube en Estados Unidos, en donde

226
00:15:31.379 --> 00:15:34.940
se les señala de ser plataformas adictivas y de causar

227
00:15:36.019 --> 00:15:39.379
daños a la salud mental de los menores. Esto es

228
00:15:39.440 --> 00:15:45.200
interesante porque tradicionalmente las plataformas han estado exentas de responsabilidad

229
00:15:45.679 --> 00:15:49.320
por el contenido que los usuarios publican en redes sociales.

230
00:15:50.000 --> 00:15:53.360
Pero el hecho de que Meta y YouTube estén enfrentando

231
00:15:53.440 --> 00:15:56.620
hoy un juicio también es un indicio de que se

232
00:15:56.639 --> 00:16:01.710
están empezando a evaluar los límites de esta ausencia de

233
00:16:01.779 --> 00:16:07.070
responsabilidad y los impactos del sistema de recompensa que lo

234
00:16:07.149 --> 00:16:11.490
vemos en el scroll infinito, en las recomendaciones algorítmicas, en

235
00:16:11.710 --> 00:16:15.440
el uso de filtros y demás. Esto pone sobre la

236
00:16:15.500 --> 00:16:20.850
mesa la pregunta de qué elementos del diseño están fomentando

237
00:16:21.370 --> 00:16:26.090
hábitos de uso problemático. Entonces, uno podría decir que las

238
00:16:26.149 --> 00:16:30.200
plataformas o el modelo de negocio de las plataformas es

239
00:16:30.789 --> 00:16:36.379
desequilibrado de cara al usuario en tanto el incentivo económico

240
00:16:36.399 --> 00:16:41.059
está relacionado con el tiempo que permanecen los usuarios navegando

241
00:16:41.120 --> 00:16:45.850
en redes. Pero es importante también aclarar que este modelo

242
00:16:45.909 --> 00:16:49.929
de negocio no es exclusivo de las redes sociales, que

243
00:16:49.970 --> 00:16:53.629
lo vemos como parte de una infraestructura digital en donde

244
00:16:53.840 --> 00:16:57.779
de manera constante se está disputando la atención y que

245
00:16:57.960 --> 00:17:01.320
está presente en muchas instancias más allá de las redes sociales.

246
00:17:01.940 --> 00:17:04.640
Y esto abre la pregunta, es por si esto lo

247
00:17:04.720 --> 00:17:08.079
puede resolver un juez, si la aproximación es desde lo

248
00:17:09.700 --> 00:17:15.150
jurídico o si seguimos presionando mecanismos de autorregulación y de

249
00:17:15.309 --> 00:17:18.269
corregulación cuando sea pertinente.

250
00:17:20.630 --> 00:17:23.950
Como lo mostraron las revelaciones de los Facebook Papers, las

251
00:17:24.059 --> 00:17:27.759
redes sociales tienen efectos adversos y las evidencias son abundantes.

252
00:17:28.430 --> 00:17:31.289
Como ya les conté, hay un riesgo alto de que

253
00:17:31.309 --> 00:17:34.589
estas aplicaciones generen adicción, pero el debate científico no se

254
00:17:34.650 --> 00:17:38.410
centra únicamente en cuánto tiempo se pasa en redes, sino

255
00:17:38.710 --> 00:17:42.230
en qué ocurre cuando ese uso se vuelve compulsivo. Una

256
00:17:42.269 --> 00:17:47.640
revisión publicada en Journal of Medical Internet Research halló asociaciones

257
00:17:47.799 --> 00:17:52.119
consistentes entre uso problemático de redes sociales y mayores niveles

258
00:17:52.160 --> 00:17:55.859
de depresión, ansiedad y estrés en adolescentes de adultos jóvenes.

259
00:17:56.430 --> 00:17:59.599
El Directorio General de Salud Pública de Estados Unidos advirtió

260
00:17:59.619 --> 00:18:04.579
en 2023 que existe evidencia creciente que vincula el uso intensivo

261
00:18:04.619 --> 00:18:07.359
de redes sociales con riesgos para la salud mental de

262
00:18:07.400 --> 00:18:10.730
los jóvenes. Y según un estudio hecho por investigadores de

263
00:18:10.750 --> 00:18:14.950
la Universidad de Zhejiang en China, el uso excesivo de

264
00:18:15.029 --> 00:18:18.130
videos cortos en el teléfono, como los de TikTok o Instagram,

265
00:18:18.549 --> 00:18:23.069
afectan negativamente las funciones de atención, aunque los mecanismos neuronales

266
00:18:23.369 --> 00:18:27.339
detrás de ese efecto no habían sido explorados antes. Esto

267
00:18:27.390 --> 00:18:31.859
sugiere que el scroll excesivo podría deteriorar la capacidad de planear,

268
00:18:32.220 --> 00:18:36.970
concentrarse y tomar buenas decisiones. Pero así como lo mostraban

269
00:18:37.029 --> 00:18:40.529
las revelaciones de Frances Haugen sobre Meta, el uso de

270
00:18:40.569 --> 00:18:45.470
algunas redes sociales está relacionado con baja autoestima, especialmente en adolescentes.

271
00:18:45.990 --> 00:18:50.230
La vulnerabilidad adolescente tiene una explicación biológica y social. El

272
00:18:50.289 --> 00:18:53.930
Centro Común de Investigación de la Comisión Europea explicó que

273
00:18:53.970 --> 00:18:58.150
los sistemas cerebrales asociados con la recompensa social y la

274
00:18:58.210 --> 00:19:01.630
búsqueda de aprobación están en plena maduración durante la adolescencia.

275
00:19:02.150 --> 00:19:05.079
lo que hace que mecanismos como Me Gusta, comentarios y

276
00:19:05.259 --> 00:19:09.940
métricas públicas tengan un impacto emocional más fuerte. Según el informe,

277
00:19:10.400 --> 00:19:12.809
cómo es la vida de los niños en la era digital,

278
00:19:13.250 --> 00:19:18.089
hecho por la OCDE, Muchos adolescentes superan ampliamente las recomendaciones

279
00:19:18.150 --> 00:19:21.690
de tiempo frente a las pantallas en varios países. Más

280
00:19:21.779 --> 00:19:24.460
de la mitad de los jóvenes de 15 años pasan más

281
00:19:24.500 --> 00:19:27.299
de dos horas al día en actividades de ocio digital

282
00:19:27.319 --> 00:19:30.619
y en algunos casos llegan a 60 horas a la semana

283
00:19:30.640 --> 00:19:34.180
o más, dependiendo de dónde vivan. Y ese excesivo tiempo

284
00:19:34.279 --> 00:19:38.890
puede relacionarse con problemas de sueño, menor actividad física, sentimientos

285
00:19:38.910 --> 00:19:43.740
de ansiedad o depresión, aislamiento social y dificultades escolares. Pero

286
00:19:43.799 --> 00:19:46.819
los riesgos no paran ahí. Los niños y niñas adolescentes

287
00:19:47.240 --> 00:19:50.829
pueden estar expuestos a contenidos que no son apropiados para

288
00:19:50.880 --> 00:19:55.569
su edad, a ciberacoso, a comparaciones sociales intensas, por ejemplo

289
00:19:55.609 --> 00:19:59.150
con imágenes idealizadas de sus pares y a comportamientos dañinos.

290
00:19:59.859 --> 00:20:02.420
De hecho, hace poco se desató un debate por el

291
00:20:02.480 --> 00:20:05.809
uso de GROK, la inteligencia artificial de X, para generar

292
00:20:05.869 --> 00:20:10.690
contenido de imágenes sexuales no autorizadas de las que más de 20.000

293
00:20:10.410 --> 00:20:12.910
eran de menores de edad. Esto pasó en enero de

294
00:20:12.970 --> 00:20:16.509
este año, cuando el Centro para Contrarrestar el Odio Digital

295
00:20:16.529 --> 00:20:19.579
y el New York Times publicaron un estudio sobre las

296
00:20:19.650 --> 00:20:23.240
imágenes que generó GROK entre el 29 de diciembre y el 8

297
00:20:23.539 --> 00:20:26.279
de enero y encontraron que los usuarios que usaron esa

298
00:20:26.299 --> 00:20:32.609
herramienta crearon una imagen sexualizada cada 41 segundos durante 11 días. En conjunto,

299
00:20:33.009 --> 00:20:36.750
se trataría de 3 millones de imágenes de contenido sexual explícito,

300
00:20:37.170 --> 00:20:41.029
de las que al menos 23 mil mostraban a menores. Es decir,

301
00:20:41.410 --> 00:20:45.269
la herramienta le permitía a los usuarios crear imágenes sexuales

302
00:20:45.690 --> 00:20:50.470
con la foto de terceras personas sin autorización.¿ Qué responsabilidad

303
00:20:50.529 --> 00:20:54.549
tienen las plataformas cuando conocen los efectos negativos que sus

304
00:20:54.609 --> 00:20:58.309
propios estudios internos han identificado? Escuchemos lo que me contó

305
00:20:58.630 --> 00:21:02.910
Alejandro Castañeda Molina, jefe del Centro de Internet Seguro de Guías.

306
00:21:04.869 --> 00:21:05.029
Cuando

307
00:21:05.049 --> 00:21:08.359
una plataforma conoce a partir de sus propios estudios que

308
00:21:08.400 --> 00:21:10.640
su diseño puede generar efectos negativos en las personas, su

309
00:21:10.700 --> 00:21:13.019
responsabilidad no es solo reconocer que existe ese problema, sino

310
00:21:13.039 --> 00:21:16.250
actuar para prevenir el daño. Eso, desafortunadamente, es lo que

311
00:21:16.269 --> 00:21:18.589
no estamos viendo en el país. Pero los estándares internacionales

312
00:21:18.950 --> 00:21:21.430
son muy claros, y es que los principios rectores de

313
00:21:21.450 --> 00:21:24.190
las Naciones Unidas sobre Empresas y Derechos Humanos establecen que

314
00:21:24.210 --> 00:21:27.390
las empresas deben identificar, prevenir y mitigar los impactos negativos

315
00:21:27.430 --> 00:21:30.009
de sus productos sobre los derechos humanos. Y esto implica

316
00:21:30.069 --> 00:21:33.029
tres obligaciones concretas. La primera es hacer de una debida

317
00:21:33.089 --> 00:21:36.250
diligencia a sus productos, que es evaluar permanentemente que los riesgos,

318
00:21:36.730 --> 00:21:39.190
si los generan, cómo los generan, incluyendo los impactos que

319
00:21:39.630 --> 00:21:42.420
eso da en niños y adolescentes. Lo segundo es que

320
00:21:42.940 --> 00:21:45.119
hacer esos cambios en el diseño cuando se identifican los

321
00:21:45.180 --> 00:21:47.240
riesgos es algo que deben hacer. Y es que el

322
00:21:47.279 --> 00:21:49.299
problema es que durante muchos años la discusión se ha

323
00:21:49.339 --> 00:21:53.180
centrado en eliminar en Internet los contenidos generados por terceros,

324
00:21:53.559 --> 00:21:56.369
cuando muchas veces el riesgo está en cómo funcionan los

325
00:21:56.420 --> 00:21:59.769
diseños y las plataformas, en particular los algoritmos, los sistemas

326
00:21:59.809 --> 00:22:02.230
de recomendación o los incentivos del modelo de negocio de

327
00:22:02.269 --> 00:22:05.690
esas plataformas. Y tercero, tiene que haber una transparencia real.

328
00:22:06.089 --> 00:22:08.470
Es decir, que las plataformas deben explicar cómo operan estos

329
00:22:08.509 --> 00:22:13.690
sistemas automatizados y permitir auditorías independientes. Ahora, hoy sabemos que

330
00:22:13.730 --> 00:22:17.109
muchas plataformas tienen evidencia sobre esos riesgos, hay información pública

331
00:22:17.190 --> 00:22:23.059
sobre eso, pero cuando... CEDA pública no sabemos muy bien

332
00:22:23.240 --> 00:22:25.839
cuál es la respuesta que tienen estas empresas a esos diseños.

333
00:22:25.900 --> 00:22:30.440
Tampoco hay transparencia de cómo los identifican, cómo miren esos impactos,

334
00:22:30.819 --> 00:22:33.279
cómo miren esos impactos de manera diferenciada por país o

335
00:22:33.880 --> 00:22:37.079
por nacionalidad, incluso cuáles son esos diseños o esos cambios

336
00:22:37.119 --> 00:22:39.680
que van incluyendo. Entonces, ahí no hay transparencia, hay no

337
00:22:39.740 --> 00:22:42.470
información y, por lo tanto, no vemos responsabilidad efectiva.

338
00:22:45.289 --> 00:22:48.049
Y en este punto uno se pregunta,¿ quién nos protege

339
00:22:48.069 --> 00:22:51.410
a los usuarios, en especial a niñas, niños y adolescentes

340
00:22:51.849 --> 00:22:55.529
de este tipo de casos?¿ Es posible regular las empresas tecnológicas?

341
00:22:55.930 --> 00:22:59.089
Pues bien, las acciones de varios países muestran que sí.

342
00:22:59.730 --> 00:23:03.190
Luego de que se hicieran públicas las revelaciones de Frances

343
00:23:03.250 --> 00:23:05.859
Haugen sobre Meta, el 24 de octubre de 2023, una coalición de 41 estados,

344
00:23:09.880 --> 00:23:12.900
y el Distrito de Columbia, en Estados Unidos, presentaron una

345
00:23:12.980 --> 00:23:17.000
demanda oficial contra Meta, alegando que sus plataformas estaban diseñadas

346
00:23:17.339 --> 00:23:20.690
para ser adictivas y dañinas para la salud mental de

347
00:23:20.750 --> 00:23:24.069
niños y adolescentes y que la empresa había ocultado información

348
00:23:24.410 --> 00:23:27.769
interna al respecto. Pero más allá de las demandas, Varios

349
00:23:27.849 --> 00:23:32.390
estados han tomado medidas. Reino Unido aprobó en 2023 la Online

350
00:23:32.410 --> 00:23:38.119
Safety Act, que hace a las plataformas digitales responsables de

351
00:23:38.130 --> 00:23:41.660
lo que sus usuarios encuentren en ellas, especialmente los menores.

352
00:23:41.680 --> 00:23:45.279
La ley obliga a las empresas a verificar la edad

353
00:23:45.339 --> 00:23:48.420
de sus usuarios para impedir que niños accedan a pornografía,

354
00:23:48.440 --> 00:23:53.180
contenido que promueva la autolesión, el suicidio o los trastornos alimentarios,

355
00:23:53.200 --> 00:23:58.019
y bloquearles material violento o retos peligrosos virales. España ha

356
00:23:58.079 --> 00:24:01.359
sido particularmente activa en el debate. El presidente del gobierno,

357
00:24:01.380 --> 00:24:06.019
Pedro Sánchez, defendió en 2024 la necesidad de avanzar hacia una

358
00:24:06.180 --> 00:24:09.920
regulación más estricta de las redes sociales para proteger a

359
00:24:10.200 --> 00:24:13.849
menores y combatir la desinformación. E incluso dio un paso

360
00:24:13.930 --> 00:24:16.809
más allá y hace unas semanas anunció que va a

361
00:24:17.109 --> 00:24:21.150
prohibir el acceso a redes sociales a los menores de 16 años.

362
00:24:21.509 --> 00:24:24.329
En América Latina, Brasil se convirtió en uno de los

363
00:24:24.390 --> 00:24:29.529
escenarios más visibles de esta tensión. En 2024, la Autoridad Nacional

364
00:24:29.569 --> 00:24:33.450
de Protección de Datos prohibió a X utilizar datos personales

365
00:24:33.819 --> 00:24:37.700
de niños y adolescentes para entrenar sistemas de inteligencia artificial

366
00:24:37.720 --> 00:24:41.519
al considerar que vulneraba la legislación de protección de datos.

367
00:24:41.539 --> 00:24:47.000
Y en 2025, el Supremo Tribunal Federal formó mayoría para establecer

368
00:24:47.319 --> 00:24:51.339
que las plataformas pueden ser responsables si no retiran contenidos

369
00:24:51.420 --> 00:24:56.079
ilegales tras ser notificadas. En Colombia, el uso masivo de

370
00:24:56.160 --> 00:25:00.000
redes sociales también plantea interrogantes. Con más de 39 millones de

371
00:25:00.059 --> 00:25:03.160
usuarios de redes sociales y un promedio diario superior a

372
00:25:03.220 --> 00:25:06.809
tres horas, la exposición es amplia. Aunque en Colombia no

373
00:25:06.849 --> 00:25:10.769
hay una prohibición general por edad, la protección de datos personales,

374
00:25:10.890 --> 00:25:13.410
incluida la de menores, está amparada por la Ley 1581 de 2012

375
00:25:13.589 --> 00:25:20.150
y supervisada por la Superintendencia de Industria y Comercio. En

376
00:25:20.170 --> 00:25:23.289
el Congreso han surgido debates sobre la regulación de contenidos

377
00:25:23.309 --> 00:25:27.900
y responsabilidades de plataformas en sintonía con discusiones internacionales. Y

378
00:25:28.720 --> 00:25:30.779
en diciembre de 2024 se aprobó la Ley 2489 de 2025 para fortalecer

379
00:25:30.799 --> 00:25:39.289
entornos digitales sanos y seguros. Esta ley apuesta por la

380
00:25:39.329 --> 00:25:43.049
educación y promueve hábitos saludables y programas de educación digital.

381
00:25:43.369 --> 00:25:47.000
Sin embargo, no habla de regulación, de prohibición, de uso

382
00:25:47.039 --> 00:25:51.299
para menores de edad o de responsabilidad a las empresas tecnológicas.

383
00:25:52.279 --> 00:25:55.740
Busqué al exministro de las Tecnologías de Comunicación, David Luna,

384
00:25:55.759 --> 00:25:59.519
y le pregunté¿ Qué más se puede hacer para proteger

385
00:25:59.539 --> 00:26:03.230
a niños, niñas y adolescentes de los riesgos de las

386
00:26:03.269 --> 00:26:03.930
redes sociales?

387
00:26:06.490 --> 00:26:09.430
Las redes sociales ya hacen parte de nuestra realidad y

388
00:26:09.509 --> 00:26:14.970
sería ingenuo pensar que simplemente van a desaparecer. Pero eso

389
00:26:15.019 --> 00:26:18.819
no significa que debamos aceptar cualquier cosa, sobre todo cuando

390
00:26:18.859 --> 00:26:22.599
hablamos de niños, cuando hablamos de adolescentes. Por eso yo

391
00:26:22.640 --> 00:26:25.759
he propuesto algo muy claro, prohibir el uso de redes

392
00:26:25.799 --> 00:26:29.700
sociales para menores de 14 años. No se trata de ir

393
00:26:29.740 --> 00:26:32.480
en contra de la tecnología. Yo vengo de ese sector,

394
00:26:32.940 --> 00:26:37.420
creo en él. sino de proteger etapas fundamentales del desarrollo

395
00:26:37.440 --> 00:26:40.579
de nuestros niños. Hoy sabemos que el uso temprano de

396
00:26:40.680 --> 00:26:45.539
redes puede afectar la salud mental, la concentración, la forma

397
00:26:45.579 --> 00:26:48.980
en que se relacionan con el mundo y también su seguridad.

398
00:26:49.680 --> 00:26:53.220
Después de esa edad, el reto es otro, formar ciudadanos

399
00:26:53.279 --> 00:26:58.029
digitales responsables, con pensamiento crítico y con herramientas para usar

400
00:26:58.069 --> 00:27:02.849
la tecnología de manera consciente. Pero antes de los 14 no

401
00:27:02.869 --> 00:27:06.509
deben tener acceso a redes sociales. Y yo invito a

402
00:27:06.549 --> 00:27:10.079
los padres a que den ese debate en sus colegios,

403
00:27:10.099 --> 00:27:13.740
en sus espacios, en sus casas, con sus hijos. La

404
00:27:13.799 --> 00:27:17.500
tecnología debe avanzar, por supuesto, pero también debemos tener la

405
00:27:17.539 --> 00:27:21.269
sensatez de poner límites cuando se trata de proteger a

406
00:27:21.890 --> 00:27:22.950
las nuevas generaciones.

407
00:27:25.680 --> 00:27:31.650
En septiembre de 2025, el primer ministro de Nepal, Khadga Prasad Oli,

408
00:27:32.369 --> 00:27:35.470
renunció después de una ola de protestas en contra de

409
00:27:35.509 --> 00:27:38.509
la prohibición de las redes sociales. Y es que las

410
00:27:38.589 --> 00:27:41.309
redes sociales han sido una tribuna para muchas personas que

411
00:27:41.730 --> 00:27:44.950
no tenían voz. Sin embargo, también se han convertido en

412
00:27:45.509 --> 00:27:50.210
medios para la discriminación, la polarización y la transmisión de desinformación.

413
00:27:50.630 --> 00:27:54.279
Como ya vimos, también pueden ser causantes de muchos problemas

414
00:27:54.299 --> 00:27:57.920
y así como el cigarrillo, es necesario que haya una

415
00:27:58.059 --> 00:28:03.359
regulación clara. Soy Roberto Pombo y este fue el capítulo 183

416
00:28:03.019 --> 00:28:09.680
de Mis Preguntas. Nos vemos en el próximo capítulo. A

417
00:28:09.740 --> 00:28:13.349
partir de este momento, este capítulo de Mis Preguntas queda

418
00:28:13.420 --> 00:28:16.849
disponible en todas las plataformas de podcast. Este episodio fue

419
00:28:16.910 --> 00:28:20.630
posible gracias a CAFAM, aliado estratégico en el crecimiento de

420
00:28:20.690 --> 00:28:25.529
más de 40.000 empresas en Colombia. Dirección, Roberto Pombo. Asesor editorial,

421
00:28:25.549 --> 00:28:30.920
Daniel Sanpero Espina. Producción, Juan Abel Gutiérrez y Johnny Rodríguez. Guiones,

422
00:28:31.319 --> 00:28:35.680
Juan Abel Gutiérrez y Johnny Rodríguez. Postproducción de audio, Iván Ayala.