March 20, 2026

La dependencia de los Jóvenes con la IA - Marcos Coronado - IA y el DEEP FAKE

La dependencia de los Jóvenes con la IA - Marcos Coronado - IA y el DEEP FAKE
Apple Podcasts podcast player badge
Spotify podcast player badge
Castro podcast player badge
RSS Feed podcast player badge
Apple Podcasts podcast player iconSpotify podcast player iconCastro podcast player iconRSS Feed podcast player icon

Conviértete en un supporter de este podcast: https://www.spreaker.com/podcast/el-mananero-radio--3086101/support.

WEBVTT

1
00:00:00.030 --> 00:00:05.089
Y no le quitamos todo el ruido, poniendo calidad al entretenimiento,

2
00:00:05.410 --> 00:00:08.310
el mañanero, el lado bueno del contenido.

3
00:00:08.859 --> 00:00:11.679
Continuando con la mejor combinación de humor y educación de

4
00:00:11.839 --> 00:00:15.039
las radios matutinas, llegó el psicólogo de nuestra cabecera, porque

5
00:00:15.060 --> 00:00:17.960
este es internacional, wow. Cada vez que llega nos deja

6
00:00:17.980 --> 00:00:21.140
a nosotros tomando anotaciones. Magno Cordado con nosotros.

7
00:00:21.399 --> 00:00:21.839
Hola Magno

8
00:00:22.039 --> 00:00:23.399
Bienvenido hermano. Hola Doc.

9
00:00:23.420 --> 00:00:25.699
Muchas gracias, muchas gracias.¿ De qué vamos a hablar hoy?

10
00:00:26.320 --> 00:00:28.440
Hoy tenemos que hablar del teatro de la incertidumbre, de

11
00:00:28.460 --> 00:00:31.940
la incerteza que vivimos a través de la inteligencia artificial

12
00:00:31.960 --> 00:00:34.950
y el deepfake, el llamado deepfake.¿ Qué es eso

13
00:00:35.009 --> 00:00:35.189
Bueno,

14
00:00:35.909 --> 00:00:39.310
el deepfake es una tecnología posibilitada justamente por la inteligencia

15
00:00:39.329 --> 00:00:43.640
artificial que permite recrear escenarios que no son reales, como

16
00:00:43.700 --> 00:00:47.619
por ejemplo... la cara de un presidente hablando mal sobre

17
00:00:47.679 --> 00:00:51.460
otro país. Por ejemplo. Ver a Trump

18
00:00:51.600 --> 00:00:54.780
bailando.

19
00:00:56.869 --> 00:01:00.609
Sí. Este tema de la inteligencia artificial. Qué bueno que

20
00:01:00.630 --> 00:01:03.890
usted está aquí para hacerle esta pregunta. Yo lo veo

21
00:01:03.969 --> 00:01:08.609
preocupante en el hecho de que tú lo utilizas para animaciones,

22
00:01:08.650 --> 00:01:12.260
para memes, para todo. Pero yo siento mucha gente dependiente

23
00:01:12.420 --> 00:01:14.079
principalmente del aspecto psicológico.

24
00:01:14.719 --> 00:01:15.500
O sea

25
00:01:16.019 --> 00:01:17.920
se ha convertido prácticamente en el psicólogo

26
00:01:17.959 --> 00:01:20.900
de mucha gente. Y no se da cuenta que la

27
00:01:20.939 --> 00:01:24.799
inteligencia artificial está diseñada por algoritmos a buscar validarte. Él

28
00:01:24.859 --> 00:01:26.939
sigue un script de algún tipo en el cual intenta

29
00:01:27.000 --> 00:01:31.030
que al final del día tu sensación como usuario, como

30
00:01:31.109 --> 00:01:34.430
consumidor de la plataforma, sea positiva para que tú sigas

31
00:01:34.450 --> 00:01:35.370
usando la plataforma.

32
00:01:36.030 --> 00:01:40.230
Recientemente una actriz internacional de nombre Zendaya se casó pero

33
00:01:40.269 --> 00:01:43.079
no publicó nada en redes sociales. Sin embargo, han estado

34
00:01:43.140 --> 00:01:48.370
surgiendo muchísimas imágenes recreadas con inteligencia artificial y ella dice

35
00:01:48.409 --> 00:01:50.530
que es alarmante porque la gente se lo cree.

36
00:01:51.000 --> 00:01:54.849
Cómo podemos identificar entonces el buen uso que se le

37
00:01:54.909 --> 00:01:58.709
puede dar a crear imágenes con IA y no?

38
00:01:59.430 --> 00:02:02.129
No, lamentablemente ahora mismo no hay forma de fiscalizarlo y

39
00:02:02.189 --> 00:02:05.909
de hecho todas estas industrias y empresas que están desarrollando

40
00:02:05.969 --> 00:02:09.750
esta tecnología no están particularmente preocupadas en este momento en

41
00:02:09.789 --> 00:02:12.509
un uso ético. Ellos están en una corrida de quién

42
00:02:12.530 --> 00:02:16.400
va a llegar primero a la inteligencia artificial generalizada. Ellos

43
00:02:16.419 --> 00:02:19.120
no están preocupados en qué pasa por medio de eso.

44
00:02:20.060 --> 00:02:23.379
Doc, entonces, yo no quiero ser juzgada, pero entonces yo

45
00:02:23.419 --> 00:02:26.469
no puedo hablar con la inteligencia artificial porque ella es chévere,

46
00:02:26.490 --> 00:02:29.120
ella es buena onda. A mí me dice mi reina.

47
00:02:29.580 --> 00:02:31.319
A mí me dice Pochi y me saluda.

48
00:02:31.340 --> 00:02:31.819
Ustedes hablan

49
00:02:31.879 --> 00:02:32.719
conmigo. Sí, claro

50
00:02:32.900 --> 00:02:33.199
Sí, claro

51
00:02:33.419 --> 00:02:35.699
Buenos días, chat. Ayúdame con tal cosa. A nivel de

52
00:02:35.719 --> 00:02:36.259
psiquiatría

53
00:02:36.319 --> 00:02:37.379
alto. Yo le digo, Gemini

54
00:02:37.759 --> 00:02:40.099
hola,¿ cómo estás, Pochi? Y ella me dice, hola, Pochi,¿

55
00:02:40.120 --> 00:02:40.370
cómo estás

56
00:02:40.520 --> 00:02:41.759
Gemini, yo lo uso como ayuda. Y te voy a

57
00:02:41.780 --> 00:02:44.039
invitar a que no la saludes de esa manera porque

58
00:02:44.150 --> 00:02:45.770
tú gata más o menos un vaso de agua cada

59
00:02:45.810 --> 00:02:47.229
vez que ella hace una interacción contigo.¿

60
00:02:47.789 --> 00:02:48.240
Cómo así

61
00:02:48.550 --> 00:02:52.280
Sí, la inteligencia artificial, los servidores consumen muchísima energía, generan

62
00:02:52.340 --> 00:02:54.759
muchísimo calor y hay que ponerle mucha agua para que

63
00:02:54.800 --> 00:02:56.599
esos servidores estén resfriados. ¡Wow!

64
00:02:56.639 --> 00:02:57.560
Es un dato bien importante.

65
00:02:57.659 --> 00:03:00.379
María Luisa. Se consume muchísima agua. Hubo

66
00:03:01.979 --> 00:03:05.460
un caso bien delicado con relación a un niño que

67
00:03:05.620 --> 00:03:09.379
se quita la vida porque no se sintió validado lo

68
00:03:09.460 --> 00:03:14.620
suficiente y empezó a investigar, investigar, investigar, investigar y sucede esto.¿

69
00:03:15.180 --> 00:03:20.060
Cómo hacemos nosotros como padres para llevar a cabo un

70
00:03:20.240 --> 00:03:24.620
tema de conversación viable con ellos que funcione para el

71
00:03:24.659 --> 00:03:26.240
buen manejo de esta tecnología?

72
00:03:27.500 --> 00:03:29.639
Esa es la dificultad. Estamos viviendo algo que nadie en

73
00:03:29.659 --> 00:03:32.930
la humanidad enfrentó. Es difícil pedirle al papá que tenga

74
00:03:33.009 --> 00:03:35.550
ya un guión de cómo lidiar con este tema porque

75
00:03:35.590 --> 00:03:37.289
la humanidad nunca enfrentó algo similar.

76
00:03:37.469 --> 00:03:39.449
Y qué hace un muchacho bregando con inteligencia artificial al

77
00:03:39.469 --> 00:03:39.870
chiquito

78
00:03:40.370 --> 00:03:41.169
Se enamoró.

79
00:03:42.030 --> 00:03:42.550
El muchachito se

80
00:03:42.610 --> 00:03:43.409
enamoró. Sí.

81
00:03:43.729 --> 00:03:47.990
De la persona según él conversaba y que nunca se dio, obviamente,

82
00:03:48.050 --> 00:03:50.189
porque no se va a dar. Era una inteligencia artificial

83
00:03:50.229 --> 00:03:52.610
que simulaba como una pareja. Una pareja.

84
00:03:53.129 --> 00:03:55.469
Es que tú se lo puedes pedir, de hecho. Es

85
00:03:55.500 --> 00:03:56.060
una locura

86
00:03:56.780 --> 00:03:59.099
Nosotros vimos muchas películas. La gente de media ha visto

87
00:03:59.139 --> 00:04:02.319
muchas películas de cosas que vendrían en el futuro y eso.

88
00:04:02.400 --> 00:04:06.740
Y vimos con Will Smith una película. Ah, es Robot, ¿no? Sí, sí, sí.

89
00:04:07.090 --> 00:04:11.069
Y hemos visto películas de que la máquina sustituye. Sí.

90
00:04:11.759 --> 00:04:16.680
Uno lo veía lejos eso antes. Lo estamos viviendo. Estamos

91
00:04:16.720 --> 00:04:17.910
viviendo eso, estamos cerca

92
00:04:18.120 --> 00:04:20.470
estamos viviendo, lo vamos a vivir. Estamos extremadamente cerca. En

93
00:04:20.550 --> 00:04:22.730
Estados Unidos ya hay desarrollado un robot que te sirve

94
00:04:22.790 --> 00:04:27.230
básicamente como dependiente de la casa. Va, te abre la nevera,

95
00:04:27.250 --> 00:04:31.560
carga tus compras del mercado, hace una serie de cosas

96
00:04:31.579 --> 00:04:34.009
que tú le puedes pedir. Eso se vende hoy. Pero

97
00:04:34.050 --> 00:04:37.310
por el costo no se ha generalizado, a Dios gracias. Claro,

98
00:04:37.350 --> 00:04:39.829
creo que tiene como un costo, ahí ya no puedo

99
00:04:39.910 --> 00:04:42.209
ponerle el dedo así 100%, pero creo que son como 20

100
00:04:42.310 --> 00:04:42.709
mil dólares.

101
00:04:43.370 --> 00:04:46.420
Pregunto, y ese caso que ponía María Luisa, que se

102
00:04:46.569 --> 00:04:48.459
da también con muchos jóvenes y se da con adultos,

103
00:04:49.699 --> 00:04:52.100
para los padres que tienen hijos de diferentes edades,¿ cómo

104
00:04:52.120 --> 00:04:57.079
yo compito entre mis tiempos de ocupación, mis obligaciones? Y

105
00:04:57.139 --> 00:04:59.860
también dedica el tiempo enfrentándome a una máquina que está

106
00:04:59.879 --> 00:05:02.379
lista para hablar el día entero, que de por sí

107
00:05:02.399 --> 00:05:04.660
tú la abres y ya tienes preguntas que quizás son

108
00:05:04.699 --> 00:05:07.819
interrogantes buenas para él.¿ Cómo se logra competir contra eso?

109
00:05:08.259 --> 00:05:11.370
Entender que el Internet, o sea, estar en el Internet

110
00:05:11.379 --> 00:05:13.509
es como estar en medio de una plaza pública. Eso

111
00:05:13.529 --> 00:05:15.430
es como estar en la calle hoy día. Entonces tienes

112
00:05:15.449 --> 00:05:19.189
que limitar el acceso de ese niño a ese dispositivo virtual,

113
00:05:19.209 --> 00:05:22.750
a ese dispositivo digital, sea celular, sea computador, hay controles

114
00:05:22.810 --> 00:05:25.730
parentales que todos deberían de aprender a usar. Tú entras

115
00:05:25.750 --> 00:05:28.050
a Google, a configuración y por ahí tú vas a

116
00:05:28.069 --> 00:05:30.699
ver una serie de controles parentales que se pueden activar

117
00:05:30.740 --> 00:05:34.019
en YouTube y en muchas plataformas, pero Nada como el

118
00:05:34.079 --> 00:05:37.060
simple hecho de retirarle el aparato físico de la mano.

119
00:05:37.360 --> 00:05:39.759
No tenga tanto contacto con esto, vete a jugarle con

120
00:05:39.790 --> 00:05:40.310
Dios en la calle.

121
00:05:40.639 --> 00:05:43.250
Porque la diferencia de nosotros con ellos son, de la

122
00:05:43.310 --> 00:05:46.610
inteligencia es ese sentimiento. Y planteo este tema. Tengo a

123
00:05:46.649 --> 00:05:50.750
alguien conocido que su familiar cercano fallece y a través

124
00:05:50.769 --> 00:05:54.660
de la inteligencia artificial recrea un video de un audio

125
00:05:54.680 --> 00:05:56.860
que él le envía y lo ve a cada rato.

126
00:05:57.319 --> 00:06:00.439
Pero yo que la veo, noto que cada vez que

127
00:06:00.500 --> 00:06:03.810
veo el video, en vez de sentirse mejor... lo que

128
00:06:03.910 --> 00:06:05.569
hace es seguir en el duero después

129
00:06:05.589 --> 00:06:06.370
de un tiempo

130
00:06:06.870 --> 00:06:07.689
prolongado. Entonces

131
00:06:07.930 --> 00:06:08.170
aquí va

132
00:06:08.250 --> 00:06:14.290
mi pregunta.¿ Realmente es beneficioso a nivel sentimiento la utilización

133
00:06:14.350 --> 00:06:15.430
de la inteligencia artificial?

134
00:06:16.110 --> 00:06:18.480
Como todo, va a tener un grado de utilidad y

135
00:06:18.600 --> 00:06:20.740
luego un grado de toxicidad. A ese nivel ya es

136
00:06:20.779 --> 00:06:24.160
tóxico porque le impide elaborar adecuadamente el luto. Y el

137
00:06:24.180 --> 00:06:26.680
luto es una fase común y normal a la experiencia

138
00:06:26.759 --> 00:06:29.639
de estar vivo, de ser un ser humano, ¿correcto? Pero

139
00:06:29.699 --> 00:06:33.750
con este nuevo desenvolvimiento tecnológico, esta persona está encontrando una

140
00:06:33.810 --> 00:06:37.050
manera de driblar esa situación y de estagnarse en el tiempo.

141
00:06:37.170 --> 00:06:39.089
Para el que no conoce,¿ qué es driblar? Para la

142
00:06:39.170 --> 00:06:39.610
gente que no

143
00:06:40.050 --> 00:06:41.490
escucha. Para la gente

144
00:06:41.550 --> 00:06:42.819
que no escucha en radio

145
00:06:43.850 --> 00:06:47.930
Driblar. Eso es de gambetear en el fútbol. Ella tampoco

146
00:06:48.029 --> 00:06:52.029
sabe qué es gambetear. Driblar con la pelota. Jimena, Jimena.

147
00:06:52.329 --> 00:06:54.009
Cuando le pasa a un adversario por el lado con

148
00:06:54.029 --> 00:06:54.490
la pelota. Ah,

149
00:06:55.230 --> 00:07:00.110
y le hace fum. Oye,¿ qué dice la psicología? Que

150
00:07:00.170 --> 00:07:04.100
es¿ Qué es lo que los psicólogos actualmente pueden determinar

151
00:07:04.500 --> 00:07:11.600
de personas que recurren a la inteligencia artificial para sentirse escuchados, valorados, atendidos?¿

152
00:07:11.629 --> 00:07:13.019
Qué sucede con esas personas?

153
00:07:13.990 --> 00:07:17.649
Es muy prematuro para decir cualquier cosa, pero yo pudiera

154
00:07:17.689 --> 00:07:22.290
hacer con eso una asimilación a cómo fue el descubrimiento

155
00:07:22.329 --> 00:07:24.529
del fuego. Cuando el ser humano descubrió el fuego, comenzó

156
00:07:24.550 --> 00:07:26.470
a jugar con él y se quemó con él y

157
00:07:26.509 --> 00:07:28.769
le puso fuego a otras cosas y quemó cosas importantes,

158
00:07:28.810 --> 00:07:31.189
pero también luego descubrió que se podía usar Y tener

159
00:07:31.230 --> 00:07:34.189
un uso adecuado y benéfico. Y así fue experimentando con

160
00:07:34.230 --> 00:07:35.550
el uso del fuego. Y yo diría que es lo

161
00:07:35.569 --> 00:07:38.620
mismo que está sucediendo con esta tecnología. Es una tecnología

162
00:07:38.629 --> 00:07:42.620
que inclusive las propias personas que la diseñan. Reconocen que

163
00:07:42.699 --> 00:07:45.300
no saben bien cómo controlar lo que están creando. Y

164
00:07:45.439 --> 00:07:49.300
ya inclusive se considera. Que ya esto en aspecto ya

165
00:07:49.399 --> 00:07:52.920
filosófico y tal. Se considera de que probablemente estamos creando

166
00:07:53.339 --> 00:07:54.600
una nueva especie.

167
00:07:55.500 --> 00:08:02.360
Justamente en esa parte. A mí me sorprendió ver. hologramas

168
00:08:02.379 --> 00:08:08.720
en empresas parte de una charla parte de igual como

169
00:08:08.800 --> 00:08:14.069
se hace con recursos humanos es compensatorio esto el hecho

170
00:08:14.089 --> 00:08:18.230
de tú tener 30 años llevando a una gente de recursos

171
00:08:18.290 --> 00:08:22.269
humanos a hablarle a tú ponerle un proyector y que

172
00:08:22.329 --> 00:08:25.959
solamente escuchen psicológicamente¿ cómo compensa eso?

173
00:08:27.600 --> 00:08:30.529
bueno Vuelvo y digo, no lo sé. Es una novedad

174
00:08:30.610 --> 00:08:34.490
para mí también. Cumple sí un papel económico y es

175
00:08:34.509 --> 00:08:38.419
que es mucho más barato, es mucho más consistente, tiene

176
00:08:38.480 --> 00:08:40.519
mayor calidad que traer a alguien que tal vez te

177
00:08:40.580 --> 00:08:42.159
hace la explicación y no la hace de la misma

178
00:08:42.220 --> 00:08:42.840
manera siempre.

179
00:08:43.500 --> 00:08:45.899
Podría querer correr a hacer un holograma y correr en

180
00:08:45.960 --> 00:08:49.299
vivo cuenta 60 y vender holograma en 30 y así no salgo

181
00:08:49.320 --> 00:08:52.070
del negocio. Y mandarlo a las animaciones. Me gusta eso,

182
00:08:52.110 --> 00:08:55.309
me gusta. Como el licenciado dijo que sale más económico

183
00:08:55.330 --> 00:08:57.330
el holograma, entonces tú dices, no, te vendo el mío.

184
00:08:57.950 --> 00:09:02.230
En 30. Sí, sí. Pero eso ya se hizo, ese ensayo

185
00:09:02.909 --> 00:09:05.970
ya se recreó. Hay algunos artistas que vendieron su imagen

186
00:09:06.370 --> 00:09:08.230
para que a través de ella se produzcan anuncios con

187
00:09:08.269 --> 00:09:11.870
ellos sin ellos necesariamente estar ahí en campo, en escena.

188
00:09:11.909 --> 00:09:12.450
En el caso de Recursos

189
00:09:12.490 --> 00:09:15.940
Humanos que le pongo holograma, es lo mismo que se

190
00:09:15.980 --> 00:09:17.139
hacía antes pero con un video.

191
00:09:17.940 --> 00:09:18.340
Cómo es eso?

192
00:09:18.779 --> 00:09:20.879
Te ponían un video, tú no me escuchas, una gente

193
00:09:20.940 --> 00:09:23.019
lo andaba, ahora simplemente es un video,¿ qué logramos? O

194
00:09:23.039 --> 00:09:23.360
sea que no

195
00:09:23.419 --> 00:09:23.940
creo que haya

196
00:09:23.960 --> 00:09:25.190
afecto ni cambio

197
00:09:25.360 --> 00:09:28.019
En estos días yo estaba hablando con un músico, estaba

198
00:09:28.220 --> 00:09:31.100
haciéndole la entrevista a un músico bien famoso del país

199
00:09:31.120 --> 00:09:33.980
y le preguntaba si en algún momento la inteligencia artificial

200
00:09:34.480 --> 00:09:38.500
iba a sustituir la música, el instrumento en vivo. Y

201
00:09:38.720 --> 00:09:42.179
él me explicaba dentro de su concepción cristiana, Que aunque

202
00:09:42.279 --> 00:09:47.639
puede ser más rápido y monetariamente más fácil para la industria,

203
00:09:48.000 --> 00:09:51.440
el público al final sí busca el calorcito. Más

204
00:09:51.500 --> 00:09:53.940
o menos. Yo me voy a poner un poco jocoso

205
00:09:53.960 --> 00:09:57.700
y eso yo lo puedo equivaler a las prótesis mamarias.

206
00:09:58.080 --> 00:09:59.620
Están los puristas que no, a mí me gustan los

207
00:09:59.639 --> 00:10:02.419
senos naturales y está quien le interesa y le gusta bastante.

208
00:10:02.580 --> 00:10:05.950
Ya. Está buena

209
00:10:07.149 --> 00:10:09.330
la analogía. Eso es una buena analogía. Que para gustos,

210
00:10:09.370 --> 00:10:09.950
los colores.

211
00:10:10.269 --> 00:10:13.370
Los implantes, para gustos los implantes. Y además ya estamos

212
00:10:13.409 --> 00:10:14.210
muy cerca.¿ Qué es la

213
00:10:14.269 --> 00:10:16.549
música electrónica? Si no es un tipo apretando un par

214
00:10:16.600 --> 00:10:17.240
de botoncitos

215
00:10:17.250 --> 00:10:17.720
de

216
00:10:17.750 --> 00:10:19.919
sonido que él no produjo nunca. Estimado,

217
00:10:19.980 --> 00:10:24.279
usted que tiene conocimiento internacional y usted que viene aquí

218
00:10:24.299 --> 00:10:28.899
a este país,¿ por dónde anda el aspecto psicológico? Esto

219
00:10:28.919 --> 00:10:31.970
que habíamos hablado de querer consultar aplicaciones y que sea

220
00:10:32.029 --> 00:10:35.070
tu psicólogo o tu acompañante.¿ Por dónde anda el incremento

221
00:10:35.110 --> 00:10:37.100
de esto en Latinoamérica?¿ Vamos bien nosotros

222
00:10:37.460 --> 00:10:40.830
Qué país va más alto? No, en términos de conciencia

223
00:10:41.029 --> 00:10:43.860
sobre el aspecto de salud mental, República Dominicana está ya

224
00:10:43.919 --> 00:10:45.220
en el fondo junto con los peces.

225
00:10:46.799 --> 00:10:47.639
Un palo, un palo.

226
00:10:47.899 --> 00:10:48.320
Los países

227
00:10:48.419 --> 00:10:48.980
más avanzados

228
00:10:49.019 --> 00:10:49.590
en ese tema serían México

229
00:10:49.720 --> 00:10:50.139
Brasil, Argentina

230
00:10:50.320 --> 00:10:58.129
Chile. pudiera poner ese top 4

231
00:10:57.970 --> 00:11:00.169
ahí.¿ Qué sucede entonces con las aplicaciones que se crean

232
00:11:00.289 --> 00:11:05.490
para tener un acompañamiento de terapia online? Porque muchas personas

233
00:11:05.570 --> 00:11:09.070
dicen que la terapia física, estando frente a tu terapeuta

234
00:11:09.110 --> 00:11:11.429
y una terapia online, no se siente igual.

235
00:11:12.049 --> 00:11:17.000
Pudiera entrar ahí alguna aplicación que tenga inteligencia artificial o

236
00:11:17.009 --> 00:11:18.360
algo así por el estilo? Sí

237
00:11:18.629 --> 00:11:23.450
las hay. Ahora mismo no recuerdo el nombre, pero... hay

238
00:11:23.490 --> 00:11:26.850
varias aplicaciones que intentan reproducir esto y de alguna manera

239
00:11:26.929 --> 00:11:30.320
democratizar el acceso a la salud mental, porque imagínense justamente

240
00:11:30.340 --> 00:11:32.080
en un país como el nuestro, en donde la psicología

241
00:11:32.840 --> 00:11:36.860
es un tanto cara, la verdad sea dicha, sería interesante

242
00:11:36.899 --> 00:11:38.669
que alguien en Villa Francisca que no tiene acceso a

243
00:11:38.730 --> 00:11:41.750
un psicólogo bueno o que el propio gobierno no le

244
00:11:41.809 --> 00:11:45.309
puede dar acceso recurrente a un psicólogo, tenga una plataforma similar,

245
00:11:45.370 --> 00:11:48.850
entonces ahí es donde vuelvo. Según el nivel en el

246
00:11:48.909 --> 00:11:51.629
cual se use, puede ser positivo o puede ser negativo.

247
00:11:51.710 --> 00:11:55.049
Hermano, finalmente, quiero que usted nos brinde un consejo para

248
00:11:55.960 --> 00:11:59.029
los padres, pero también todo aquel que está en vida

249
00:11:59.080 --> 00:12:03.960
de pareja. La inteligencia artificial es una realidad.¿ Cómo hacemos

250
00:12:04.039 --> 00:12:07.759
el balance para que nos acompañe sin que nos sustituya

251
00:12:08.200 --> 00:12:09.080
y sin que nos afecte?

252
00:12:09.620 --> 00:12:13.220
Sí. Es muy interesante porque de eso más o menos

253
00:12:13.240 --> 00:12:15.840
era que yo quería hablar del valor de las cosas

254
00:12:15.860 --> 00:12:17.580
y del valor de lo que uno supone que es

255
00:12:17.659 --> 00:12:20.179
verdad y cómo se está diluyendo con las redes, con

256
00:12:20.220 --> 00:12:23.799
las inteligencias artificiales, el deepfake y todo. Antes hablábamos aquí ustedes,

257
00:12:23.940 --> 00:12:26.750
yo venía camino escuchando, el tema de si la chica

258
00:12:26.769 --> 00:12:28.649
que tú conociste tenía un

259
00:12:29.029 --> 00:12:30.730
pasado,

260
00:12:30.909 --> 00:12:33.850
un pasado, y qué bueno que esos videos por ahí rodando.

261
00:12:34.009 --> 00:12:36.509
Hoy día con deepfake, yo agarro la foto de cualquiera

262
00:12:36.580 --> 00:12:39.700
uno de ustedes que tienen ahí en Instagram, quizá foto

263
00:12:39.720 --> 00:12:41.940
inclusive en la playa donde están semidesnudos,

264
00:12:42.620 --> 00:12:42.679
lo

265
00:12:42.799 --> 00:12:44.889
monto en una página, Y ya yo tengo a la

266
00:12:44.929 --> 00:12:47.509
persona completamente desnuda, tal cual como si fuese la vida real.

267
00:12:47.529 --> 00:12:51.960
Y producir ese contenido, inclusive subirlo a plataformas de manera malintencionada,

268
00:12:51.980 --> 00:12:54.399
y ya no hay cómo decir que eso no es verdad.

269
00:12:55.340 --> 00:12:58.000
Se complica mucho ahí el debate.¿ Es verdad o es mentira?

270
00:12:58.019 --> 00:13:01.259
Y la persona sale defendiéndose. No, me están difamando. Eso

271
00:13:01.299 --> 00:13:03.419
fue un ataque de alguien. Eso no soy yo. Yo

272
00:13:03.460 --> 00:13:04.110
nunca hice eso.

273
00:13:05.830 --> 00:13:09.759
Y ahora,¿ qué le creemos? Guau, es complicado.¿ Qué podríamos

274
00:13:09.820 --> 00:13:13.740
hacer entonces? Más conversación con nuestra pareja, más conversación con

275
00:13:13.759 --> 00:13:17.039
nuestros hijos, buscar la agenda para sacar un poquito de tiempo.

276
00:13:17.059 --> 00:13:17.200
Hay que

277
00:13:17.220 --> 00:13:22.289
comenzar a discutir la supremacía de la idea de que

278
00:13:22.330 --> 00:13:25.190
la verdad es absoluta. Porque entendamos lo siguiente, cuando tú

279
00:13:25.210 --> 00:13:28.190
dices que la verdad, que no existen los absolutismos o

280
00:13:28.389 --> 00:13:30.190
que todo es relativo, eso en sí mismo ya es

281
00:13:30.230 --> 00:13:34.490
un absolutismo o un relativismo. Entonces hay que comenzar a

282
00:13:34.529 --> 00:13:38.039
cuestionar la verdad por ser verdad, no necesariamente es útil

283
00:13:38.259 --> 00:13:41.659
o sana o benéfica. Hay que comenzar a cuestionarse eso.

284
00:13:41.700 --> 00:13:44.679
Que algo sea cierto no significa que sea lo correcto

285
00:13:45.080 --> 00:13:48.429
para la situación. Perfecto. Marco,¿ dónde la gente puede comunicarse

286
00:13:48.490 --> 00:13:51.450
contigo para ampliar este y otras informaciones? Bueno, me pueden

287
00:13:51.470 --> 00:13:53.870
encontrar en Instagram en arroba disciplina.te

288
00:13:54.970 --> 00:13:57.509
Que no te manden currículum, que no te manden canciones.

289
00:13:58.409 --> 00:14:00.309
Desde que saben que tú estás en un medio, arrancan.

290
00:14:00.450 --> 00:14:00.529
Yo

291
00:14:00.549 --> 00:14:07.669
quiero hacer un café amargo. Aportando calidad al contenido. Lo

292
00:14:08.429 --> 00:14:09.779
otro lo dejamos.