WEBVTT
1
00:00:07.120 --> 00:00:10.040
CIENCIA Y TECNOLOGÍA
EN LA SOCIEDAD CONTEMPORÁNEA
2
00:00:10.120 --> 00:00:12.400
VIVIR EN UNA CULTURA TECNOCIENTÍFICA
3
00:00:13.520 --> 00:00:15.360
La ciencia y la tecnología
son omnipresentes
4
00:00:15.400 --> 00:00:17.760
en nuestra cultura y vida cotidiana.
5
00:00:18.360 --> 00:00:21.240
A veces, de forma evidente,
porque cada vez usamos
6
00:00:21.320 --> 00:00:23.520
más aparatos electrónicos
y más frecuentemente,
7
00:00:23.600 --> 00:00:28.080
y otras veces, más sutilmente,
porque muchos alimentos que comemos
8
00:00:28.280 --> 00:00:31.200
son fruto de procesos tecnológicos
muy sofisticados
9
00:00:31.280 --> 00:00:33.480
con mucha investigación científica
detrás.
10
00:00:33.760 --> 00:00:36.040
Ámbitos como la agricultura
o la medicina,
11
00:00:36.120 --> 00:00:38.840
tradicionalmente poco tecnificados,
se llevan a cabo ahora
12
00:00:38.920 --> 00:00:41.720
mediante sistemas
tecnológicos muy complejos.
13
00:00:43.560 --> 00:00:46.240
Si abrimos cualquier periódico
o vemos un telediario,
14
00:00:46.320 --> 00:00:48.680
los temas científicos
y tecnológicos ya no ocupan
15
00:00:48.760 --> 00:00:51.120
solo las secciones
de ciencia y tecnología.
16
00:00:51.200 --> 00:00:54.680
Grandes cuestiones políticas,
sociales, culturales o económicas
17
00:00:54.720 --> 00:00:57.920
están ahora estrechamente ligadas
a temas como el cambio climático
18
00:00:57.960 --> 00:01:01.720
a causa de las emisiones de CO2,
nuestras fuentes de energía,
19
00:01:02.080 --> 00:01:04.280
el control de los datos personales
en Internet
20
00:01:04.360 --> 00:01:06.200
o los medicamentos que tomamos.
21
00:01:06.920 --> 00:01:09.440
Muchos expertos
consideran nuestra cultura
22
00:01:09.520 --> 00:01:12.080
como una cultura
básicamente tecnocientífica.
23
00:01:12.400 --> 00:01:14.320
Aunque la humanidad
desde sus orígenes
24
00:01:14.400 --> 00:01:17.760
se ha distinguido de otras especies
por su capacidad
25
00:01:17.800 --> 00:01:19.400
para fabricar y usar artefactos,
26
00:01:19.760 --> 00:01:22.840
hoy en día cada vez más aspectos
de la vida humana
27
00:01:22.920 --> 00:01:26.880
dependen directa o indirectamente
de la tecnología y la ciencia.
28
00:01:29.320 --> 00:01:31.720
¿Pero a qué responde
la evolución de la tecnología?
29
00:01:31.760 --> 00:01:34.840
¿Qué o quién marca la historia
de los artefactos técnicos?
30
00:01:34.880 --> 00:01:37.600
¿Qué vínculo hay
entre el desarrollo tecnológico
31
00:01:37.680 --> 00:01:39.320
y las transformaciones sociales?
32
00:01:39.360 --> 00:01:42.480
La visión tradicional de la relación
entre tecnología y sociedad
33
00:01:42.520 --> 00:01:44.000
es unidireccional.
34
00:01:44.600 --> 00:01:48.000
Pensamos que la tecnología
influye en la sociedad,
35
00:01:48.160 --> 00:01:50.440
la condiciona, pero que, en cambio,
36
00:01:50.760 --> 00:01:53.120
la sociedad no influye demasiado
en la tecnología.
37
00:01:53.160 --> 00:01:54.400
¿Qué significa esto?
38
00:01:54.520 --> 00:01:58.960
La tecnología es
un factor determinante, influyente,
39
00:01:59.040 --> 00:02:00.400
en los cambios sociales.
40
00:02:02.120 --> 00:02:04.960
Por eso hablamos
de consecuencias sociales
41
00:02:05.040 --> 00:02:07.280
o de impactos sociales
de la tecnología.
42
00:02:07.520 --> 00:02:11.320
Y en una visión más extrema,
llamada determinismo tecnológico,
43
00:02:11.600 --> 00:02:16.200
llegamos a pensar que la tecnología
es el factor más importante
44
00:02:16.280 --> 00:02:19.600
a la hora de condicionar
los cambios sociales en la historia.
45
00:02:19.680 --> 00:02:22.720
Si vemos las denominaciones
que los historiadores han usado
46
00:02:22.800 --> 00:02:26.520
para describir las distintas etapas
de la evolución humana,
47
00:02:26.600 --> 00:02:27.920
de las sociedades humanas,
48
00:02:28.000 --> 00:02:31.480
hablan de la Edad del Hierro,
de la Edad de Piedra
49
00:02:31.880 --> 00:02:34.200
y más recientemente
de la sociedad industrial
50
00:02:34.240 --> 00:02:38.120
de la sociedad posindustrial,
de la sociedad de la información...
51
00:02:38.960 --> 00:02:41.960
En cambio, cuando vemos
la otra cara de la moneda,
52
00:02:42.040 --> 00:02:45.680
en qué sentido el contexto social
influye a la tecnología,
53
00:02:45.960 --> 00:02:47.280
la idea no está tan clara.
54
00:02:47.360 --> 00:02:50.280
De hecho, la visión tradicional
es que la tecnología sigue
55
00:02:50.360 --> 00:02:51.920
una especie de lógica propia.
56
00:02:52.600 --> 00:02:56.120
¿Qué lógica propia sigue?
Básicamente que los artefactos
57
00:02:56.200 --> 00:03:01.000
son sustituidos por artefactos
cada vez más eficientes o eficaces.
58
00:03:01.240 --> 00:03:04.280
Eso es lo que marca
la evolución de la tecnología
59
00:03:04.520 --> 00:03:07.280
sin una gran influencia
del contexto social
60
00:03:07.320 --> 00:03:08.640
o de fuerzas sociales.
61
00:03:10.280 --> 00:03:12.960
Esta visión, que sigue siendo
la imperante actualmente,
62
00:03:13.040 --> 00:03:16.080
ha sido fuertemente cuestionada
en las últimas décadas
63
00:03:16.160 --> 00:03:19.320
por muchos historiadores y sociólogos
de la ciencia y la tecnología
64
00:03:19.360 --> 00:03:21.480
como veremos
a lo largo de este curso.
65
00:03:22.000 --> 00:03:24.960
Es innegable que las tecnologías
tienen impactos sociales,
66
00:03:25.040 --> 00:03:28.040
pero ahora sabemos que una serie
de factores y fuerzas sociales
67
00:03:28.120 --> 00:03:30.880
pueden afectar y condicionar
las innovaciones tecnológicas
68
00:03:30.960 --> 00:03:33.760
y que el desarrollo tecnológico
69
00:03:33.920 --> 00:03:36.080
no sigue
una lógica propia autónoma.
70
00:03:36.240 --> 00:03:38.600
En primer lugar,
la ciencia y la tecnología
71
00:03:38.680 --> 00:03:40.920
se desarrollan siempre
en un contexto social.
72
00:03:41.000 --> 00:03:44.080
Este contexto social sería
un contexto económico, político...,
73
00:03:44.160 --> 00:03:47.040
es decir que no se desarrollan
en el vacío,
74
00:03:47.120 --> 00:03:50.240
sino que tienen que ver
con una demanda social,
75
00:03:50.320 --> 00:03:54.000
con alguna necesidad
de transformación social, etc.
76
00:03:54.440 --> 00:03:58.600
A parte de esto, los ingenieros
y desarrolladores tecnológicos
77
00:03:58.680 --> 00:04:03.840
cuando desarrollan un artefacto,
están haciendo una propuesta social.
78
00:04:04.200 --> 00:04:07.680
Hay un autor que me gusta mucho
que habla de ingenieros sociólogos
79
00:04:07.760 --> 00:04:10.880
para referirse a los ingenieros.
En el fondo,
80
00:04:11.040 --> 00:04:14.640
por ejemplo, si estás proponiendo
un coche eléctrico,
81
00:04:14.880 --> 00:04:18.120
no estás proponiendo simplemente
desarrollar un aparato
82
00:04:18.200 --> 00:04:20.920
que funcione con electricidad,
sino que estás proponiendo
83
00:04:20.960 --> 00:04:25.720
una sociedad más limpia,
una ciudad con menos ruido
84
00:04:25.880 --> 00:04:29.080
con menos contaminación;
una sociedad en la que el coche
85
00:04:29.200 --> 00:04:31.640
no sea un símbolo de estatus,
ya que las prestaciones
86
00:04:31.680 --> 00:04:34.240
de los coches eléctricos
no serán las mismas
87
00:04:34.320 --> 00:04:35.840
que las de los coches
de explosión, etc.
88
00:04:35.920 --> 00:04:39.240
Estás haciendo
una propuesta social determinada.
89
00:04:39.560 --> 00:04:43.800
En este sentido,
la reacción que tendrán
90
00:04:44.000 --> 00:04:46.600
los potenciales compradores
estará determinada
91
00:04:46.680 --> 00:04:49.320
por qué propuesta social hay,
92
00:04:49.400 --> 00:04:52.360
no solo por si el aparato
funciona o no;
93
00:04:52.440 --> 00:04:54.440
hay más cosas asociadas a eso.
94
00:04:54.480 --> 00:04:59.960
Todo desarrollo tecnológico
tiene esta dimensión social.
95
00:05:00.320 --> 00:05:03.840
Pero también lo podemos decir
de la ciencia del conocimiento.
96
00:05:04.000 --> 00:05:07.120
La imagen tradicional de la ciencia
es que progresa
97
00:05:07.280 --> 00:05:10.480
por la curiosidad desinteresada
de los científicos.
98
00:05:10.680 --> 00:05:12.400
Pero si analizamos los datos,
99
00:05:12.480 --> 00:05:15.200
nos daremos cuenta
de que este desinterés
100
00:05:15.520 --> 00:05:19.880
no está tan claro si pensamos
qué se investiga en medicina.
101
00:05:20.360 --> 00:05:22.000
Uno podría pensar que se investigan
102
00:05:22.040 --> 00:05:24.760
las enfermedades
que afectan a más gente,
103
00:05:24.840 --> 00:05:30.960
pero no es del todo así, más bien,
se investiga en enfermedades
104
00:05:31.280 --> 00:05:33.160
que afectan a gente
que tiene recursos económicos
105
00:05:33.240 --> 00:05:36.360
para pagar las medicinas
que se desarrollarán para curarlas.
106
00:05:36.440 --> 00:05:39.040
Por ejemplo, la malaria,
una enfermedad
107
00:05:39.120 --> 00:05:40.760
que afecta a millones de personas,
108
00:05:40.840 --> 00:05:45.240
no ha sido hasta hace muy poco
y por voluntad de un científico,
109
00:05:45.320 --> 00:05:49.120
Patarroyo, que se ha desarrollado
una vacuna para combatirla.
110
00:05:49.560 --> 00:05:53.720
De algún modo,
hay una presión social,
111
00:05:53.800 --> 00:05:59.200
una dimensión social que afecta
al propio proceso
112
00:05:59.480 --> 00:06:03.160
de desarrollo científico:
qué se investiga y cómo se investiga.
113
00:06:03.240 --> 00:06:08.440
Otro ejemplo: si me preguntaras
por problemas sociales,
114
00:06:08.520 --> 00:06:13.720
que llamamos sociales,
pero que son técnicos y científicos,
115
00:06:13.800 --> 00:06:18.000
y nos afectan hoy en día,
como el agujero de la capa de ozono;
116
00:06:18.360 --> 00:06:23.680
si tuviera que explicarlo
como un problema científico,
117
00:06:23.760 --> 00:06:26.920
podría hacerlo, pero también
como un problema tecnológico
118
00:06:27.000 --> 00:06:29.520
y como un problema social.
119
00:06:29.960 --> 00:06:32.000
¿Dónde acaba uno
y dónde empieza el otro?
120
00:06:32.560 --> 00:06:36.560
Por eso, en el campo de estudios
de la ciencia y la tecnología
121
00:06:36.600 --> 00:06:39.320
solemos hablar
del tejido sin costuras
122
00:06:39.360 --> 00:06:41.280
que conforman ciencia,
tecnología y sociedad.
123
00:06:41.360 --> 00:06:44.920
Es muy difícil
establecer fronteras claras
124
00:06:45.000 --> 00:06:46.880
de dónde acaba una cosa
y dónde empieza la otra
125
00:06:46.960 --> 00:06:50.520
porque todos los problemas
tienen estos tres componentes,
126
00:06:50.600 --> 00:06:53.640
y aún más
en la sociedad del conocimiento.
127
00:06:54.120 --> 00:06:57.800
Es muy difícil separar entre ciencia,
tecnología y sociedad
128
00:06:57.880 --> 00:07:01.680
y eso hace también que los problemas
que debemos afrontar
129
00:07:01.880 --> 00:07:05.120
sean especialmente complejos,
pero a la vez interesantes.
130
00:07:05.760 --> 00:07:08.840
La nueva visión de la tecnología
y de su relación con la sociedad
131
00:07:08.880 --> 00:07:11.760
pone en duda uno de los estereotipos
que más fortuna ha hecho
132
00:07:11.840 --> 00:07:13.440
en torno a la tecnología:
133
00:07:13.600 --> 00:07:16.120
la supuesta neutralidad
de la tecnología.
134
00:07:16.480 --> 00:07:19.160
Nos dicen que los artefactos técnicos
son neutrales,
135
00:07:19.240 --> 00:07:20.400
ni buenos ni malos,
136
00:07:20.480 --> 00:07:23.480
y que se pueden usar
tanto positiva como negativamente,
137
00:07:23.520 --> 00:07:25.680
pero que no tienen ni color político
138
00:07:25.760 --> 00:07:28.440
ni son más afines a unos valores
que a otros.
139
00:07:28.560 --> 00:07:31.440
Hace medio siglo, el historiador
de la tecnología Lewis Mumford
140
00:07:31.520 --> 00:07:34.880
quiso desmontar esta concepción
tan arraigada a nuestra cultura
141
00:07:34.920 --> 00:07:37.000
y mostró
cómo a lo largo de la historia
142
00:07:37.040 --> 00:07:39.240
habían convivido
dos tipos de tecnologías
143
00:07:39.320 --> 00:07:41.600
que llamó, de manera provocativa,
144
00:07:41.640 --> 00:07:46.160
tecnologías democráticas
y tecnologías autoritarias.
145
00:07:46.920 --> 00:07:49.240
Mumford fue
uno de los primeros autores
146
00:07:49.560 --> 00:07:51.560
que dijo explícitamente
147
00:07:51.640 --> 00:07:55.000
que la tecnología
podía no ser necesariamente neutra
148
00:07:55.080 --> 00:07:57.000
desde el punto de vista político.
149
00:07:57.640 --> 00:08:01.520
Su tesis básica
es que a lo largo de la historia
150
00:08:01.760 --> 00:08:04.840
han convivido
dos tipos de tecnologías:
151
00:08:04.880 --> 00:08:09.000
unas que llamó,
provocativamente, autoritarias
152
00:08:09.240 --> 00:08:11.600
y otras que llamaba democráticas.
153
00:08:12.720 --> 00:08:16.560
Las autoritarias, para Mumford,
eran esas tecnologías que...
154
00:08:17.320 --> 00:08:19.480
son compatibles o requieren
155
00:08:19.600 --> 00:08:22.400
una especie
de sistema político jerarquizado,
156
00:08:23.280 --> 00:08:24.520
centralizado,
157
00:08:25.040 --> 00:08:30.600
en el que prima la uniformidad,
la estandarización...
158
00:08:31.640 --> 00:08:36.080
En cambio, las democráticas,
son esas de escala más pequeña,
159
00:08:37.600 --> 00:08:40.800
no necesariamente uniformes
ni estandarizadas
160
00:08:40.880 --> 00:08:43.520
y que no requieren
un control centralizado
161
00:08:43.560 --> 00:08:45.560
ni un sistema político
muy estructurado,
162
00:08:45.640 --> 00:08:48.480
sino que dependen
de comunidades pequeñas
163
00:08:48.880 --> 00:08:52.320
y, con su propia terminología,
son de escala más humana.
164
00:08:53.400 --> 00:08:56.840
Mumford situó el origen
de las tecnologías autoritarias
165
00:08:56.880 --> 00:08:59.480
en el nacimiento
de los grandes imperios
166
00:08:59.840 --> 00:09:03.240
en la antigüedad,
de los protoestados.
167
00:09:03.480 --> 00:09:08.880
Uno de los ejemplos básicos que puso
de estas tecnologías autoritarias
168
00:09:09.080 --> 00:09:12.040
que él llamaba megamáquinas,
169
00:09:12.520 --> 00:09:16.120
son las pirámides egipcias,
que no solo requieren
170
00:09:16.200 --> 00:09:19.600
un aprendizaje tecnológico y técnico
para construirlas,
171
00:09:19.680 --> 00:09:23.000
sino también
una organización centralizada,
172
00:09:23.680 --> 00:09:25.080
muy jerárquica, etc.
173
00:09:26.120 --> 00:09:29.960
Más actualmente
sería la energía nuclear.
174
00:09:30.320 --> 00:09:33.800
Las plantas nucleares requieren
también un sistema de este tipo.
175
00:09:33.840 --> 00:09:36.880
En cambio, las democráticas
son esas tecnologías
176
00:09:37.360 --> 00:09:40.960
que, al contrario
de la energía nuclear,
177
00:09:41.040 --> 00:09:43.080
serían los paneles solares,
que no requieren
178
00:09:43.160 --> 00:09:46.000
este tipo de control,
ni por temas de seguridad
179
00:09:46.080 --> 00:09:47.600
ni por otras cuestiones.
180
00:09:47.800 --> 00:09:53.480
Su tesis lo que acababa diciendo
es que a lo largo de la historia,
181
00:09:53.560 --> 00:09:57.400
sobre todo a lo largo del s. XX,
estas tecnologías autoritarias
182
00:09:57.720 --> 00:10:01.520
habían ganado mucho más peso
que las tecnologías democráticas.
183
00:10:02.400 --> 00:10:05.160
El hecho de que las tecnologías
puedan encarnar valores distintos
184
00:10:05.240 --> 00:10:07.720
implica que no hay
nada necesario ni inexorable
185
00:10:07.800 --> 00:10:09.480
en la historia de la tecnología,
186
00:10:09.520 --> 00:10:11.960
es decir,
el desarrollo tecnológico
187
00:10:12.040 --> 00:10:14.480
es contingente,
siempre hay más de un modo
188
00:10:14.560 --> 00:10:16.280
de diseñar una tecnología.
189
00:10:16.400 --> 00:10:19.240
Dicho con otras palabras,
la innovación tecnológica
190
00:10:19.320 --> 00:10:22.400
siempre puede ir en direcciones
diferentes o alternativas.
191
00:10:22.480 --> 00:10:25.320
Cuando se nos dice que se necesita
más innovación en un ámbito concreto,
192
00:10:25.400 --> 00:10:28.720
siempre es pertinente preguntar:
"¿Innovación hacia dónde?".
193
00:10:29.120 --> 00:10:33.240
Actualmente, el software que usamos
para los dispositivos electrónicos
194
00:10:33.320 --> 00:10:37.000
puede ser libre o de código abierto,
o de propiedad.
195
00:10:37.760 --> 00:10:40.200
Ambas opciones encarnan
no solo formas diferentes
196
00:10:40.280 --> 00:10:41.720
de entender
la programación informática,
197
00:10:41.800 --> 00:10:45.040
sino lo que es más importante,
ideas contrapuestas
198
00:10:45.200 --> 00:10:47.240
sobre lo que los usuarios
pueden hacer o no
199
00:10:47.320 --> 00:10:48.400
con los ordenadores.
200
00:10:48.760 --> 00:10:51.240
Esto es importante
porque nuestra relación
201
00:10:51.320 --> 00:10:53.880
con los artefactos técnicos
suele plantearse
202
00:10:53.960 --> 00:10:55.480
solo en términos de consumo.
203
00:10:55.760 --> 00:10:58.720
Más que usuarios, se nos considera
consumidores de tecnología
204
00:10:58.800 --> 00:11:02.400
y, por tanto, ante la tecnología
se nos atribuye un papel pasivo.
205
00:11:02.720 --> 00:11:06.880
Es cierto que tendemos a tener
una visión pasiva de los usuarios.
206
00:11:07.280 --> 00:11:10.600
Hasta cierto punto es verdad
que los aparatos tecnológicos
207
00:11:10.680 --> 00:11:14.120
tienden a imponer
una forma de ser usados.
208
00:11:14.560 --> 00:11:17.680
Eso tiene relación
con lo que en los estudios de ciencia
209
00:11:17.760 --> 00:11:22.640
y tecnología llamamos script:
todo aparato tiene un guion,
210
00:11:22.840 --> 00:11:23.840
un modo de empleo.
211
00:11:23.920 --> 00:11:30.280
Estos guiones de modo de empleo
pueden ser bastante rígidos.
212
00:11:30.600 --> 00:11:34.840
Ahora bien, es cierto
que todo usuario
213
00:11:35.600 --> 00:11:39.920
se apropia de un aparato tecnológico,
lo hace suyo y de algún modo
214
00:11:40.000 --> 00:11:44.960
también introduce variaciones
en este script,
215
00:11:45.040 --> 00:11:48.200
en lo que se espera de este aparato.
216
00:11:49.320 --> 00:11:51.960
Hay todo tipo de ejemplos.
217
00:11:52.360 --> 00:11:56.720
A mí me gusta mucho uno
que es la teleasistencia.
218
00:11:57.600 --> 00:12:00.320
La teleasistencia
es un aparato que se instala
219
00:12:00.400 --> 00:12:03.560
en casa de las personas mayores
para que puedan avisar
220
00:12:03.600 --> 00:12:05.120
en caso de tener una emergencia.
221
00:12:05.200 --> 00:12:07.080
El aparato se instala
al lado del teléfono
222
00:12:07.160 --> 00:12:10.160
y a las personas mayores
se les pide que lleven un colgante.
223
00:12:10.200 --> 00:12:14.280
En este colgante tienen un botón
que pone en marcha el aparato
224
00:12:14.360 --> 00:12:17.520
para hablar desde cualquier lugar
de la casa con una central de alarmas
225
00:12:17.560 --> 00:12:19.800
que les pregunta
si tienen algún problema.
226
00:12:19.840 --> 00:12:23.680
¿Qué pasa cuando incorporas esto
en una casa?
227
00:12:23.760 --> 00:12:28.840
De primeras, el servicio
insiste muy seriamente
228
00:12:28.920 --> 00:12:30.920
en cómo debe ser utilizado
este aparato.
229
00:12:31.000 --> 00:12:34.240
Le dice al usuario que sobre todo
lleve siempre el colgante
230
00:12:34.280 --> 00:12:38.000
porque está diseñado
para que se duche y duerma con él,
231
00:12:38.120 --> 00:12:40.800
está pensado
para que lo lleve siempre encima.
232
00:12:40.880 --> 00:12:43.760
Esto es importante
y se le recuerda constantemente.
233
00:12:43.800 --> 00:12:45.000
¿Qué hacen los usuarios?
234
00:12:45.080 --> 00:12:48.480
Responden a esto
en función de sus necesidades
235
00:12:48.520 --> 00:12:52.120
y de sus...
236
00:12:52.360 --> 00:12:56.200
de sus deseos,
de su forma de vida,
237
00:12:56.440 --> 00:12:58.200
de sus relaciones, etc.
238
00:12:58.960 --> 00:13:02.400
¿Por qué hacen eso?
Porque este aparato no es neutro,
239
00:13:02.520 --> 00:13:04.360
este aparato los está interpelando.
240
00:13:04.440 --> 00:13:08.560
Si llevan un colgante,
y esto lo dice mucha gente mayor,
241
00:13:08.920 --> 00:13:13.440
se sienten que están declarando
su fragilidad,
242
00:13:13.600 --> 00:13:16.440
su necesidad de cuidados,
y eso no es una imagen
243
00:13:16.520 --> 00:13:18.040
que la gente quiera dar.
244
00:13:18.200 --> 00:13:21.880
Esto hace que muchos usuarios
no lleven el colgante todo el rato.
245
00:13:22.080 --> 00:13:23.240
¿Qué hacen entonces?
246
00:13:23.400 --> 00:13:27.240
Tienen prácticas personalizadas
247
00:13:27.560 --> 00:13:32.120
en las que desarrollan criterios
para saber cuándo deben llevarlo.
248
00:13:32.440 --> 00:13:34.200
Recuerdo que una señora nos decía
249
00:13:34.440 --> 00:13:37.920
que no lo llevaba todo el rato,
pero que si debía limpiar la cocina
250
00:13:38.000 --> 00:13:40.200
y tenía que subirse a una escalera,
se lo ponía.
251
00:13:40.280 --> 00:13:42.680
Ella considera
que eso es una práctica de riesgo,
252
00:13:42.760 --> 00:13:46.800
se pone el colgante, limpia,
baja y ya ha hecho el trabajo.
253
00:13:47.080 --> 00:13:49.640
¿Esto qué significa?
Significa que las personas,
254
00:13:51.040 --> 00:13:52.400
ante un aparato,
255
00:13:53.200 --> 00:13:58.960
es evidente que tenemos
unas formas personales de empleo,
256
00:13:59.280 --> 00:14:02.160
y lo usamos
en función de nuestras necesidades
257
00:14:02.240 --> 00:14:07.200
y en función de cómo este aparato
nos interpele a nosotros
258
00:14:07.280 --> 00:14:09.640
en nuestra forma de ser,
nuestra identidad, etc.
259
00:14:09.720 --> 00:14:11.960
El caso de la teleasistencia
es muy claro,
260
00:14:12.040 --> 00:14:13.480
pero habría más casos.
261
00:14:13.560 --> 00:14:18.320
Sin embargo, este es muy ilustrativo
por cómo los usuarios
262
00:14:20.280 --> 00:14:24.920
responden al modo de empleo
que exige el aparato.
263
00:14:25.680 --> 00:14:29.000
La intervención de los usuarios
en la tecnología y la ciencia
264
00:14:29.080 --> 00:14:32.680
y la posible democratización
de la investigación y la innovación
265
00:14:33.080 --> 00:14:36.160
es uno de los grandes temas
de la sociedad contemporánea.
266
00:14:36.280 --> 00:14:39.320
La cultura tecnocientífica
no solo se caracteriza
267
00:14:39.400 --> 00:14:41.920
por la omnipresencia
de la ciencia y la tecnología,
268
00:14:42.000 --> 00:14:45.280
sino por la proliferación
de conflictos a su alrededor.
269
00:14:46.680 --> 00:14:49.520
Las controversias tecnocientíficas
públicas
270
00:14:49.600 --> 00:14:51.440
son nuestro pan de cada día.
271
00:14:51.840 --> 00:14:52.840
El calentamiento global
272
00:14:52.880 --> 00:14:55.320
y las medidas políticas necesarias
para paliarlo,
273
00:14:55.440 --> 00:14:57.720
los organismos
modificados genéticamente,
274
00:14:57.760 --> 00:14:58.760
las pandemias,
275
00:14:58.880 --> 00:15:02.000
los efectos sobre la salud
de las radiaciones electromagnéticas,
276
00:15:02.080 --> 00:15:04.480
los efectos secundarios
de muchos medicamentos,
277
00:15:04.560 --> 00:15:06.520
el mercadeo con nuestros datos
278
00:15:06.600 --> 00:15:08.800
por parte de grandes corporaciones
en Internet
279
00:15:08.880 --> 00:15:10.240
o los residuos nucleares
280
00:15:10.320 --> 00:15:12.560
parecen cuestionar
el vínculo tradicional
281
00:15:12.640 --> 00:15:15.040
entre la ciencia y la tecnología,
por un lado,
282
00:15:15.080 --> 00:15:17.040
y el progreso social, por otro lado.
283
00:15:17.200 --> 00:15:20.280
Hemos heredado una imagen
que procede del s. XIX
284
00:15:20.360 --> 00:15:24.400
en la que cualquier avance
científico o tecnológico
285
00:15:24.480 --> 00:15:28.440
nos lleva automáticamente
a un mejor bienestar social,
286
00:15:28.680 --> 00:15:31.200
incluso moral, dirían los ilustrados.
287
00:15:32.040 --> 00:15:36.440
Esta es una idea que ha entrado
en crisis a lo largo del s. XX,
288
00:15:36.520 --> 00:15:39.000
sobre todo después
de la Segunda Guerra Mundial.
289
00:15:39.080 --> 00:15:42.440
Lo que significó
toda la tecnología y la ciencia
290
00:15:42.520 --> 00:15:46.000
al servicio del régimen nazi,
los campos de concentración,
291
00:15:46.240 --> 00:15:49.160
las bombas de Hiroshima y Nagasaki,
después de la Segunda Guerra Mundial
292
00:15:49.640 --> 00:15:51.320
marcan un punto de inflexión.
293
00:15:51.400 --> 00:15:55.520
Algunos historiadores han hablado
de un pesimismo posmoderno
294
00:15:56.160 --> 00:15:59.640
que se va gestando a lo largo
de la segunda mitad del s. XX,
295
00:15:59.960 --> 00:16:03.720
en el que esta idea ingenua
de que cualquier invención,
296
00:16:03.800 --> 00:16:05.960
cualquier máquina o nueva tecnología
297
00:16:07.040 --> 00:16:12.800
es siempre positiva y mejora la vida
de un modo casi crítico lineal,
298
00:16:13.080 --> 00:16:14.080
no es tan sencillo.
299
00:16:14.120 --> 00:16:18.200
En el mundo cientificotecnológico
o tecnocientífico
300
00:16:18.280 --> 00:16:19.560
en el que vivimos ahora aún más,
301
00:16:19.600 --> 00:16:22.520
en el que temas
como el cambio climático,
302
00:16:22.600 --> 00:16:26.200
cuestiones sanitarias,
medioambientales en sentido amplio,
303
00:16:26.480 --> 00:16:29.600
cuestiones
de gestión de la información...,
304
00:16:29.960 --> 00:16:32.280
son temas de una extrema complejidad
305
00:16:32.440 --> 00:16:34.760
en los que es muy difícil
llegar a un consenso.
306
00:16:34.840 --> 00:16:38.200
En estos temas
hay opiniones controvertidas
307
00:16:38.480 --> 00:16:42.400
entre diferentes expertos y grupos
en la opinión pública
308
00:16:42.840 --> 00:16:46.040
que hacen que las decisiones
que se toman para evolucionar
309
00:16:46.120 --> 00:16:48.960
hacia una dirección u otra
sean mucho más complejas
310
00:16:49.000 --> 00:16:50.000
de lo que podríamos pensar.
311
00:16:50.040 --> 00:16:55.960
Es decir, aquí la idea interesante
sería comparar la historia
312
00:16:56.040 --> 00:16:58.080
o nuestra evolución
cientificotecnológica
313
00:16:58.160 --> 00:16:59.400
como un tronco lineal
314
00:16:59.960 --> 00:17:02.080
o como un árbol con muchas ramas,
315
00:17:02.160 --> 00:17:04.280
y muchas de estas ramas se gestan
316
00:17:04.360 --> 00:17:06.640
de un modo complejo
en las sociedades actuales.
317
00:17:06.720 --> 00:17:10.120
Esta idea de que
con más ciencia, más tecnología,
318
00:17:10.200 --> 00:17:12.800
más progreso incuestionable,
más felicidad humana,
319
00:17:12.880 --> 00:17:15.920
más bienestar, etc.,
es una idea demasiado simple
320
00:17:16.280 --> 00:17:18.240
que desgraciadamente ya no volverá.
321
00:17:18.840 --> 00:17:21.840
Uno de los rasgos de la modernidad
ha sido el establecimiento
322
00:17:21.920 --> 00:17:24.960
de una frontera clara
entre la ciencia y la política.
323
00:17:25.080 --> 00:17:28.480
La ciencia se ocupa de los hechos
y la política de los valores.
324
00:17:28.880 --> 00:17:31.040
Las decisiones políticas
se pueden tomar
325
00:17:31.120 --> 00:17:33.360
en base
a ciertos conocimientos científicos,
326
00:17:33.400 --> 00:17:37.280
pero estos no están influidos
por valores o posiciones políticas.
327
00:17:37.320 --> 00:17:40.640
No obstante, actualmente
y en muchas de estas controversias
328
00:17:40.760 --> 00:17:44.000
el papel de los expertos científicos
se suele cuestionar.
329
00:17:44.320 --> 00:17:47.240
La cuestión de quién es un experto
y quién tiene la última palabra
330
00:17:47.320 --> 00:17:50.440
para tomar decisiones importantes
en temas medioambientales,
331
00:17:50.520 --> 00:17:53.880
sanitarios,
tecnológicos, nanotecnológicos,
332
00:17:53.960 --> 00:17:57.000
hoy en día
es una cuestión muy compleja.
333
00:17:58.080 --> 00:18:04.160
Hemos heredado del s. XX
esta idea del académico respetado,
334
00:18:05.360 --> 00:18:09.280
confortablemente instalado
en sus instituciones académicas
335
00:18:09.360 --> 00:18:11.960
en las que tenía una cierta libertad,
336
00:18:12.360 --> 00:18:16.000
un cierto blindaje moral
e intelectual;
337
00:18:16.880 --> 00:18:18.600
ante según qué tipo
338
00:18:18.680 --> 00:18:21.000
de cuestiones cientificotécnicas
actuales,
339
00:18:21.080 --> 00:18:22.880
esta es una cuestión
más controvertida.
340
00:18:22.920 --> 00:18:25.400
El ejemplo del cambio climático
es evidente:
341
00:18:25.680 --> 00:18:29.040
Hay muchos científicos
que han invertido
342
00:18:30.440 --> 00:18:33.360
años y años de investigación
des de su especialidad
343
00:18:33.440 --> 00:18:37.920
en cuestiones más biológicas,
meteorológicas, químicas,
344
00:18:38.000 --> 00:18:41.160
físicas, ingenieriles,
ecológicas, etc.,
345
00:18:41.240 --> 00:18:43.560
cada uno desde su especialidad
como experto,
346
00:18:43.600 --> 00:18:45.960
y no son capaces
de resolver el problema.
347
00:18:46.040 --> 00:18:49.200
Pretender que cada uno
de estos expertos tiene una opinión
348
00:18:49.280 --> 00:18:53.720
apolítica neutral objetiva
es también una ingenuidad.
349
00:18:53.960 --> 00:18:59.960
Vivimos en un mundo en el que hay
de nuevo un intento de tecnocracia,
350
00:19:00.040 --> 00:19:03.360
en el sentido que la opinión
del experto es la definitiva
351
00:19:03.440 --> 00:19:05.760
o desearíamos que fuera definitiva,
352
00:19:06.000 --> 00:19:08.320
pero nos enfrentamos
a una serie de problemas
353
00:19:08.360 --> 00:19:12.160
en los que el propio experto
es débil ante las decisiones.
354
00:19:12.240 --> 00:19:17.680
Es decir, en todos estos temas
nano o bioambientales
355
00:19:17.760 --> 00:19:21.920
inevitablemente los factores
políticos, económicos,
356
00:19:22.000 --> 00:19:26.080
geoestratégicos, estéticos,
relacionados con los mass media…,
357
00:19:26.160 --> 00:19:27.680
tienen una gran importancia.
358
00:19:27.720 --> 00:19:32.520
Ya puede publicar el experto
muchos artículos de primera fila
359
00:19:32.960 --> 00:19:35.000
en las mejores revistas
internacionales,
360
00:19:35.080 --> 00:19:37.640
que su opinión
siempre queda limitada.
361
00:19:37.720 --> 00:19:40.720
Por tanto, la idea de poder separar
362
00:19:40.800 --> 00:19:42.800
el conocimiento científico
del experto
363
00:19:42.880 --> 00:19:47.040
y las decisiones políticas,
sociales, que se derivan de él
364
00:19:47.120 --> 00:19:48.360
es una idea ingenua.
365
00:19:48.440 --> 00:19:49.440
Hay muchos...
366
00:19:49.840 --> 00:19:52.080
Por ejemplo, historiadores
de la Alemania nazi
367
00:19:52.160 --> 00:19:55.640
como el norteamericano
Robert Proctor, dicen que
368
00:19:56.160 --> 00:19:58.840
con la práctica cotidiana
de los científicos
369
00:19:58.920 --> 00:20:00.400
se está haciendo política.
370
00:20:01.600 --> 00:20:05.720
No se puede distinguir
la construcción del conocimiento
371
00:20:05.800 --> 00:20:07.160
de la propia política.
372
00:20:07.400 --> 00:20:10.800
Sheila Jasanoff,
otra autora norteamericana,
373
00:20:10.880 --> 00:20:13.080
habla también de una especie
de co-construcción.
374
00:20:13.160 --> 00:20:15.000
El conocimiento
y las decisiones políticas
375
00:20:15.080 --> 00:20:16.520
van absolutamente juntas.
376
00:20:17.280 --> 00:20:20.480
Pretender que un experto
es un personaje muy inteligente
377
00:20:20.560 --> 00:20:21.800
que sabe mucho de un tema
378
00:20:21.880 --> 00:20:24.840
y que sus decisiones
serán objetivas, neutrales,
379
00:20:24.880 --> 00:20:28.640
aproblemáticas y que serán aplicadas
sin problemas en la sociedad,
380
00:20:28.680 --> 00:20:30.480
desgraciadamente también es ingenuo.
381
00:20:30.760 --> 00:20:33.240
Este tipo de cuestiones,
que marcan nuestra época
382
00:20:33.320 --> 00:20:36.280
y nos acercan a una forma diferente
de entender nuestra relación
383
00:20:36.360 --> 00:20:39.800
con la ciencia y la tecnología,
son las que abordaremos en este curso
384
00:20:39.880 --> 00:20:43.200
sobre ciencia y tecnología
en la sociedad contemporánea.