WEBVTT 1 00:00:07.120 --> 00:00:10.040 CIENCIA Y TECNOLOGÍA EN LA SOCIEDAD CONTEMPORÁNEA 2 00:00:10.120 --> 00:00:12.400 VIVIR EN UNA CULTURA TECNOCIENTÍFICA 3 00:00:13.520 --> 00:00:15.360 La ciencia y la tecnología son omnipresentes 4 00:00:15.400 --> 00:00:17.760 en nuestra cultura y vida cotidiana. 5 00:00:18.360 --> 00:00:21.240 A veces, de forma evidente, porque cada vez usamos 6 00:00:21.320 --> 00:00:23.520 más aparatos electrónicos y más frecuentemente, 7 00:00:23.600 --> 00:00:28.080 y otras veces, más sutilmente, porque muchos alimentos que comemos 8 00:00:28.280 --> 00:00:31.200 son fruto de procesos tecnológicos muy sofisticados 9 00:00:31.280 --> 00:00:33.480 con mucha investigación científica detrás. 10 00:00:33.760 --> 00:00:36.040 Ámbitos como la agricultura o la medicina, 11 00:00:36.120 --> 00:00:38.840 tradicionalmente poco tecnificados, se llevan a cabo ahora 12 00:00:38.920 --> 00:00:41.720 mediante sistemas tecnológicos muy complejos. 13 00:00:43.560 --> 00:00:46.240 Si abrimos cualquier periódico o vemos un telediario, 14 00:00:46.320 --> 00:00:48.680 los temas científicos y tecnológicos ya no ocupan 15 00:00:48.760 --> 00:00:51.120 solo las secciones de ciencia y tecnología. 16 00:00:51.200 --> 00:00:54.680 Grandes cuestiones políticas, sociales, culturales o económicas 17 00:00:54.720 --> 00:00:57.920 están ahora estrechamente ligadas a temas como el cambio climático 18 00:00:57.960 --> 00:01:01.720 a causa de las emisiones de CO2, nuestras fuentes de energía, 19 00:01:02.080 --> 00:01:04.280 el control de los datos personales en Internet 20 00:01:04.360 --> 00:01:06.200 o los medicamentos que tomamos. 21 00:01:06.920 --> 00:01:09.440 Muchos expertos consideran nuestra cultura 22 00:01:09.520 --> 00:01:12.080 como una cultura básicamente tecnocientífica. 23 00:01:12.400 --> 00:01:14.320 Aunque la humanidad desde sus orígenes 24 00:01:14.400 --> 00:01:17.760 se ha distinguido de otras especies por su capacidad 25 00:01:17.800 --> 00:01:19.400 para fabricar y usar artefactos, 26 00:01:19.760 --> 00:01:22.840 hoy en día cada vez más aspectos de la vida humana 27 00:01:22.920 --> 00:01:26.880 dependen directa o indirectamente de la tecnología y la ciencia. 28 00:01:29.320 --> 00:01:31.720 ¿Pero a qué responde la evolución de la tecnología? 29 00:01:31.760 --> 00:01:34.840 ¿Qué o quién marca la historia de los artefactos técnicos? 30 00:01:34.880 --> 00:01:37.600 ¿Qué vínculo hay entre el desarrollo tecnológico 31 00:01:37.680 --> 00:01:39.320 y las transformaciones sociales? 32 00:01:39.360 --> 00:01:42.480 La visión tradicional de la relación entre tecnología y sociedad 33 00:01:42.520 --> 00:01:44.000 es unidireccional. 34 00:01:44.600 --> 00:01:48.000 Pensamos que la tecnología influye en la sociedad, 35 00:01:48.160 --> 00:01:50.440 la condiciona, pero que, en cambio, 36 00:01:50.760 --> 00:01:53.120 la sociedad no influye demasiado en la tecnología. 37 00:01:53.160 --> 00:01:54.400 ¿Qué significa esto? 38 00:01:54.520 --> 00:01:58.960 La tecnología es un factor determinante, influyente, 39 00:01:59.040 --> 00:02:00.400 en los cambios sociales. 40 00:02:02.120 --> 00:02:04.960 Por eso hablamos de consecuencias sociales 41 00:02:05.040 --> 00:02:07.280 o de impactos sociales de la tecnología. 42 00:02:07.520 --> 00:02:11.320 Y en una visión más extrema, llamada determinismo tecnológico, 43 00:02:11.600 --> 00:02:16.200 llegamos a pensar que la tecnología es el factor más importante 44 00:02:16.280 --> 00:02:19.600 a la hora de condicionar los cambios sociales en la historia. 45 00:02:19.680 --> 00:02:22.720 Si vemos las denominaciones que los historiadores han usado 46 00:02:22.800 --> 00:02:26.520 para describir las distintas etapas de la evolución humana, 47 00:02:26.600 --> 00:02:27.920 de las sociedades humanas, 48 00:02:28.000 --> 00:02:31.480 hablan de la Edad del Hierro, de la Edad de Piedra 49 00:02:31.880 --> 00:02:34.200 y más recientemente de la sociedad industrial 50 00:02:34.240 --> 00:02:38.120 de la sociedad posindustrial, de la sociedad de la información... 51 00:02:38.960 --> 00:02:41.960 En cambio, cuando vemos la otra cara de la moneda, 52 00:02:42.040 --> 00:02:45.680 en qué sentido el contexto social influye a la tecnología, 53 00:02:45.960 --> 00:02:47.280 la idea no está tan clara. 54 00:02:47.360 --> 00:02:50.280 De hecho, la visión tradicional es que la tecnología sigue 55 00:02:50.360 --> 00:02:51.920 una especie de lógica propia. 56 00:02:52.600 --> 00:02:56.120 ¿Qué lógica propia sigue? Básicamente que los artefactos 57 00:02:56.200 --> 00:03:01.000 son sustituidos por artefactos cada vez más eficientes o eficaces. 58 00:03:01.240 --> 00:03:04.280 Eso es lo que marca la evolución de la tecnología 59 00:03:04.520 --> 00:03:07.280 sin una gran influencia del contexto social 60 00:03:07.320 --> 00:03:08.640 o de fuerzas sociales. 61 00:03:10.280 --> 00:03:12.960 Esta visión, que sigue siendo la imperante actualmente, 62 00:03:13.040 --> 00:03:16.080 ha sido fuertemente cuestionada en las últimas décadas 63 00:03:16.160 --> 00:03:19.320 por muchos historiadores y sociólogos de la ciencia y la tecnología 64 00:03:19.360 --> 00:03:21.480 como veremos a lo largo de este curso. 65 00:03:22.000 --> 00:03:24.960 Es innegable que las tecnologías tienen impactos sociales, 66 00:03:25.040 --> 00:03:28.040 pero ahora sabemos que una serie de factores y fuerzas sociales 67 00:03:28.120 --> 00:03:30.880 pueden afectar y condicionar las innovaciones tecnológicas 68 00:03:30.960 --> 00:03:33.760 y que el desarrollo tecnológico 69 00:03:33.920 --> 00:03:36.080 no sigue una lógica propia autónoma. 70 00:03:36.240 --> 00:03:38.600 En primer lugar, la ciencia y la tecnología 71 00:03:38.680 --> 00:03:40.920 se desarrollan siempre en un contexto social. 72 00:03:41.000 --> 00:03:44.080 Este contexto social sería un contexto económico, político..., 73 00:03:44.160 --> 00:03:47.040 es decir que no se desarrollan en el vacío, 74 00:03:47.120 --> 00:03:50.240 sino que tienen que ver con una demanda social, 75 00:03:50.320 --> 00:03:54.000 con alguna necesidad de transformación social, etc. 76 00:03:54.440 --> 00:03:58.600 A parte de esto, los ingenieros y desarrolladores tecnológicos 77 00:03:58.680 --> 00:04:03.840 cuando desarrollan un artefacto, están haciendo una propuesta social. 78 00:04:04.200 --> 00:04:07.680 Hay un autor que me gusta mucho que habla de ingenieros sociólogos 79 00:04:07.760 --> 00:04:10.880 para referirse a los ingenieros. En el fondo, 80 00:04:11.040 --> 00:04:14.640 por ejemplo, si estás proponiendo un coche eléctrico, 81 00:04:14.880 --> 00:04:18.120 no estás proponiendo simplemente desarrollar un aparato 82 00:04:18.200 --> 00:04:20.920 que funcione con electricidad, sino que estás proponiendo 83 00:04:20.960 --> 00:04:25.720 una sociedad más limpia, una ciudad con menos ruido 84 00:04:25.880 --> 00:04:29.080 con menos contaminación; una sociedad en la que el coche 85 00:04:29.200 --> 00:04:31.640 no sea un símbolo de estatus, ya que las prestaciones 86 00:04:31.680 --> 00:04:34.240 de los coches eléctricos no serán las mismas 87 00:04:34.320 --> 00:04:35.840 que las de los coches de explosión, etc. 88 00:04:35.920 --> 00:04:39.240 Estás haciendo una propuesta social determinada. 89 00:04:39.560 --> 00:04:43.800 En este sentido, la reacción que tendrán 90 00:04:44.000 --> 00:04:46.600 los potenciales compradores estará determinada 91 00:04:46.680 --> 00:04:49.320 por qué propuesta social hay, 92 00:04:49.400 --> 00:04:52.360 no solo por si el aparato funciona o no; 93 00:04:52.440 --> 00:04:54.440 hay más cosas asociadas a eso. 94 00:04:54.480 --> 00:04:59.960 Todo desarrollo tecnológico tiene esta dimensión social. 95 00:05:00.320 --> 00:05:03.840 Pero también lo podemos decir de la ciencia del conocimiento. 96 00:05:04.000 --> 00:05:07.120 La imagen tradicional de la ciencia es que progresa 97 00:05:07.280 --> 00:05:10.480 por la curiosidad desinteresada de los científicos. 98 00:05:10.680 --> 00:05:12.400 Pero si analizamos los datos, 99 00:05:12.480 --> 00:05:15.200 nos daremos cuenta de que este desinterés 100 00:05:15.520 --> 00:05:19.880 no está tan claro si pensamos qué se investiga en medicina. 101 00:05:20.360 --> 00:05:22.000 Uno podría pensar que se investigan 102 00:05:22.040 --> 00:05:24.760 las enfermedades que afectan a más gente, 103 00:05:24.840 --> 00:05:30.960 pero no es del todo así, más bien, se investiga en enfermedades 104 00:05:31.280 --> 00:05:33.160 que afectan a gente que tiene recursos económicos 105 00:05:33.240 --> 00:05:36.360 para pagar las medicinas que se desarrollarán para curarlas. 106 00:05:36.440 --> 00:05:39.040 Por ejemplo, la malaria, una enfermedad 107 00:05:39.120 --> 00:05:40.760 que afecta a millones de personas, 108 00:05:40.840 --> 00:05:45.240 no ha sido hasta hace muy poco y por voluntad de un científico, 109 00:05:45.320 --> 00:05:49.120 Patarroyo, que se ha desarrollado una vacuna para combatirla. 110 00:05:49.560 --> 00:05:53.720 De algún modo, hay una presión social, 111 00:05:53.800 --> 00:05:59.200 una dimensión social que afecta al propio proceso 112 00:05:59.480 --> 00:06:03.160 de desarrollo científico: qué se investiga y cómo se investiga. 113 00:06:03.240 --> 00:06:08.440 Otro ejemplo: si me preguntaras por problemas sociales, 114 00:06:08.520 --> 00:06:13.720 que llamamos sociales, pero que son técnicos y científicos, 115 00:06:13.800 --> 00:06:18.000 y nos afectan hoy en día, como el agujero de la capa de ozono; 116 00:06:18.360 --> 00:06:23.680 si tuviera que explicarlo como un problema científico, 117 00:06:23.760 --> 00:06:26.920 podría hacerlo, pero también como un problema tecnológico 118 00:06:27.000 --> 00:06:29.520 y como un problema social. 119 00:06:29.960 --> 00:06:32.000 ¿Dónde acaba uno y dónde empieza el otro? 120 00:06:32.560 --> 00:06:36.560 Por eso, en el campo de estudios de la ciencia y la tecnología 121 00:06:36.600 --> 00:06:39.320 solemos hablar del tejido sin costuras 122 00:06:39.360 --> 00:06:41.280 que conforman ciencia, tecnología y sociedad. 123 00:06:41.360 --> 00:06:44.920 Es muy difícil establecer fronteras claras 124 00:06:45.000 --> 00:06:46.880 de dónde acaba una cosa y dónde empieza la otra 125 00:06:46.960 --> 00:06:50.520 porque todos los problemas tienen estos tres componentes, 126 00:06:50.600 --> 00:06:53.640 y aún más en la sociedad del conocimiento. 127 00:06:54.120 --> 00:06:57.800 Es muy difícil separar entre ciencia, tecnología y sociedad 128 00:06:57.880 --> 00:07:01.680 y eso hace también que los problemas que debemos afrontar 129 00:07:01.880 --> 00:07:05.120 sean especialmente complejos, pero a la vez interesantes. 130 00:07:05.760 --> 00:07:08.840 La nueva visión de la tecnología y de su relación con la sociedad 131 00:07:08.880 --> 00:07:11.760 pone en duda uno de los estereotipos que más fortuna ha hecho 132 00:07:11.840 --> 00:07:13.440 en torno a la tecnología: 133 00:07:13.600 --> 00:07:16.120 la supuesta neutralidad de la tecnología. 134 00:07:16.480 --> 00:07:19.160 Nos dicen que los artefactos técnicos son neutrales, 135 00:07:19.240 --> 00:07:20.400 ni buenos ni malos, 136 00:07:20.480 --> 00:07:23.480 y que se pueden usar tanto positiva como negativamente, 137 00:07:23.520 --> 00:07:25.680 pero que no tienen ni color político 138 00:07:25.760 --> 00:07:28.440 ni son más afines a unos valores que a otros. 139 00:07:28.560 --> 00:07:31.440 Hace medio siglo, el historiador de la tecnología Lewis Mumford 140 00:07:31.520 --> 00:07:34.880 quiso desmontar esta concepción tan arraigada a nuestra cultura 141 00:07:34.920 --> 00:07:37.000 y mostró cómo a lo largo de la historia 142 00:07:37.040 --> 00:07:39.240 habían convivido dos tipos de tecnologías 143 00:07:39.320 --> 00:07:41.600 que llamó, de manera provocativa, 144 00:07:41.640 --> 00:07:46.160 tecnologías democráticas y tecnologías autoritarias. 145 00:07:46.920 --> 00:07:49.240 Mumford fue uno de los primeros autores 146 00:07:49.560 --> 00:07:51.560 que dijo explícitamente 147 00:07:51.640 --> 00:07:55.000 que la tecnología podía no ser necesariamente neutra 148 00:07:55.080 --> 00:07:57.000 desde el punto de vista político. 149 00:07:57.640 --> 00:08:01.520 Su tesis básica es que a lo largo de la historia 150 00:08:01.760 --> 00:08:04.840 han convivido dos tipos de tecnologías: 151 00:08:04.880 --> 00:08:09.000 unas que llamó, provocativamente, autoritarias 152 00:08:09.240 --> 00:08:11.600 y otras que llamaba democráticas. 153 00:08:12.720 --> 00:08:16.560 Las autoritarias, para Mumford, eran esas tecnologías que... 154 00:08:17.320 --> 00:08:19.480 son compatibles o requieren 155 00:08:19.600 --> 00:08:22.400 una especie de sistema político jerarquizado, 156 00:08:23.280 --> 00:08:24.520 centralizado, 157 00:08:25.040 --> 00:08:30.600 en el que prima la uniformidad, la estandarización... 158 00:08:31.640 --> 00:08:36.080 En cambio, las democráticas, son esas de escala más pequeña, 159 00:08:37.600 --> 00:08:40.800 no necesariamente uniformes ni estandarizadas 160 00:08:40.880 --> 00:08:43.520 y que no requieren un control centralizado 161 00:08:43.560 --> 00:08:45.560 ni un sistema político muy estructurado, 162 00:08:45.640 --> 00:08:48.480 sino que dependen de comunidades pequeñas 163 00:08:48.880 --> 00:08:52.320 y, con su propia terminología, son de escala más humana. 164 00:08:53.400 --> 00:08:56.840 Mumford situó el origen de las tecnologías autoritarias 165 00:08:56.880 --> 00:08:59.480 en el nacimiento de los grandes imperios 166 00:08:59.840 --> 00:09:03.240 en la antigüedad, de los protoestados. 167 00:09:03.480 --> 00:09:08.880 Uno de los ejemplos básicos que puso de estas tecnologías autoritarias 168 00:09:09.080 --> 00:09:12.040 que él llamaba megamáquinas, 169 00:09:12.520 --> 00:09:16.120 son las pirámides egipcias, que no solo requieren 170 00:09:16.200 --> 00:09:19.600 un aprendizaje tecnológico y técnico para construirlas, 171 00:09:19.680 --> 00:09:23.000 sino también una organización centralizada, 172 00:09:23.680 --> 00:09:25.080 muy jerárquica, etc. 173 00:09:26.120 --> 00:09:29.960 Más actualmente sería la energía nuclear. 174 00:09:30.320 --> 00:09:33.800 Las plantas nucleares requieren también un sistema de este tipo. 175 00:09:33.840 --> 00:09:36.880 En cambio, las democráticas son esas tecnologías 176 00:09:37.360 --> 00:09:40.960 que, al contrario de la energía nuclear, 177 00:09:41.040 --> 00:09:43.080 serían los paneles solares, que no requieren 178 00:09:43.160 --> 00:09:46.000 este tipo de control, ni por temas de seguridad 179 00:09:46.080 --> 00:09:47.600 ni por otras cuestiones. 180 00:09:47.800 --> 00:09:53.480 Su tesis lo que acababa diciendo es que a lo largo de la historia, 181 00:09:53.560 --> 00:09:57.400 sobre todo a lo largo del s. XX, estas tecnologías autoritarias 182 00:09:57.720 --> 00:10:01.520 habían ganado mucho más peso que las tecnologías democráticas. 183 00:10:02.400 --> 00:10:05.160 El hecho de que las tecnologías puedan encarnar valores distintos 184 00:10:05.240 --> 00:10:07.720 implica que no hay nada necesario ni inexorable 185 00:10:07.800 --> 00:10:09.480 en la historia de la tecnología, 186 00:10:09.520 --> 00:10:11.960 es decir, el desarrollo tecnológico 187 00:10:12.040 --> 00:10:14.480 es contingente, siempre hay más de un modo 188 00:10:14.560 --> 00:10:16.280 de diseñar una tecnología. 189 00:10:16.400 --> 00:10:19.240 Dicho con otras palabras, la innovación tecnológica 190 00:10:19.320 --> 00:10:22.400 siempre puede ir en direcciones diferentes o alternativas. 191 00:10:22.480 --> 00:10:25.320 Cuando se nos dice que se necesita más innovación en un ámbito concreto, 192 00:10:25.400 --> 00:10:28.720 siempre es pertinente preguntar: "¿Innovación hacia dónde?". 193 00:10:29.120 --> 00:10:33.240 Actualmente, el software que usamos para los dispositivos electrónicos 194 00:10:33.320 --> 00:10:37.000 puede ser libre o de código abierto, o de propiedad. 195 00:10:37.760 --> 00:10:40.200 Ambas opciones encarnan no solo formas diferentes 196 00:10:40.280 --> 00:10:41.720 de entender la programación informática, 197 00:10:41.800 --> 00:10:45.040 sino lo que es más importante, ideas contrapuestas 198 00:10:45.200 --> 00:10:47.240 sobre lo que los usuarios pueden hacer o no 199 00:10:47.320 --> 00:10:48.400 con los ordenadores. 200 00:10:48.760 --> 00:10:51.240 Esto es importante porque nuestra relación 201 00:10:51.320 --> 00:10:53.880 con los artefactos técnicos suele plantearse 202 00:10:53.960 --> 00:10:55.480 solo en términos de consumo. 203 00:10:55.760 --> 00:10:58.720 Más que usuarios, se nos considera consumidores de tecnología 204 00:10:58.800 --> 00:11:02.400 y, por tanto, ante la tecnología se nos atribuye un papel pasivo. 205 00:11:02.720 --> 00:11:06.880 Es cierto que tendemos a tener una visión pasiva de los usuarios. 206 00:11:07.280 --> 00:11:10.600 Hasta cierto punto es verdad que los aparatos tecnológicos 207 00:11:10.680 --> 00:11:14.120 tienden a imponer una forma de ser usados. 208 00:11:14.560 --> 00:11:17.680 Eso tiene relación con lo que en los estudios de ciencia 209 00:11:17.760 --> 00:11:22.640 y tecnología llamamos script: todo aparato tiene un guion, 210 00:11:22.840 --> 00:11:23.840 un modo de empleo. 211 00:11:23.920 --> 00:11:30.280 Estos guiones de modo de empleo pueden ser bastante rígidos. 212 00:11:30.600 --> 00:11:34.840 Ahora bien, es cierto que todo usuario 213 00:11:35.600 --> 00:11:39.920 se apropia de un aparato tecnológico, lo hace suyo y de algún modo 214 00:11:40.000 --> 00:11:44.960 también introduce variaciones en este script, 215 00:11:45.040 --> 00:11:48.200 en lo que se espera de este aparato. 216 00:11:49.320 --> 00:11:51.960 Hay todo tipo de ejemplos. 217 00:11:52.360 --> 00:11:56.720 A mí me gusta mucho uno que es la teleasistencia. 218 00:11:57.600 --> 00:12:00.320 La teleasistencia es un aparato que se instala 219 00:12:00.400 --> 00:12:03.560 en casa de las personas mayores para que puedan avisar 220 00:12:03.600 --> 00:12:05.120 en caso de tener una emergencia. 221 00:12:05.200 --> 00:12:07.080 El aparato se instala al lado del teléfono 222 00:12:07.160 --> 00:12:10.160 y a las personas mayores se les pide que lleven un colgante. 223 00:12:10.200 --> 00:12:14.280 En este colgante tienen un botón que pone en marcha el aparato 224 00:12:14.360 --> 00:12:17.520 para hablar desde cualquier lugar de la casa con una central de alarmas 225 00:12:17.560 --> 00:12:19.800 que les pregunta si tienen algún problema. 226 00:12:19.840 --> 00:12:23.680 ¿Qué pasa cuando incorporas esto en una casa? 227 00:12:23.760 --> 00:12:28.840 De primeras, el servicio insiste muy seriamente 228 00:12:28.920 --> 00:12:30.920 en cómo debe ser utilizado este aparato. 229 00:12:31.000 --> 00:12:34.240 Le dice al usuario que sobre todo lleve siempre el colgante 230 00:12:34.280 --> 00:12:38.000 porque está diseñado para que se duche y duerma con él, 231 00:12:38.120 --> 00:12:40.800 está pensado para que lo lleve siempre encima. 232 00:12:40.880 --> 00:12:43.760 Esto es importante y se le recuerda constantemente. 233 00:12:43.800 --> 00:12:45.000 ¿Qué hacen los usuarios? 234 00:12:45.080 --> 00:12:48.480 Responden a esto en función de sus necesidades 235 00:12:48.520 --> 00:12:52.120 y de sus... 236 00:12:52.360 --> 00:12:56.200 de sus deseos, de su forma de vida, 237 00:12:56.440 --> 00:12:58.200 de sus relaciones, etc. 238 00:12:58.960 --> 00:13:02.400 ¿Por qué hacen eso? Porque este aparato no es neutro, 239 00:13:02.520 --> 00:13:04.360 este aparato los está interpelando. 240 00:13:04.440 --> 00:13:08.560 Si llevan un colgante, y esto lo dice mucha gente mayor, 241 00:13:08.920 --> 00:13:13.440 se sienten que están declarando su fragilidad, 242 00:13:13.600 --> 00:13:16.440 su necesidad de cuidados, y eso no es una imagen 243 00:13:16.520 --> 00:13:18.040 que la gente quiera dar. 244 00:13:18.200 --> 00:13:21.880 Esto hace que muchos usuarios no lleven el colgante todo el rato. 245 00:13:22.080 --> 00:13:23.240 ¿Qué hacen entonces? 246 00:13:23.400 --> 00:13:27.240 Tienen prácticas personalizadas 247 00:13:27.560 --> 00:13:32.120 en las que desarrollan criterios para saber cuándo deben llevarlo. 248 00:13:32.440 --> 00:13:34.200 Recuerdo que una señora nos decía 249 00:13:34.440 --> 00:13:37.920 que no lo llevaba todo el rato, pero que si debía limpiar la cocina 250 00:13:38.000 --> 00:13:40.200 y tenía que subirse a una escalera, se lo ponía. 251 00:13:40.280 --> 00:13:42.680 Ella considera que eso es una práctica de riesgo, 252 00:13:42.760 --> 00:13:46.800 se pone el colgante, limpia, baja y ya ha hecho el trabajo. 253 00:13:47.080 --> 00:13:49.640 ¿Esto qué significa? Significa que las personas, 254 00:13:51.040 --> 00:13:52.400 ante un aparato, 255 00:13:53.200 --> 00:13:58.960 es evidente que tenemos unas formas personales de empleo, 256 00:13:59.280 --> 00:14:02.160 y lo usamos en función de nuestras necesidades 257 00:14:02.240 --> 00:14:07.200 y en función de cómo este aparato nos interpele a nosotros 258 00:14:07.280 --> 00:14:09.640 en nuestra forma de ser, nuestra identidad, etc. 259 00:14:09.720 --> 00:14:11.960 El caso de la teleasistencia es muy claro, 260 00:14:12.040 --> 00:14:13.480 pero habría más casos. 261 00:14:13.560 --> 00:14:18.320 Sin embargo, este es muy ilustrativo por cómo los usuarios 262 00:14:20.280 --> 00:14:24.920 responden al modo de empleo que exige el aparato. 263 00:14:25.680 --> 00:14:29.000 La intervención de los usuarios en la tecnología y la ciencia 264 00:14:29.080 --> 00:14:32.680 y la posible democratización de la investigación y la innovación 265 00:14:33.080 --> 00:14:36.160 es uno de los grandes temas de la sociedad contemporánea. 266 00:14:36.280 --> 00:14:39.320 La cultura tecnocientífica no solo se caracteriza 267 00:14:39.400 --> 00:14:41.920 por la omnipresencia de la ciencia y la tecnología, 268 00:14:42.000 --> 00:14:45.280 sino por la proliferación de conflictos a su alrededor. 269 00:14:46.680 --> 00:14:49.520 Las controversias tecnocientíficas públicas 270 00:14:49.600 --> 00:14:51.440 son nuestro pan de cada día. 271 00:14:51.840 --> 00:14:52.840 El calentamiento global 272 00:14:52.880 --> 00:14:55.320 y las medidas políticas necesarias para paliarlo, 273 00:14:55.440 --> 00:14:57.720 los organismos modificados genéticamente, 274 00:14:57.760 --> 00:14:58.760 las pandemias, 275 00:14:58.880 --> 00:15:02.000 los efectos sobre la salud de las radiaciones electromagnéticas, 276 00:15:02.080 --> 00:15:04.480 los efectos secundarios de muchos medicamentos, 277 00:15:04.560 --> 00:15:06.520 el mercadeo con nuestros datos 278 00:15:06.600 --> 00:15:08.800 por parte de grandes corporaciones en Internet 279 00:15:08.880 --> 00:15:10.240 o los residuos nucleares 280 00:15:10.320 --> 00:15:12.560 parecen cuestionar el vínculo tradicional 281 00:15:12.640 --> 00:15:15.040 entre la ciencia y la tecnología, por un lado, 282 00:15:15.080 --> 00:15:17.040 y el progreso social, por otro lado. 283 00:15:17.200 --> 00:15:20.280 Hemos heredado una imagen que procede del s. XIX 284 00:15:20.360 --> 00:15:24.400 en la que cualquier avance científico o tecnológico 285 00:15:24.480 --> 00:15:28.440 nos lleva automáticamente a un mejor bienestar social, 286 00:15:28.680 --> 00:15:31.200 incluso moral, dirían los ilustrados. 287 00:15:32.040 --> 00:15:36.440 Esta es una idea que ha entrado en crisis a lo largo del s. XX, 288 00:15:36.520 --> 00:15:39.000 sobre todo después de la Segunda Guerra Mundial. 289 00:15:39.080 --> 00:15:42.440 Lo que significó toda la tecnología y la ciencia 290 00:15:42.520 --> 00:15:46.000 al servicio del régimen nazi, los campos de concentración, 291 00:15:46.240 --> 00:15:49.160 las bombas de Hiroshima y Nagasaki, después de la Segunda Guerra Mundial 292 00:15:49.640 --> 00:15:51.320 marcan un punto de inflexión. 293 00:15:51.400 --> 00:15:55.520 Algunos historiadores han hablado de un pesimismo posmoderno 294 00:15:56.160 --> 00:15:59.640 que se va gestando a lo largo de la segunda mitad del s. XX, 295 00:15:59.960 --> 00:16:03.720 en el que esta idea ingenua de que cualquier invención, 296 00:16:03.800 --> 00:16:05.960 cualquier máquina o nueva tecnología 297 00:16:07.040 --> 00:16:12.800 es siempre positiva y mejora la vida de un modo casi crítico lineal, 298 00:16:13.080 --> 00:16:14.080 no es tan sencillo. 299 00:16:14.120 --> 00:16:18.200 En el mundo cientificotecnológico o tecnocientífico 300 00:16:18.280 --> 00:16:19.560 en el que vivimos ahora aún más, 301 00:16:19.600 --> 00:16:22.520 en el que temas como el cambio climático, 302 00:16:22.600 --> 00:16:26.200 cuestiones sanitarias, medioambientales en sentido amplio, 303 00:16:26.480 --> 00:16:29.600 cuestiones de gestión de la información..., 304 00:16:29.960 --> 00:16:32.280 son temas de una extrema complejidad 305 00:16:32.440 --> 00:16:34.760 en los que es muy difícil llegar a un consenso. 306 00:16:34.840 --> 00:16:38.200 En estos temas hay opiniones controvertidas 307 00:16:38.480 --> 00:16:42.400 entre diferentes expertos y grupos en la opinión pública 308 00:16:42.840 --> 00:16:46.040 que hacen que las decisiones que se toman para evolucionar 309 00:16:46.120 --> 00:16:48.960 hacia una dirección u otra sean mucho más complejas 310 00:16:49.000 --> 00:16:50.000 de lo que podríamos pensar. 311 00:16:50.040 --> 00:16:55.960 Es decir, aquí la idea interesante sería comparar la historia 312 00:16:56.040 --> 00:16:58.080 o nuestra evolución cientificotecnológica 313 00:16:58.160 --> 00:16:59.400 como un tronco lineal 314 00:16:59.960 --> 00:17:02.080 o como un árbol con muchas ramas, 315 00:17:02.160 --> 00:17:04.280 y muchas de estas ramas se gestan 316 00:17:04.360 --> 00:17:06.640 de un modo complejo en las sociedades actuales. 317 00:17:06.720 --> 00:17:10.120 Esta idea de que con más ciencia, más tecnología, 318 00:17:10.200 --> 00:17:12.800 más progreso incuestionable, más felicidad humana, 319 00:17:12.880 --> 00:17:15.920 más bienestar, etc., es una idea demasiado simple 320 00:17:16.280 --> 00:17:18.240 que desgraciadamente ya no volverá. 321 00:17:18.840 --> 00:17:21.840 Uno de los rasgos de la modernidad ha sido el establecimiento 322 00:17:21.920 --> 00:17:24.960 de una frontera clara entre la ciencia y la política. 323 00:17:25.080 --> 00:17:28.480 La ciencia se ocupa de los hechos y la política de los valores. 324 00:17:28.880 --> 00:17:31.040 Las decisiones políticas se pueden tomar 325 00:17:31.120 --> 00:17:33.360 en base a ciertos conocimientos científicos, 326 00:17:33.400 --> 00:17:37.280 pero estos no están influidos por valores o posiciones políticas. 327 00:17:37.320 --> 00:17:40.640 No obstante, actualmente y en muchas de estas controversias 328 00:17:40.760 --> 00:17:44.000 el papel de los expertos científicos se suele cuestionar. 329 00:17:44.320 --> 00:17:47.240 La cuestión de quién es un experto y quién tiene la última palabra 330 00:17:47.320 --> 00:17:50.440 para tomar decisiones importantes en temas medioambientales, 331 00:17:50.520 --> 00:17:53.880 sanitarios, tecnológicos, nanotecnológicos, 332 00:17:53.960 --> 00:17:57.000 hoy en día es una cuestión muy compleja. 333 00:17:58.080 --> 00:18:04.160 Hemos heredado del s. XX esta idea del académico respetado, 334 00:18:05.360 --> 00:18:09.280 confortablemente instalado en sus instituciones académicas 335 00:18:09.360 --> 00:18:11.960 en las que tenía una cierta libertad, 336 00:18:12.360 --> 00:18:16.000 un cierto blindaje moral e intelectual; 337 00:18:16.880 --> 00:18:18.600 ante según qué tipo 338 00:18:18.680 --> 00:18:21.000 de cuestiones cientificotécnicas actuales, 339 00:18:21.080 --> 00:18:22.880 esta es una cuestión más controvertida. 340 00:18:22.920 --> 00:18:25.400 El ejemplo del cambio climático es evidente: 341 00:18:25.680 --> 00:18:29.040 Hay muchos científicos que han invertido 342 00:18:30.440 --> 00:18:33.360 años y años de investigación des de su especialidad 343 00:18:33.440 --> 00:18:37.920 en cuestiones más biológicas, meteorológicas, químicas, 344 00:18:38.000 --> 00:18:41.160 físicas, ingenieriles, ecológicas, etc., 345 00:18:41.240 --> 00:18:43.560 cada uno desde su especialidad como experto, 346 00:18:43.600 --> 00:18:45.960 y no son capaces de resolver el problema. 347 00:18:46.040 --> 00:18:49.200 Pretender que cada uno de estos expertos tiene una opinión 348 00:18:49.280 --> 00:18:53.720 apolítica neutral objetiva es también una ingenuidad. 349 00:18:53.960 --> 00:18:59.960 Vivimos en un mundo en el que hay de nuevo un intento de tecnocracia, 350 00:19:00.040 --> 00:19:03.360 en el sentido que la opinión del experto es la definitiva 351 00:19:03.440 --> 00:19:05.760 o desearíamos que fuera definitiva, 352 00:19:06.000 --> 00:19:08.320 pero nos enfrentamos a una serie de problemas 353 00:19:08.360 --> 00:19:12.160 en los que el propio experto es débil ante las decisiones. 354 00:19:12.240 --> 00:19:17.680 Es decir, en todos estos temas nano o bioambientales 355 00:19:17.760 --> 00:19:21.920 inevitablemente los factores políticos, económicos, 356 00:19:22.000 --> 00:19:26.080 geoestratégicos, estéticos, relacionados con los mass media…, 357 00:19:26.160 --> 00:19:27.680 tienen una gran importancia. 358 00:19:27.720 --> 00:19:32.520 Ya puede publicar el experto muchos artículos de primera fila 359 00:19:32.960 --> 00:19:35.000 en las mejores revistas internacionales, 360 00:19:35.080 --> 00:19:37.640 que su opinión siempre queda limitada. 361 00:19:37.720 --> 00:19:40.720 Por tanto, la idea de poder separar 362 00:19:40.800 --> 00:19:42.800 el conocimiento científico del experto 363 00:19:42.880 --> 00:19:47.040 y las decisiones políticas, sociales, que se derivan de él 364 00:19:47.120 --> 00:19:48.360 es una idea ingenua. 365 00:19:48.440 --> 00:19:49.440 Hay muchos... 366 00:19:49.840 --> 00:19:52.080 Por ejemplo, historiadores de la Alemania nazi 367 00:19:52.160 --> 00:19:55.640 como el norteamericano Robert Proctor, dicen que 368 00:19:56.160 --> 00:19:58.840 con la práctica cotidiana de los científicos 369 00:19:58.920 --> 00:20:00.400 se está haciendo política. 370 00:20:01.600 --> 00:20:05.720 No se puede distinguir la construcción del conocimiento 371 00:20:05.800 --> 00:20:07.160 de la propia política. 372 00:20:07.400 --> 00:20:10.800 Sheila Jasanoff, otra autora norteamericana, 373 00:20:10.880 --> 00:20:13.080 habla también de una especie de co-construcción. 374 00:20:13.160 --> 00:20:15.000 El conocimiento y las decisiones políticas 375 00:20:15.080 --> 00:20:16.520 van absolutamente juntas. 376 00:20:17.280 --> 00:20:20.480 Pretender que un experto es un personaje muy inteligente 377 00:20:20.560 --> 00:20:21.800 que sabe mucho de un tema 378 00:20:21.880 --> 00:20:24.840 y que sus decisiones serán objetivas, neutrales, 379 00:20:24.880 --> 00:20:28.640 aproblemáticas y que serán aplicadas sin problemas en la sociedad, 380 00:20:28.680 --> 00:20:30.480 desgraciadamente también es ingenuo. 381 00:20:30.760 --> 00:20:33.240 Este tipo de cuestiones, que marcan nuestra época 382 00:20:33.320 --> 00:20:36.280 y nos acercan a una forma diferente de entender nuestra relación 383 00:20:36.360 --> 00:20:39.800 con la ciencia y la tecnología, son las que abordaremos en este curso 384 00:20:39.880 --> 00:20:43.200 sobre ciencia y tecnología en la sociedad contemporánea.