WEBVTT 1 00:00:13.520 --> 00:00:15.360 La ciència i la tecnologia són omnipresents 2 00:00:15.400 --> 00:00:17.760 en la nostra cultura i vida quotidiana. 3 00:00:18.360 --> 00:00:21.240 De vegades, de manera evident, perquè cada vegada utilitzem 4 00:00:21.320 --> 00:00:23.520 més aparells electrònics i més freqüentment, 5 00:00:23.600 --> 00:00:28.080 i d'altres, de manera més subtil, perquè molts dels aliments que mengem 6 00:00:28.280 --> 00:00:31.200 són fruit de processos tecnològics molt sofisticats 7 00:00:31.280 --> 00:00:33.480 amb molta recerca científica al darrere. 8 00:00:33.760 --> 00:00:36.040 Àmbits com l'agricultura o la medicina, 9 00:00:36.120 --> 00:00:38.840 tradicionalment poc tecnificats, es duen a terme ara 10 00:00:38.920 --> 00:00:41.720 mitjançant sistemes tecnològics molt complexos. 11 00:00:43.560 --> 00:00:46.240 Si obrim un diari qualsevol o veiem un telenotícies, 12 00:00:46.320 --> 00:00:48.680 els temes científics i tecnològics ja no ocupen 13 00:00:48.760 --> 00:00:51.120 sols les seccions de ciència i tecnologia. 14 00:00:51.200 --> 00:00:54.680 Grans qüestions polítiques, socials, culturals o econòmiques 15 00:00:54.720 --> 00:00:57.920 estan ara fortament lligades a temes com el canvi climàtic 16 00:00:57.960 --> 00:01:01.720 a causa de les emissions de CO2, les nostres fonts d'energia, 17 00:01:02.080 --> 00:01:04.280 el control de les dades personals a Internet 18 00:01:04.360 --> 00:01:06.200 o els medicaments que prenem. 19 00:01:06.920 --> 00:01:09.440 Molts experts consideren la nostra cultura 20 00:01:09.520 --> 00:01:12.080 com una cultura bàsicament tecnocientífica. 21 00:01:12.400 --> 00:01:14.320 Tot i que la humanitat des dels seus orígens 22 00:01:14.400 --> 00:01:17.760 s'ha distingit d'altres espècies per la seva capacitat 23 00:01:17.800 --> 00:01:19.400 per fabricar i usar artefactes, 24 00:01:19.760 --> 00:01:22.840 avui dia cada vegada més aspectes de la vida humana 25 00:01:22.920 --> 00:01:26.880 depenen directament o indirectament de la tecnologia i la ciència. 26 00:01:29.320 --> 00:01:31.720 Però a què respon l'evolució de la tecnologia? 27 00:01:31.760 --> 00:01:34.840 Què o qui marca la història dels artefactes tècnics? 28 00:01:34.880 --> 00:01:37.600 Quin lligam hi ha entre el desenvolupament tecnològic 29 00:01:37.680 --> 00:01:39.320 i les transformacions socials? 30 00:01:39.360 --> 00:01:42.480 La visió tradicional de la relació entre tecnologia i societat 31 00:01:42.520 --> 00:01:44.000 és unidireccional. 32 00:01:44.600 --> 00:01:48.000 Pensem que la tecnologia influeix en la societat, 33 00:01:48.160 --> 00:01:50.440 la condiciona, però que, en canvi, 34 00:01:50.760 --> 00:01:54.440 la societat no té gaire influència en la tecnologia. Això què vol dir? 35 00:01:54.520 --> 00:01:58.960 Vol dir que la tecnologia és un factor determinant, influent, 36 00:01:59.040 --> 00:02:00.400 en els canvis socials. 37 00:02:02.120 --> 00:02:04.960 Per això parlem de conseqüències socials 38 00:02:05.040 --> 00:02:07.280 o d'impactes socials de la tecnologia. 39 00:02:07.520 --> 00:02:11.320 I en una visió més extrema, anomenada determinisme tecnològic, 40 00:02:11.600 --> 00:02:16.200 arribem a pensar que la tecnologia és el factor més important 41 00:02:16.280 --> 00:02:19.600 a l'hora de condicionar els canvis socials en la història. 42 00:02:19.680 --> 00:02:22.720 Si veiem les denominacions que els historiadors han usat 43 00:02:22.800 --> 00:02:26.520 per descriure les diferents etapes de l'evolució humana, 44 00:02:26.600 --> 00:02:27.920 de les societats humanes, 45 00:02:28.000 --> 00:02:31.480 parlen de l'Edat del Ferro, l'Edat de Pedra 46 00:02:31.880 --> 00:02:34.200 i més recentment de la societat industrial 47 00:02:34.240 --> 00:02:38.120 de la societat postindustrial, de la societat de la informació... 48 00:02:38.960 --> 00:02:41.960 En canvi, quan veiem l'altra cara de la moneda, 49 00:02:42.040 --> 00:02:45.680 en quin sentit la tecnologia és influïda pel context social, 50 00:02:45.960 --> 00:02:47.280 la idea no és tan clara. 51 00:02:47.360 --> 00:02:50.280 De fet, la visió tradicional és que la tecnologia segueix 52 00:02:50.360 --> 00:02:51.920 una mena de lògica pròpia. 53 00:02:52.600 --> 00:02:56.120 Quina és aquesta lògica pròpia? Bàsicament que els artefactes 54 00:02:56.200 --> 00:03:01.000 són substituïts per artefactes cada cop més eficients o eficaços. 55 00:03:01.240 --> 00:03:04.280 Això és el que marca l'evolució de la tecnologia 56 00:03:04.520 --> 00:03:08.320 sense una gran influència del context social o forces socials. 57 00:03:10.280 --> 00:03:12.960 Aquesta visió, que continua sent la imperant actualment, 58 00:03:13.040 --> 00:03:16.080 ha estat fortament qüestionada les darreres dècades 59 00:03:16.160 --> 00:03:19.320 per molts historiadors i sociòlegs de la ciència i la tecnologia 60 00:03:19.360 --> 00:03:21.480 com veurem al llarg d'aquest curs. 61 00:03:22.000 --> 00:03:24.960 És innegable que les tecnologies tenen impactes socials, 62 00:03:25.040 --> 00:03:28.040 però ara sabem que tot un seguit de factors i forces socials 63 00:03:28.120 --> 00:03:30.880 poden afectar i condicionar les innovacions tecnològiques 64 00:03:30.960 --> 00:03:33.760 i que el desenvolupament tecnològic 65 00:03:33.920 --> 00:03:36.080 no segueix una lògica pròpia autònoma. 66 00:03:36.240 --> 00:03:38.600 En primer lloc, la ciència i la tecnologia 67 00:03:38.680 --> 00:03:40.920 es desenvolupen sempre en un context social. 68 00:03:41.000 --> 00:03:44.080 Aquest context social seria un context econòmic, polític..., 69 00:03:44.160 --> 00:03:47.040 és a dir que no es desenvolupen en el buit, 70 00:03:47.120 --> 00:03:50.240 sinó que tenen a veure amb una demanda social, 71 00:03:50.320 --> 00:03:54.000 amb alguna necessitat de transformació social, etc. 72 00:03:54.440 --> 00:03:58.600 A banda d'això, els enginyers i desenvolupadors tecnològics 73 00:03:58.680 --> 00:04:03.840 quan desenvolupen un artefacte, estan fent una proposta social. 74 00:04:04.200 --> 00:04:07.680 Hi ha un autor que m'agrada molt que parla d'enginyers sociòlegs 75 00:04:07.760 --> 00:04:10.880 per referir-se als enginyers. En el fons, 76 00:04:11.040 --> 00:04:14.640 per exemple, si estàs proposant un cotxe elèctric, 77 00:04:14.880 --> 00:04:18.120 no estàs proposant simplement desenvolupar un aparell 78 00:04:18.200 --> 00:04:20.920 que funcioni amb electricitat, sinó que estàs proposant 79 00:04:20.960 --> 00:04:25.720 una societat més neta, una ciutat amb menys soroll 80 00:04:25.880 --> 00:04:29.080 amb menys contaminació; una societat en la qual el cotxe 81 00:04:29.200 --> 00:04:31.640 no sigui un símbol d'estatus, ja que les prestacions 82 00:04:31.680 --> 00:04:34.240 dels cotxes elèctrics no seran les mateixes 83 00:04:34.320 --> 00:04:35.840 que les dels cotxes d'explosió, etc. 84 00:04:35.920 --> 00:04:39.240 Estàs fent una proposta social determinada. 85 00:04:39.560 --> 00:04:43.800 En aquest sentit, la reacció que tindran 86 00:04:44.000 --> 00:04:46.600 els potencials compradors estarà determinada 87 00:04:46.680 --> 00:04:49.320 per quina proposta social hi ha, 88 00:04:49.400 --> 00:04:52.360 no només per si l'aparell funciona o no; 89 00:04:52.440 --> 00:04:54.440 hi ha més coses associades a això. 90 00:04:54.480 --> 00:04:59.960 Tot desenvolupament tecnològic té aquesta dimensió social. 91 00:05:00.320 --> 00:05:03.840 Però també ho podem dir de la ciència del coneixement. 92 00:05:04.000 --> 00:05:07.120 La imatge tradicional de la ciència és que progressa 93 00:05:07.280 --> 00:05:10.480 per la curiositat desinteressada dels científics. 94 00:05:10.680 --> 00:05:15.080 Però si analitzem les dades, ens adonarem que aquest desinterès 95 00:05:15.520 --> 00:05:19.880 no és tan clar si pensem en què s'investiga en medicina. 96 00:05:20.360 --> 00:05:24.520 Un podria pensar que s'investiguen les malalties que afecten més gent, 97 00:05:24.840 --> 00:05:30.960 però no és ben bé així, en tot cas, s'investiga en malalties 98 00:05:31.280 --> 00:05:33.160 que afecten gent que té recursos econòmics 99 00:05:33.240 --> 00:05:36.360 per pagar les medecines que es desenvoluparan per curar-les. 100 00:05:36.440 --> 00:05:40.520 Per exemple, la malària, una malaltia que afecta milions de persones, 101 00:05:40.840 --> 00:05:45.240 no ha estat fins fa molt poc i per la voluntat d'un científic, 102 00:05:45.320 --> 00:05:49.120 el Patarroyo, que s'ha desenvolupat una vacuna per combatre-la. 103 00:05:49.560 --> 00:05:53.720 D'alguna manera, hi ha una pressió social, 104 00:05:53.800 --> 00:05:59.200 una dimensió social que afecta el propi procés 105 00:05:59.480 --> 00:06:03.160 de desenvolupament científic: què s'investiga i com s'investiga. 106 00:06:03.240 --> 00:06:08.440 Un altre exemple: si em preguntessis per alguns dels problemes socials, 107 00:06:08.520 --> 00:06:13.720 que anomenem socials, però que són tècnics i científics, 108 00:06:13.800 --> 00:06:18.000 i ens afecten avui dia, com el forat de la capa d'ozó; 109 00:06:18.360 --> 00:06:23.680 si hagués d'explicar-ho com un problema científic, 110 00:06:23.760 --> 00:06:26.920 podria fer-ho, però també com un problema tecnològic 111 00:06:27.000 --> 00:06:29.520 i com un problema social. 112 00:06:29.960 --> 00:06:32.000 On acaba un i on comença l'altre? 113 00:06:32.560 --> 00:06:36.560 Per aquesta raó, en el camp d'estudis de la ciència i la tecnologia 114 00:06:36.600 --> 00:06:39.320 solem parlar del teixit sense costures 115 00:06:39.360 --> 00:06:41.280 que conformen ciència, tecnologia i societat. 116 00:06:41.360 --> 00:06:44.920 És molt difícil establir fronteres clares 117 00:06:45.000 --> 00:06:46.880 d'on acaba una cosa i on comença l'altra 118 00:06:46.960 --> 00:06:50.520 perquè tots els problemes tenen aquests tres components, 119 00:06:50.600 --> 00:06:53.640 i encara més a la societat del coneixement. 120 00:06:54.120 --> 00:06:57.800 És molt difícil destriar entre ciència, tecnologia i societat 121 00:06:57.880 --> 00:07:01.680 i això fa també que els problemes que hem d'afrontar 122 00:07:01.880 --> 00:07:05.120 siguin especialment complexos, però també interessants. 123 00:07:05.760 --> 00:07:08.840 La nova visió de la tecnologia i la seva relació amb la societat 124 00:07:08.880 --> 00:07:11.760 posa en dubte un dels estereotips que més fortuna han fet 125 00:07:11.840 --> 00:07:13.440 al voltant de la tecnologia: 126 00:07:13.600 --> 00:07:16.120 la suposada neutralitat de la tecnologia. 127 00:07:16.480 --> 00:07:19.160 Se'ns diu que els artefactes tècnics són neutrals, 128 00:07:19.240 --> 00:07:20.400 ni bons ni dolents, 129 00:07:20.480 --> 00:07:23.480 i que es poden utilitzar tant de manera positiva com negativa, 130 00:07:23.520 --> 00:07:25.680 però que no tenen ni color polític 131 00:07:25.760 --> 00:07:28.440 ni són més afins a uns valors que a uns altres. 132 00:07:28.560 --> 00:07:31.440 Fa mig segle, l'historiador de la tecnologia Lewis Mumford 133 00:07:31.520 --> 00:07:34.880 va voler desmuntar aquesta concepció tan arrelada a la nostra cultura 134 00:07:34.920 --> 00:07:37.000 i va mostrar com al llarg de la història 135 00:07:37.040 --> 00:07:39.240 havien conviscut dos tipus de tecnologies 136 00:07:39.320 --> 00:07:41.600 que va anomenar, de manera provocativa, 137 00:07:41.640 --> 00:07:46.160 tecnologies democràtiques i tecnologies autoritàries. 138 00:07:46.920 --> 00:07:51.560 Mumford va ser un dels primers autors a dir explícitament 139 00:07:51.640 --> 00:07:55.000 que la tecnologia podia no ser necessàriament neutra 140 00:07:55.080 --> 00:07:57.000 des del punt de vista polític. 141 00:07:57.640 --> 00:08:01.520 La seva tesi bàsica és que al llarg de la història 142 00:08:01.760 --> 00:08:04.840 han conviscut dos tipus de tecnologies: 143 00:08:04.880 --> 00:08:09.000 unes que va anomenar, provocativament, autoritàries 144 00:08:09.240 --> 00:08:11.600 i d'altres que anomenava democràtiques. 145 00:08:12.720 --> 00:08:16.560 Les autoritàries, per a Mumford, eren aquelles tecnologies que... 146 00:08:17.320 --> 00:08:19.480 són compatibles o requereixen 147 00:08:19.600 --> 00:08:22.400 una mena de sistema polític jerarquitzat, 148 00:08:23.280 --> 00:08:24.520 centralitzat, 149 00:08:25.040 --> 00:08:30.600 en què prima la uniformitat, l'estandardització... 150 00:08:31.640 --> 00:08:36.080 En canvi, les democràtiques, són aquelles d'escala més petita, 151 00:08:37.600 --> 00:08:40.800 no necessàriament uniformes ni estandarditzades 152 00:08:40.880 --> 00:08:43.520 i que no requereixen un control centralitzat 153 00:08:43.560 --> 00:08:45.560 ni un sistema polític molt estructurat, 154 00:08:45.640 --> 00:08:48.480 sinó que depenen de comunitats petites 155 00:08:48.880 --> 00:08:52.320 i, amb la seva pròpia terminologia, són d'escala més humana. 156 00:08:53.400 --> 00:08:56.840 Mumford va situar l'origen de les tecnologies autoritàries 157 00:08:56.880 --> 00:09:03.160 en el naixement dels grans imperis a l'antiguitat, dels protoestats. 158 00:09:03.480 --> 00:09:08.880 Un dels exemples bàsics que va posar d'aquestes tecnologies autoritàries 159 00:09:09.080 --> 00:09:12.040 que ell anomenava megamàquines, 160 00:09:12.520 --> 00:09:16.120 són les piràmides egípcies, que no només requereixen 161 00:09:16.200 --> 00:09:19.600 un aprenentatge tecnològic i tècnic per construir-les, 162 00:09:19.680 --> 00:09:23.000 sinó també una organització centralitzada, 163 00:09:23.680 --> 00:09:25.080 molt jeràrquica, etc. 164 00:09:26.120 --> 00:09:29.960 Més actualment seria l'energia nuclear. 165 00:09:30.320 --> 00:09:33.800 Les plantes nuclears requereixen també un sistema d'aquest tipus. 166 00:09:33.840 --> 00:09:36.880 En canvi, les democràtiques són aquelles tecnologies 167 00:09:37.360 --> 00:09:40.960 que, en contraposició a l'energia nuclear, 168 00:09:41.040 --> 00:09:43.080 serien els panells solars, que no requereixen 169 00:09:43.160 --> 00:09:46.000 aquesta mena de control, ni per temes de seguretat 170 00:09:46.080 --> 00:09:47.600 ni per altres qüestions. 171 00:09:47.800 --> 00:09:53.480 La seva tesi el que acabava dient és que al llarg de la història, 172 00:09:53.560 --> 00:09:57.400 sobretot al llarg del s. XX, aquestes tecnologies autoritàries 173 00:09:57.720 --> 00:10:01.520 havien guanyat molt més pes que les tecnologies democràtiques. 174 00:10:02.400 --> 00:10:05.160 El fet que les tecnologies puguin encarnar valors diferents 175 00:10:05.240 --> 00:10:07.720 implica que no hi ha res de necessari ni d'inexorable 176 00:10:07.800 --> 00:10:09.480 en la història de la tecnologia, 177 00:10:09.520 --> 00:10:11.960 és a dir, el desenvolupament tecnològic 178 00:10:12.040 --> 00:10:14.480 és contingent, sempre hi ha més d'una manera 179 00:10:14.560 --> 00:10:16.280 de dissenyar una tecnologia. 180 00:10:16.400 --> 00:10:19.240 Dit en altres paraules, la innovació tecnològica 181 00:10:19.320 --> 00:10:22.400 sempre pot anar en direccions diferents o alternatives. 182 00:10:22.480 --> 00:10:25.320 Quan se'ns diu que cal més innovació en un àmbit concret, 183 00:10:25.400 --> 00:10:28.720 sempre és pertinent preguntar: "Innovació cap on?". 184 00:10:29.120 --> 00:10:33.240 Actualment, el programari que usem per als dispositius electrònics 185 00:10:33.320 --> 00:10:37.000 pot ser lliure o de codi obert, o de propietat. 186 00:10:37.760 --> 00:10:40.200 Ambdues opcions encarnen no només maneres diferents 187 00:10:40.280 --> 00:10:41.720 d'entendre la programació informàtica, 188 00:10:41.800 --> 00:10:45.040 sinó el que és més important, idees contraposades 189 00:10:45.200 --> 00:10:48.400 sobre el que els usuaris poden fer o no amb els ordinadors. 190 00:10:48.760 --> 00:10:51.240 Això és important perquè la nostra relació 191 00:10:51.320 --> 00:10:53.880 amb els artefactes tècnics acostuma a plantejar-se 192 00:10:53.960 --> 00:10:55.480 només en termes de consum. 193 00:10:55.760 --> 00:10:58.720 Més que usuaris, se'ns considera consumidors de tecnologia 194 00:10:58.800 --> 00:11:02.400 i, per tant, davant la tecnologia se'ns atribueix un paper passiu. 195 00:11:02.720 --> 00:11:06.880 És cert que tendim a tenir una visió passiva dels usuaris. 196 00:11:07.280 --> 00:11:10.600 Fins a cert punt és veritat que els aparells tecnològics 197 00:11:10.680 --> 00:11:14.120 tendeixen a imposar una forma de ser fets servir. 198 00:11:14.560 --> 00:11:17.680 Això té relació amb el que en els estudis de ciència 199 00:11:17.760 --> 00:11:22.640 i tecnologia anomenem script: tot aparell tecnològic té un guió, 200 00:11:22.840 --> 00:11:23.840 una forma d'ús. 201 00:11:23.920 --> 00:11:30.280 Aquests guions de forma d'ús poden ser bastant rígids. 202 00:11:30.600 --> 00:11:34.840 Ara bé, també és cert que tot usuari 203 00:11:35.600 --> 00:11:39.920 s'apropia d'un aparell tecnològic, el fa seu i d'alguna manera 204 00:11:40.000 --> 00:11:44.960 també introdueix variacions en aquest script, 205 00:11:45.040 --> 00:11:48.200 en allò que s'espera d'aquest aparell. 206 00:11:49.320 --> 00:11:51.960 D'exemples, n'hi ha de tota mena. 207 00:11:52.360 --> 00:11:56.720 A mi m'agrada molt un que és la teleassistència. 208 00:11:57.600 --> 00:12:00.320 La teleassistència és un aparell que s'instal·la 209 00:12:00.400 --> 00:12:03.560 a casa de les persones grans perquè puguin avisar 210 00:12:03.600 --> 00:12:05.120 en cas de tenir una emergència. 211 00:12:05.200 --> 00:12:07.080 L'aparell s'instal·la al costat del telèfon 212 00:12:07.160 --> 00:12:10.160 i a les persones grans se'ls demana que portin un penjoll. 213 00:12:10.200 --> 00:12:14.280 En aquest penjoll tenen un botó que posa en marxa l'aparell 214 00:12:14.360 --> 00:12:17.520 per parlar des de qualsevol lloc de casa amb una central d'alarmes 215 00:12:17.560 --> 00:12:19.800 que els pregunta si tenen algun problema. 216 00:12:19.840 --> 00:12:23.680 Què passa quan incorpores això a una casa? 217 00:12:23.760 --> 00:12:28.840 D'entrada, el servei insisteix molt seriosament 218 00:12:28.920 --> 00:12:30.920 en com ha de ser utilitzat aquest aparell. 219 00:12:31.000 --> 00:12:34.240 Li diu a l'usuari que sobretot porti sempre el penjoll 220 00:12:34.280 --> 00:12:38.000 perquè està dissenyat perquè es dutxi i dormi amb ell, 221 00:12:38.120 --> 00:12:40.800 està pensat perquè el porti sempre a sobre. 222 00:12:40.880 --> 00:12:43.760 Això és molt important i se li recorda constantment. 223 00:12:43.800 --> 00:12:45.000 Què fan els usuaris? 224 00:12:45.080 --> 00:12:48.480 Responen a això en funció de les seves necessitats 225 00:12:48.520 --> 00:12:52.120 i de les seves... 226 00:12:52.360 --> 00:12:56.200 dels seus desitjos, de la seva forma de vida, 227 00:12:56.440 --> 00:12:58.200 de les seves relacions, etc. 228 00:12:58.960 --> 00:13:02.400 Per què fan això? Perquè aquest aparell no és neutre, 229 00:13:02.520 --> 00:13:04.360 aquest aparell els està interpel·lant. 230 00:13:04.440 --> 00:13:08.560 Si porten un penjoll, i això molta gent gran ho diu, 231 00:13:08.920 --> 00:13:13.440 se senten que estan declarant la seva fragilitat, 232 00:13:13.600 --> 00:13:16.440 la seva necessitat de cura, i això no és una imatge 233 00:13:16.520 --> 00:13:18.040 que la gent vulgui donar. 234 00:13:18.200 --> 00:13:21.880 Això fa que molts usuaris no portin el penjoll tota l'estona. 235 00:13:22.080 --> 00:13:23.240 Què fan aleshores? 236 00:13:23.400 --> 00:13:27.240 Tenen pràctiques personalitzades 237 00:13:27.560 --> 00:13:32.120 en què desenvolupen criteris per saber quan l'han de dur. 238 00:13:32.440 --> 00:13:34.200 Recordo que una senyora ens deia 239 00:13:34.440 --> 00:13:37.920 que no el portava tota l'estona, però que si havia de netejar la cuina 240 00:13:38.000 --> 00:13:40.200 i s'havia d'enfilar a una escala, se'l posava. 241 00:13:40.280 --> 00:13:42.680 Ella considera que allò és una pràctica de risc, 242 00:13:42.760 --> 00:13:46.800 es posa el penjoll, neteja la cuina, baixa i ja ha fet la feina. 243 00:13:47.080 --> 00:13:49.640 Això què vol dir? Vol dir que les persones, 244 00:13:51.040 --> 00:13:52.400 davant d'un aparell, 245 00:13:53.200 --> 00:13:58.960 és evident que tenim unes formes personals d'ús, 246 00:13:59.280 --> 00:14:02.160 i l'utilitzarem en funció de les nostres necessitats 247 00:14:02.240 --> 00:14:07.200 i en funció de com aquest aparell ens interpel·li a nosaltres 248 00:14:07.280 --> 00:14:09.640 en la nostra forma de ser, la nostra identitat, etc. 249 00:14:09.720 --> 00:14:11.960 El cas de la teleassistència és molt clar, 250 00:14:12.040 --> 00:14:13.480 però n'hi hauria de més casos. 251 00:14:13.560 --> 00:14:18.320 Aquest, però, és molt il·lustratiu per com els usuaris 252 00:14:20.280 --> 00:14:24.920 responen a la forma d'ús que demana l'aparell. 253 00:14:25.680 --> 00:14:29.000 La intervenció dels usuaris en la tecnologia i la ciència 254 00:14:29.080 --> 00:14:32.680 i la possible democratització de la recerca i la innovació 255 00:14:33.080 --> 00:14:36.160 és un dels grans temes de la societat contemporània. 256 00:14:36.280 --> 00:14:39.320 La cultura tecnocientífica no només es caracteritza 257 00:14:39.400 --> 00:14:41.920 per l'omnipresència de la ciència i la tecnologia, 258 00:14:42.000 --> 00:14:45.280 sinó per la proliferació de conflictes al seu voltant. 259 00:14:46.680 --> 00:14:49.520 Les controvèrsies tecnocientífiques públiques 260 00:14:49.600 --> 00:14:51.440 són el pa nostre de cada dia. 261 00:14:51.840 --> 00:14:52.840 L'escalfament global 262 00:14:52.880 --> 00:14:55.320 i les mesures polítiques necessàries per pal·liar-lo, 263 00:14:55.440 --> 00:14:57.720 els organismes modificats genèticament, 264 00:14:57.760 --> 00:14:58.760 les pandèmies, 265 00:14:58.880 --> 00:15:02.000 els efectes sobre la salut de les radiacions electromagnètiques, 266 00:15:02.080 --> 00:15:04.480 els efectes secundaris de molts medicaments, 267 00:15:04.560 --> 00:15:06.520 el mercadeig amb les nostres dades 268 00:15:06.600 --> 00:15:08.800 per part de grans corporacions a Internet 269 00:15:08.880 --> 00:15:10.240 o els residus nuclears 270 00:15:10.320 --> 00:15:12.560 semblen qüestionar el lligam tradicional 271 00:15:12.640 --> 00:15:15.040 entre la ciència i la tecnologia, d'una banda, 272 00:15:15.080 --> 00:15:17.040 i el progrés social, de l'altra. 273 00:15:17.200 --> 00:15:20.280 Hem heretat una imatge que prové del s. XIX 274 00:15:20.360 --> 00:15:24.400 en què qualsevol avenç científic o tecnològic 275 00:15:24.480 --> 00:15:28.440 ens porta automàticament a un millor benestar social, 276 00:15:28.680 --> 00:15:31.200 fins i tot moral, dirien els il·lustrats. 277 00:15:32.040 --> 00:15:36.440 Aquesta és una idea que ha entrat en crisi al llarg del s. XX, 278 00:15:36.520 --> 00:15:39.000 sobretot després de la Segona Guerra Mundial. 279 00:15:39.080 --> 00:15:42.440 El que va significar tota la tecnologia i la ciència 280 00:15:42.520 --> 00:15:46.000 al servei del règim nazi, els camps de concentració, 281 00:15:46.240 --> 00:15:49.160 les bombes d'Hiroshima i Nagasaki, després de la Segona Guerra Mundial 282 00:15:49.640 --> 00:15:51.320 marquen un punt d'inflexió. 283 00:15:51.400 --> 00:15:55.480 Alguns historiadors de la tecnologia han parlat d'un pessimisme postmodern 284 00:15:56.160 --> 00:15:59.640 que es va gestant al llarg de la segona meitat del s. XX, 285 00:15:59.960 --> 00:16:03.720 en el qual aquesta idea ingènua que qualsevol invenció, 286 00:16:03.800 --> 00:16:05.960 qualsevol màquina o nova tecnologia 287 00:16:07.040 --> 00:16:12.800 és sempre positiva i millora la vida d'una manera quasi crítica lineal, 288 00:16:13.080 --> 00:16:14.080 no és tan senzill. 289 00:16:14.120 --> 00:16:18.200 Sobretot, en el món cientificotecnològic o tecnocientífic 290 00:16:18.280 --> 00:16:19.560 en què vivim avui dia, 291 00:16:19.600 --> 00:16:22.520 en el qual temes com el canvi climàtic, 292 00:16:22.600 --> 00:16:26.200 qüestions sanitàries, mediambientals en un sentit ampli, 293 00:16:26.480 --> 00:16:29.600 qüestions de gestió de la informació..., 294 00:16:29.960 --> 00:16:32.280 són temes d'una extremada complexitat 295 00:16:32.440 --> 00:16:34.760 en què és molt difícil arribar a un consens. 296 00:16:34.840 --> 00:16:38.200 En aquests temes hi ha opinions controvertides 297 00:16:38.480 --> 00:16:42.400 entre diferents experts i diferents grups en l'opinió pública 298 00:16:42.840 --> 00:16:46.040 que fan que les decisions que es prenen per evolucionar 299 00:16:46.120 --> 00:16:48.960 cap a una direcció o una altra siguin molt més complexes 300 00:16:49.000 --> 00:16:50.000 del que podríem pensar. 301 00:16:50.040 --> 00:16:55.960 És a dir, aquí la idea interessant seria comparar la història 302 00:16:56.040 --> 00:16:58.080 o la nostra evolució cientificotecnològica 303 00:16:58.160 --> 00:16:59.400 com un tronc lineal 304 00:16:59.960 --> 00:17:02.080 o com un arbre amb moltes branques, 305 00:17:02.160 --> 00:17:04.280 i moltes d'aquestes branques es gesten 306 00:17:04.360 --> 00:17:06.640 d'una manera complexa en les societats actuals. 307 00:17:06.720 --> 00:17:10.120 Aquesta idea que amb més ciència, més tecnologia, 308 00:17:10.200 --> 00:17:12.800 més progrés inqüestionable, més felicitat humana, 309 00:17:12.880 --> 00:17:15.920 més benestar, etc., és una idea massa simple 310 00:17:16.280 --> 00:17:18.240 que desgraciadament ja no tornarà. 311 00:17:18.840 --> 00:17:21.840 Un dels trets de la modernitat ha estat l'establiment 312 00:17:21.920 --> 00:17:24.960 d'una frontera clara entre la ciència i la política. 313 00:17:25.080 --> 00:17:28.480 La ciència s'ocupa dels fets i la política dels valors. 314 00:17:28.880 --> 00:17:31.040 Les decisions polítiques es poden prendre 315 00:17:31.120 --> 00:17:33.360 sobre la base de de certs coneixements científics, 316 00:17:33.400 --> 00:17:37.280 però aquests no estan influïts per valors o posicions polítiques. 317 00:17:37.320 --> 00:17:40.640 Actualment, però, i en moltes d'aquestes controvèrsies 318 00:17:40.760 --> 00:17:44.000 el paper dels experts científics se sol posar en qüestió. 319 00:17:44.320 --> 00:17:47.240 La qüestió de qui és un expert i qui té l'última paraula 320 00:17:47.320 --> 00:17:51.400 per prendre decisions importants en temes mediambientals, sanitaris, 321 00:17:51.800 --> 00:17:53.880 tecnològics, nanotecnològics, 322 00:17:53.960 --> 00:17:57.000 avui dia és una qüestió molt complexa. 323 00:17:58.080 --> 00:18:04.160 Hem heretat del s. XX aquesta idea de l'acadèmic respectat, 324 00:18:05.360 --> 00:18:09.280 confortablement instal·lat en les seves institucions acadèmiques 325 00:18:09.360 --> 00:18:11.960 en les quals tenia una certa llibertat, 326 00:18:12.360 --> 00:18:16.000 un cert blindatge moral i intel·lectual; 327 00:18:16.880 --> 00:18:18.600 davant de segons quins tipus 328 00:18:18.680 --> 00:18:21.000 de qüestions cientificotècniques actuals, 329 00:18:21.080 --> 00:18:22.880 aquesta és una qüestió més controvertida. 330 00:18:22.920 --> 00:18:25.400 L'exemple del canvi climàtic és evident: 331 00:18:25.680 --> 00:18:29.040 Hi ha molts científics que han invertit 332 00:18:30.440 --> 00:18:33.360 anys i anys de recerca des de la seva especialitat 333 00:18:33.440 --> 00:18:37.920 en qüestions més biològiques, meteorològiques, químiques, 334 00:18:38.000 --> 00:18:41.160 físiques, d'enginyeria, ecològiques, etc., 335 00:18:41.240 --> 00:18:43.560 cada un des de la seva especialitat com a expert, 336 00:18:43.600 --> 00:18:45.960 i no són capaços de resoldre el problema. 337 00:18:46.040 --> 00:18:49.200 Pretendre que cadascun d'aquests experts té una opinió 338 00:18:49.280 --> 00:18:53.720 apolítica neutral objectiva és també una ingenuïtat. 339 00:18:53.960 --> 00:18:59.960 Vivim en un món en què novament hi ha un intent de tecnocràcia, 340 00:19:00.040 --> 00:19:03.360 en el sentit que l'opinió de l'expert és la definitiva 341 00:19:03.440 --> 00:19:05.760 o desitjaríem que fos definitiva, 342 00:19:06.000 --> 00:19:08.320 però ens enfrontem a una sèrie de problemes 343 00:19:08.360 --> 00:19:12.160 en els quals el propi expert és feble davant de les decisions. 344 00:19:12.240 --> 00:19:17.680 És a dir, en tots aquests temes nano o bioambientals 345 00:19:17.760 --> 00:19:23.120 inevitablement els factors polítics, econòmics, geoestratègics, 346 00:19:23.520 --> 00:19:26.080 estètics, relacionats amb els mass media, etc., 347 00:19:26.160 --> 00:19:27.680 tenen una gran importància. 348 00:19:27.720 --> 00:19:32.520 Ja pot publicar l'expert molts articles de primera fila 349 00:19:32.960 --> 00:19:35.000 a les millors revistes internacionals, 350 00:19:35.080 --> 00:19:37.640 que la seva opinió sempre queda limitada. 351 00:19:37.720 --> 00:19:42.440 Per tant, la idea de poder separar el coneixement científic de l'expert 352 00:19:42.880 --> 00:19:47.040 i les decisions polítiques, socials, que se'n deriven 353 00:19:47.120 --> 00:19:48.360 és una idea ingènua. 354 00:19:48.440 --> 00:19:49.440 N'hi ha molts... 355 00:19:49.840 --> 00:19:52.080 Per exemple, historiadors de l'Alemanya nazi 356 00:19:52.160 --> 00:19:55.640 com el nord-americà Robert Proctor, diuen precisament que 357 00:19:56.160 --> 00:20:00.160 amb la pràctica quotidiana dels científics s'està fent política. 358 00:20:01.600 --> 00:20:05.720 No es pot distingir la construcció del coneixement 359 00:20:05.800 --> 00:20:07.160 de la pròpia política. 360 00:20:07.400 --> 00:20:10.800 Sheila Jasanoff, una altra autora nord-americana, 361 00:20:10.880 --> 00:20:13.080 parla també d'una mena de co-construcció. 362 00:20:13.160 --> 00:20:15.000 El coneixement i les decisions polítiques 363 00:20:15.080 --> 00:20:16.520 van absolutament juntes. 364 00:20:17.280 --> 00:20:20.480 Pretendre que un expert és un personatge molt intel·ligent 365 00:20:20.560 --> 00:20:21.800 que sap molt d'un tema 366 00:20:21.880 --> 00:20:24.840 i que les seves decisions seran objectives, neutrals, 367 00:20:24.880 --> 00:20:28.640 aproblemàtiques i que seran aplicades sense problemes a la societat, 368 00:20:28.680 --> 00:20:30.480 desgraciadament també és ingenu. 369 00:20:30.760 --> 00:20:33.240 Aquest tipus de qüestions, que marquen la nostra època 370 00:20:33.320 --> 00:20:36.280 i ens aboquen a una forma diferent d'entendre la nostra relació 371 00:20:36.360 --> 00:20:39.800 amb la ciència i la tecnologia, són les que abordarem en aquest curs 372 00:20:39.880 --> 00:20:43.200 sobre ciència i tecnologia en la societat contemporània.