WEBVTT
1
00:00:13.520 --> 00:00:15.360
La ciència i la tecnologia
són omnipresents
2
00:00:15.400 --> 00:00:17.760
en la nostra cultura
i vida quotidiana.
3
00:00:18.360 --> 00:00:21.240
De vegades, de manera evident,
perquè cada vegada utilitzem
4
00:00:21.320 --> 00:00:23.520
més aparells electrònics
i més freqüentment,
5
00:00:23.600 --> 00:00:28.080
i d'altres, de manera més subtil,
perquè molts dels aliments que mengem
6
00:00:28.280 --> 00:00:31.200
són fruit de processos tecnològics
molt sofisticats
7
00:00:31.280 --> 00:00:33.480
amb molta recerca científica
al darrere.
8
00:00:33.760 --> 00:00:36.040
Àmbits com l'agricultura
o la medicina,
9
00:00:36.120 --> 00:00:38.840
tradicionalment poc tecnificats,
es duen a terme ara
10
00:00:38.920 --> 00:00:41.720
mitjançant sistemes tecnològics
molt complexos.
11
00:00:43.560 --> 00:00:46.240
Si obrim un diari qualsevol
o veiem un telenotícies,
12
00:00:46.320 --> 00:00:48.680
els temes científics i tecnològics
ja no ocupen
13
00:00:48.760 --> 00:00:51.120
sols les seccions
de ciència i tecnologia.
14
00:00:51.200 --> 00:00:54.680
Grans qüestions polítiques,
socials, culturals o econòmiques
15
00:00:54.720 --> 00:00:57.920
estan ara fortament lligades
a temes com el canvi climàtic
16
00:00:57.960 --> 00:01:01.720
a causa de les emissions de CO2,
les nostres fonts d'energia,
17
00:01:02.080 --> 00:01:04.280
el control de les dades personals
a Internet
18
00:01:04.360 --> 00:01:06.200
o els medicaments que prenem.
19
00:01:06.920 --> 00:01:09.440
Molts experts
consideren la nostra cultura
20
00:01:09.520 --> 00:01:12.080
com una cultura
bàsicament tecnocientífica.
21
00:01:12.400 --> 00:01:14.320
Tot i que la humanitat
des dels seus orígens
22
00:01:14.400 --> 00:01:17.760
s'ha distingit d'altres espècies
per la seva capacitat
23
00:01:17.800 --> 00:01:19.400
per fabricar i usar artefactes,
24
00:01:19.760 --> 00:01:22.840
avui dia cada vegada més aspectes
de la vida humana
25
00:01:22.920 --> 00:01:26.880
depenen directament o indirectament
de la tecnologia i la ciència.
26
00:01:29.320 --> 00:01:31.720
Però a què respon
l'evolució de la tecnologia?
27
00:01:31.760 --> 00:01:34.840
Què o qui marca la història
dels artefactes tècnics?
28
00:01:34.880 --> 00:01:37.600
Quin lligam hi ha
entre el desenvolupament tecnològic
29
00:01:37.680 --> 00:01:39.320
i les transformacions socials?
30
00:01:39.360 --> 00:01:42.480
La visió tradicional de la relació
entre tecnologia i societat
31
00:01:42.520 --> 00:01:44.000
és unidireccional.
32
00:01:44.600 --> 00:01:48.000
Pensem que la tecnologia
influeix en la societat,
33
00:01:48.160 --> 00:01:50.440
la condiciona, però que, en canvi,
34
00:01:50.760 --> 00:01:54.440
la societat no té gaire influència
en la tecnologia. Això què vol dir?
35
00:01:54.520 --> 00:01:58.960
Vol dir que la tecnologia
és un factor determinant, influent,
36
00:01:59.040 --> 00:02:00.400
en els canvis socials.
37
00:02:02.120 --> 00:02:04.960
Per això parlem
de conseqüències socials
38
00:02:05.040 --> 00:02:07.280
o d'impactes socials
de la tecnologia.
39
00:02:07.520 --> 00:02:11.320
I en una visió més extrema,
anomenada determinisme tecnològic,
40
00:02:11.600 --> 00:02:16.200
arribem a pensar que la tecnologia és
el factor més important
41
00:02:16.280 --> 00:02:19.600
a l'hora de condicionar
els canvis socials en la història.
42
00:02:19.680 --> 00:02:22.720
Si veiem les denominacions
que els historiadors han usat
43
00:02:22.800 --> 00:02:26.520
per descriure les diferents etapes
de l'evolució humana,
44
00:02:26.600 --> 00:02:27.920
de les societats humanes,
45
00:02:28.000 --> 00:02:31.480
parlen de l'Edat del Ferro,
l'Edat de Pedra
46
00:02:31.880 --> 00:02:34.200
i més recentment
de la societat industrial
47
00:02:34.240 --> 00:02:38.120
de la societat postindustrial,
de la societat de la informació...
48
00:02:38.960 --> 00:02:41.960
En canvi, quan veiem
l'altra cara de la moneda,
49
00:02:42.040 --> 00:02:45.680
en quin sentit la tecnologia
és influïda pel context social,
50
00:02:45.960 --> 00:02:47.280
la idea no és tan clara.
51
00:02:47.360 --> 00:02:50.280
De fet, la visió tradicional és
que la tecnologia segueix
52
00:02:50.360 --> 00:02:51.920
una mena de lògica pròpia.
53
00:02:52.600 --> 00:02:56.120
Quina és aquesta lògica pròpia?
Bàsicament que els artefactes
54
00:02:56.200 --> 00:03:01.000
són substituïts per artefactes
cada cop més eficients o eficaços.
55
00:03:01.240 --> 00:03:04.280
Això és el que marca
l'evolució de la tecnologia
56
00:03:04.520 --> 00:03:08.320
sense una gran influència
del context social o forces socials.
57
00:03:10.280 --> 00:03:12.960
Aquesta visió, que continua sent
la imperant actualment,
58
00:03:13.040 --> 00:03:16.080
ha estat fortament qüestionada
les darreres dècades
59
00:03:16.160 --> 00:03:19.320
per molts historiadors i sociòlegs
de la ciència i la tecnologia
60
00:03:19.360 --> 00:03:21.480
com veurem al llarg d'aquest curs.
61
00:03:22.000 --> 00:03:24.960
És innegable que les tecnologies
tenen impactes socials,
62
00:03:25.040 --> 00:03:28.040
però ara sabem que tot un seguit
de factors i forces socials
63
00:03:28.120 --> 00:03:30.880
poden afectar i condicionar
les innovacions tecnològiques
64
00:03:30.960 --> 00:03:33.760
i que el desenvolupament tecnològic
65
00:03:33.920 --> 00:03:36.080
no segueix
una lògica pròpia autònoma.
66
00:03:36.240 --> 00:03:38.600
En primer lloc,
la ciència i la tecnologia
67
00:03:38.680 --> 00:03:40.920
es desenvolupen sempre
en un context social.
68
00:03:41.000 --> 00:03:44.080
Aquest context social seria
un context econòmic, polític...,
69
00:03:44.160 --> 00:03:47.040
és a dir que no es desenvolupen
en el buit,
70
00:03:47.120 --> 00:03:50.240
sinó que tenen a veure
amb una demanda social,
71
00:03:50.320 --> 00:03:54.000
amb alguna necessitat
de transformació social, etc.
72
00:03:54.440 --> 00:03:58.600
A banda d'això, els enginyers
i desenvolupadors tecnològics
73
00:03:58.680 --> 00:04:03.840
quan desenvolupen un artefacte,
estan fent una proposta social.
74
00:04:04.200 --> 00:04:07.680
Hi ha un autor que m'agrada molt
que parla d'enginyers sociòlegs
75
00:04:07.760 --> 00:04:10.880
per referir-se als enginyers.
En el fons,
76
00:04:11.040 --> 00:04:14.640
per exemple, si estàs proposant
un cotxe elèctric,
77
00:04:14.880 --> 00:04:18.120
no estàs proposant simplement
desenvolupar un aparell
78
00:04:18.200 --> 00:04:20.920
que funcioni amb electricitat,
sinó que estàs proposant
79
00:04:20.960 --> 00:04:25.720
una societat més neta,
una ciutat amb menys soroll
80
00:04:25.880 --> 00:04:29.080
amb menys contaminació;
una societat en la qual el cotxe
81
00:04:29.200 --> 00:04:31.640
no sigui un símbol d'estatus,
ja que les prestacions
82
00:04:31.680 --> 00:04:34.240
dels cotxes elèctrics
no seran les mateixes
83
00:04:34.320 --> 00:04:35.840
que les dels cotxes d'explosió, etc.
84
00:04:35.920 --> 00:04:39.240
Estàs fent
una proposta social determinada.
85
00:04:39.560 --> 00:04:43.800
En aquest sentit,
la reacció que tindran
86
00:04:44.000 --> 00:04:46.600
els potencials compradors
estarà determinada
87
00:04:46.680 --> 00:04:49.320
per quina proposta social hi ha,
88
00:04:49.400 --> 00:04:52.360
no només per si l'aparell
funciona o no;
89
00:04:52.440 --> 00:04:54.440
hi ha més coses associades a això.
90
00:04:54.480 --> 00:04:59.960
Tot desenvolupament tecnològic
té aquesta dimensió social.
91
00:05:00.320 --> 00:05:03.840
Però també ho podem dir
de la ciència del coneixement.
92
00:05:04.000 --> 00:05:07.120
La imatge tradicional de la ciència
és que progressa
93
00:05:07.280 --> 00:05:10.480
per la curiositat desinteressada
dels científics.
94
00:05:10.680 --> 00:05:15.080
Però si analitzem les dades,
ens adonarem que aquest desinterès
95
00:05:15.520 --> 00:05:19.880
no és tan clar si pensem
en què s'investiga en medicina.
96
00:05:20.360 --> 00:05:24.520
Un podria pensar que s'investiguen
les malalties que afecten més gent,
97
00:05:24.840 --> 00:05:30.960
però no és ben bé així, en tot cas,
s'investiga en malalties
98
00:05:31.280 --> 00:05:33.160
que afecten gent
que té recursos econòmics
99
00:05:33.240 --> 00:05:36.360
per pagar les medecines
que es desenvoluparan per curar-les.
100
00:05:36.440 --> 00:05:40.520
Per exemple, la malària, una malaltia
que afecta milions de persones,
101
00:05:40.840 --> 00:05:45.240
no ha estat fins fa molt poc
i per la voluntat d'un científic,
102
00:05:45.320 --> 00:05:49.120
el Patarroyo, que s'ha desenvolupat
una vacuna per combatre-la.
103
00:05:49.560 --> 00:05:53.720
D'alguna manera,
hi ha una pressió social,
104
00:05:53.800 --> 00:05:59.200
una dimensió social que afecta
el propi procés
105
00:05:59.480 --> 00:06:03.160
de desenvolupament científic:
què s'investiga i com s'investiga.
106
00:06:03.240 --> 00:06:08.440
Un altre exemple: si em preguntessis
per alguns dels problemes socials,
107
00:06:08.520 --> 00:06:13.720
que anomenem socials,
però que són tècnics i científics,
108
00:06:13.800 --> 00:06:18.000
i ens afecten avui dia,
com el forat de la capa d'ozó;
109
00:06:18.360 --> 00:06:23.680
si hagués d'explicar-ho
com un problema científic,
110
00:06:23.760 --> 00:06:26.920
podria fer-ho, però també
com un problema tecnològic
111
00:06:27.000 --> 00:06:29.520
i com un problema social.
112
00:06:29.960 --> 00:06:32.000
On acaba un i on comença l'altre?
113
00:06:32.560 --> 00:06:36.560
Per aquesta raó, en el camp d'estudis
de la ciència i la tecnologia
114
00:06:36.600 --> 00:06:39.320
solem parlar
del teixit sense costures
115
00:06:39.360 --> 00:06:41.280
que conformen ciència,
tecnologia i societat.
116
00:06:41.360 --> 00:06:44.920
És molt difícil
establir fronteres clares
117
00:06:45.000 --> 00:06:46.880
d'on acaba una cosa
i on comença l'altra
118
00:06:46.960 --> 00:06:50.520
perquè tots els problemes
tenen aquests tres components,
119
00:06:50.600 --> 00:06:53.640
i encara més
a la societat del coneixement.
120
00:06:54.120 --> 00:06:57.800
És molt difícil destriar
entre ciència, tecnologia i societat
121
00:06:57.880 --> 00:07:01.680
i això fa també que els problemes
que hem d'afrontar
122
00:07:01.880 --> 00:07:05.120
siguin especialment complexos,
però també interessants.
123
00:07:05.760 --> 00:07:08.840
La nova visió de la tecnologia
i la seva relació amb la societat
124
00:07:08.880 --> 00:07:11.760
posa en dubte un dels estereotips
que més fortuna han fet
125
00:07:11.840 --> 00:07:13.440
al voltant de la tecnologia:
126
00:07:13.600 --> 00:07:16.120
la suposada neutralitat
de la tecnologia.
127
00:07:16.480 --> 00:07:19.160
Se'ns diu que els artefactes tècnics
són neutrals,
128
00:07:19.240 --> 00:07:20.400
ni bons ni dolents,
129
00:07:20.480 --> 00:07:23.480
i que es poden utilitzar
tant de manera positiva com negativa,
130
00:07:23.520 --> 00:07:25.680
però que no tenen ni color polític
131
00:07:25.760 --> 00:07:28.440
ni són més afins
a uns valors que a uns altres.
132
00:07:28.560 --> 00:07:31.440
Fa mig segle, l'historiador
de la tecnologia Lewis Mumford
133
00:07:31.520 --> 00:07:34.880
va voler desmuntar aquesta concepció
tan arrelada a la nostra cultura
134
00:07:34.920 --> 00:07:37.000
i va mostrar
com al llarg de la història
135
00:07:37.040 --> 00:07:39.240
havien conviscut
dos tipus de tecnologies
136
00:07:39.320 --> 00:07:41.600
que va anomenar,
de manera provocativa,
137
00:07:41.640 --> 00:07:46.160
tecnologies democràtiques
i tecnologies autoritàries.
138
00:07:46.920 --> 00:07:51.560
Mumford va ser un dels primers autors
a dir explícitament
139
00:07:51.640 --> 00:07:55.000
que la tecnologia
podia no ser necessàriament neutra
140
00:07:55.080 --> 00:07:57.000
des del punt de vista polític.
141
00:07:57.640 --> 00:08:01.520
La seva tesi bàsica
és que al llarg de la història
142
00:08:01.760 --> 00:08:04.840
han conviscut
dos tipus de tecnologies:
143
00:08:04.880 --> 00:08:09.000
unes que va anomenar,
provocativament, autoritàries
144
00:08:09.240 --> 00:08:11.600
i d'altres que anomenava
democràtiques.
145
00:08:12.720 --> 00:08:16.560
Les autoritàries, per a Mumford,
eren aquelles tecnologies que...
146
00:08:17.320 --> 00:08:19.480
són compatibles o requereixen
147
00:08:19.600 --> 00:08:22.400
una mena
de sistema polític jerarquitzat,
148
00:08:23.280 --> 00:08:24.520
centralitzat,
149
00:08:25.040 --> 00:08:30.600
en què prima la uniformitat,
l'estandardització...
150
00:08:31.640 --> 00:08:36.080
En canvi, les democràtiques,
són aquelles d'escala més petita,
151
00:08:37.600 --> 00:08:40.800
no necessàriament uniformes
ni estandarditzades
152
00:08:40.880 --> 00:08:43.520
i que no requereixen
un control centralitzat
153
00:08:43.560 --> 00:08:45.560
ni un sistema polític
molt estructurat,
154
00:08:45.640 --> 00:08:48.480
sinó que depenen
de comunitats petites
155
00:08:48.880 --> 00:08:52.320
i, amb la seva pròpia terminologia,
són d'escala més humana.
156
00:08:53.400 --> 00:08:56.840
Mumford va situar l'origen
de les tecnologies autoritàries
157
00:08:56.880 --> 00:09:03.160
en el naixement dels grans imperis
a l'antiguitat, dels protoestats.
158
00:09:03.480 --> 00:09:08.880
Un dels exemples bàsics que va posar
d'aquestes tecnologies autoritàries
159
00:09:09.080 --> 00:09:12.040
que ell anomenava megamàquines,
160
00:09:12.520 --> 00:09:16.120
són les piràmides egípcies,
que no només requereixen
161
00:09:16.200 --> 00:09:19.600
un aprenentatge tecnològic i tècnic
per construir-les,
162
00:09:19.680 --> 00:09:23.000
sinó també
una organització centralitzada,
163
00:09:23.680 --> 00:09:25.080
molt jeràrquica, etc.
164
00:09:26.120 --> 00:09:29.960
Més actualment seria
l'energia nuclear.
165
00:09:30.320 --> 00:09:33.800
Les plantes nuclears requereixen
també un sistema d'aquest tipus.
166
00:09:33.840 --> 00:09:36.880
En canvi, les democràtiques
són aquelles tecnologies
167
00:09:37.360 --> 00:09:40.960
que, en contraposició
a l'energia nuclear,
168
00:09:41.040 --> 00:09:43.080
serien els panells solars,
que no requereixen
169
00:09:43.160 --> 00:09:46.000
aquesta mena de control,
ni per temes de seguretat
170
00:09:46.080 --> 00:09:47.600
ni per altres qüestions.
171
00:09:47.800 --> 00:09:53.480
La seva tesi el que acabava dient
és que al llarg de la història,
172
00:09:53.560 --> 00:09:57.400
sobretot al llarg del s. XX,
aquestes tecnologies autoritàries
173
00:09:57.720 --> 00:10:01.520
havien guanyat molt més pes
que les tecnologies democràtiques.
174
00:10:02.400 --> 00:10:05.160
El fet que les tecnologies puguin
encarnar valors diferents
175
00:10:05.240 --> 00:10:07.720
implica que no hi ha
res de necessari ni d'inexorable
176
00:10:07.800 --> 00:10:09.480
en la història de la tecnologia,
177
00:10:09.520 --> 00:10:11.960
és a dir,
el desenvolupament tecnològic
178
00:10:12.040 --> 00:10:14.480
és contingent,
sempre hi ha més d'una manera
179
00:10:14.560 --> 00:10:16.280
de dissenyar una tecnologia.
180
00:10:16.400 --> 00:10:19.240
Dit en altres paraules,
la innovació tecnològica
181
00:10:19.320 --> 00:10:22.400
sempre pot anar en direccions
diferents o alternatives.
182
00:10:22.480 --> 00:10:25.320
Quan se'ns diu que cal més innovació
en un àmbit concret,
183
00:10:25.400 --> 00:10:28.720
sempre és pertinent preguntar:
"Innovació cap on?".
184
00:10:29.120 --> 00:10:33.240
Actualment, el programari que usem
per als dispositius electrònics
185
00:10:33.320 --> 00:10:37.000
pot ser lliure o de codi obert,
o de propietat.
186
00:10:37.760 --> 00:10:40.200
Ambdues opcions encarnen
no només maneres diferents
187
00:10:40.280 --> 00:10:41.720
d'entendre
la programació informàtica,
188
00:10:41.800 --> 00:10:45.040
sinó el que és més important,
idees contraposades
189
00:10:45.200 --> 00:10:48.400
sobre el que els usuaris poden
fer o no amb els ordinadors.
190
00:10:48.760 --> 00:10:51.240
Això és important
perquè la nostra relació
191
00:10:51.320 --> 00:10:53.880
amb els artefactes tècnics
acostuma a plantejar-se
192
00:10:53.960 --> 00:10:55.480
només en termes de consum.
193
00:10:55.760 --> 00:10:58.720
Més que usuaris, se'ns considera
consumidors de tecnologia
194
00:10:58.800 --> 00:11:02.400
i, per tant, davant la tecnologia
se'ns atribueix un paper passiu.
195
00:11:02.720 --> 00:11:06.880
És cert que tendim a tenir
una visió passiva dels usuaris.
196
00:11:07.280 --> 00:11:10.600
Fins a cert punt és veritat
que els aparells tecnològics
197
00:11:10.680 --> 00:11:14.120
tendeixen a imposar una forma
de ser fets servir.
198
00:11:14.560 --> 00:11:17.680
Això té relació
amb el que en els estudis de ciència
199
00:11:17.760 --> 00:11:22.640
i tecnologia anomenem script:
tot aparell tecnològic té un guió,
200
00:11:22.840 --> 00:11:23.840
una forma d'ús.
201
00:11:23.920 --> 00:11:30.280
Aquests guions de forma d'ús
poden ser bastant rígids.
202
00:11:30.600 --> 00:11:34.840
Ara bé, també és cert que tot usuari
203
00:11:35.600 --> 00:11:39.920
s'apropia d'un aparell tecnològic,
el fa seu i d'alguna manera
204
00:11:40.000 --> 00:11:44.960
també introdueix variacions
en aquest script,
205
00:11:45.040 --> 00:11:48.200
en allò que s'espera
d'aquest aparell.
206
00:11:49.320 --> 00:11:51.960
D'exemples, n'hi ha de tota mena.
207
00:11:52.360 --> 00:11:56.720
A mi m'agrada molt un
que és la teleassistència.
208
00:11:57.600 --> 00:12:00.320
La teleassistència és un aparell
que s'instal·la
209
00:12:00.400 --> 00:12:03.560
a casa de les persones grans
perquè puguin avisar
210
00:12:03.600 --> 00:12:05.120
en cas de tenir una emergència.
211
00:12:05.200 --> 00:12:07.080
L'aparell s'instal·la
al costat del telèfon
212
00:12:07.160 --> 00:12:10.160
i a les persones grans
se'ls demana que portin un penjoll.
213
00:12:10.200 --> 00:12:14.280
En aquest penjoll tenen un botó
que posa en marxa l'aparell
214
00:12:14.360 --> 00:12:17.520
per parlar des de qualsevol lloc
de casa amb una central d'alarmes
215
00:12:17.560 --> 00:12:19.800
que els pregunta
si tenen algun problema.
216
00:12:19.840 --> 00:12:23.680
Què passa
quan incorpores això a una casa?
217
00:12:23.760 --> 00:12:28.840
D'entrada, el servei
insisteix molt seriosament
218
00:12:28.920 --> 00:12:30.920
en com ha de ser utilitzat
aquest aparell.
219
00:12:31.000 --> 00:12:34.240
Li diu a l'usuari que sobretot
porti sempre el penjoll
220
00:12:34.280 --> 00:12:38.000
perquè està dissenyat
perquè es dutxi i dormi amb ell,
221
00:12:38.120 --> 00:12:40.800
està pensat
perquè el porti sempre a sobre.
222
00:12:40.880 --> 00:12:43.760
Això és molt important
i se li recorda constantment.
223
00:12:43.800 --> 00:12:45.000
Què fan els usuaris?
224
00:12:45.080 --> 00:12:48.480
Responen a això
en funció de les seves necessitats
225
00:12:48.520 --> 00:12:52.120
i de les seves...
226
00:12:52.360 --> 00:12:56.200
dels seus desitjos,
de la seva forma de vida,
227
00:12:56.440 --> 00:12:58.200
de les seves relacions, etc.
228
00:12:58.960 --> 00:13:02.400
Per què fan això?
Perquè aquest aparell no és neutre,
229
00:13:02.520 --> 00:13:04.360
aquest aparell
els està interpel·lant.
230
00:13:04.440 --> 00:13:08.560
Si porten un penjoll,
i això molta gent gran ho diu,
231
00:13:08.920 --> 00:13:13.440
se senten que estan declarant
la seva fragilitat,
232
00:13:13.600 --> 00:13:16.440
la seva necessitat de cura,
i això no és una imatge
233
00:13:16.520 --> 00:13:18.040
que la gent vulgui donar.
234
00:13:18.200 --> 00:13:21.880
Això fa que molts usuaris
no portin el penjoll tota l'estona.
235
00:13:22.080 --> 00:13:23.240
Què fan aleshores?
236
00:13:23.400 --> 00:13:27.240
Tenen pràctiques personalitzades
237
00:13:27.560 --> 00:13:32.120
en què desenvolupen criteris
per saber quan l'han de dur.
238
00:13:32.440 --> 00:13:34.200
Recordo que una senyora ens deia
239
00:13:34.440 --> 00:13:37.920
que no el portava tota l'estona,
però que si havia de netejar la cuina
240
00:13:38.000 --> 00:13:40.200
i s'havia d'enfilar a una escala,
se'l posava.
241
00:13:40.280 --> 00:13:42.680
Ella considera
que allò és una pràctica de risc,
242
00:13:42.760 --> 00:13:46.800
es posa el penjoll, neteja la cuina,
baixa i ja ha fet la feina.
243
00:13:47.080 --> 00:13:49.640
Això què vol dir?
Vol dir que les persones,
244
00:13:51.040 --> 00:13:52.400
davant d'un aparell,
245
00:13:53.200 --> 00:13:58.960
és evident que tenim
unes formes personals d'ús,
246
00:13:59.280 --> 00:14:02.160
i l'utilitzarem en funció
de les nostres necessitats
247
00:14:02.240 --> 00:14:07.200
i en funció de com aquest aparell
ens interpel·li a nosaltres
248
00:14:07.280 --> 00:14:09.640
en la nostra forma de ser,
la nostra identitat, etc.
249
00:14:09.720 --> 00:14:11.960
El cas de la teleassistència
és molt clar,
250
00:14:12.040 --> 00:14:13.480
però n'hi hauria de més casos.
251
00:14:13.560 --> 00:14:18.320
Aquest, però, és molt il·lustratiu
per com els usuaris
252
00:14:20.280 --> 00:14:24.920
responen a la forma d'ús
que demana l'aparell.
253
00:14:25.680 --> 00:14:29.000
La intervenció dels usuaris
en la tecnologia i la ciència
254
00:14:29.080 --> 00:14:32.680
i la possible democratització
de la recerca i la innovació
255
00:14:33.080 --> 00:14:36.160
és un dels grans temes
de la societat contemporània.
256
00:14:36.280 --> 00:14:39.320
La cultura tecnocientífica
no només es caracteritza
257
00:14:39.400 --> 00:14:41.920
per l'omnipresència
de la ciència i la tecnologia,
258
00:14:42.000 --> 00:14:45.280
sinó per la proliferació
de conflictes al seu voltant.
259
00:14:46.680 --> 00:14:49.520
Les controvèrsies tecnocientífiques
públiques
260
00:14:49.600 --> 00:14:51.440
són el pa nostre de cada dia.
261
00:14:51.840 --> 00:14:52.840
L'escalfament global
262
00:14:52.880 --> 00:14:55.320
i les mesures polítiques necessàries
per pal·liar-lo,
263
00:14:55.440 --> 00:14:57.720
els organismes
modificats genèticament,
264
00:14:57.760 --> 00:14:58.760
les pandèmies,
265
00:14:58.880 --> 00:15:02.000
els efectes sobre la salut
de les radiacions electromagnètiques,
266
00:15:02.080 --> 00:15:04.480
els efectes secundaris
de molts medicaments,
267
00:15:04.560 --> 00:15:06.520
el mercadeig amb les nostres dades
268
00:15:06.600 --> 00:15:08.800
per part de grans corporacions
a Internet
269
00:15:08.880 --> 00:15:10.240
o els residus nuclears
270
00:15:10.320 --> 00:15:12.560
semblen qüestionar
el lligam tradicional
271
00:15:12.640 --> 00:15:15.040
entre la ciència i la tecnologia,
d'una banda,
272
00:15:15.080 --> 00:15:17.040
i el progrés social, de l'altra.
273
00:15:17.200 --> 00:15:20.280
Hem heretat una imatge
que prové del s. XIX
274
00:15:20.360 --> 00:15:24.400
en què qualsevol avenç
científic o tecnològic
275
00:15:24.480 --> 00:15:28.440
ens porta automàticament
a un millor benestar social,
276
00:15:28.680 --> 00:15:31.200
fins i tot moral,
dirien els il·lustrats.
277
00:15:32.040 --> 00:15:36.440
Aquesta és una idea que ha entrat
en crisi al llarg del s. XX,
278
00:15:36.520 --> 00:15:39.000
sobretot després
de la Segona Guerra Mundial.
279
00:15:39.080 --> 00:15:42.440
El que va significar
tota la tecnologia i la ciència
280
00:15:42.520 --> 00:15:46.000
al servei del règim nazi,
els camps de concentració,
281
00:15:46.240 --> 00:15:49.160
les bombes d'Hiroshima i Nagasaki,
després de la Segona Guerra Mundial
282
00:15:49.640 --> 00:15:51.320
marquen un punt d'inflexió.
283
00:15:51.400 --> 00:15:55.480
Alguns historiadors de la tecnologia
han parlat d'un pessimisme postmodern
284
00:15:56.160 --> 00:15:59.640
que es va gestant al llarg
de la segona meitat del s. XX,
285
00:15:59.960 --> 00:16:03.720
en el qual aquesta idea ingènua
que qualsevol invenció,
286
00:16:03.800 --> 00:16:05.960
qualsevol màquina o nova tecnologia
287
00:16:07.040 --> 00:16:12.800
és sempre positiva i millora la vida
d'una manera quasi crítica lineal,
288
00:16:13.080 --> 00:16:14.080
no és tan senzill.
289
00:16:14.120 --> 00:16:18.200
Sobretot, en el món
cientificotecnològic o tecnocientífic
290
00:16:18.280 --> 00:16:19.560
en què vivim avui dia,
291
00:16:19.600 --> 00:16:22.520
en el qual temes
com el canvi climàtic,
292
00:16:22.600 --> 00:16:26.200
qüestions sanitàries,
mediambientals en un sentit ampli,
293
00:16:26.480 --> 00:16:29.600
qüestions de gestió
de la informació...,
294
00:16:29.960 --> 00:16:32.280
són temes d'una extremada complexitat
295
00:16:32.440 --> 00:16:34.760
en què és molt difícil
arribar a un consens.
296
00:16:34.840 --> 00:16:38.200
En aquests temes hi ha
opinions controvertides
297
00:16:38.480 --> 00:16:42.400
entre diferents experts i
diferents grups en l'opinió pública
298
00:16:42.840 --> 00:16:46.040
que fan que les decisions
que es prenen per evolucionar
299
00:16:46.120 --> 00:16:48.960
cap a una direcció o una altra
siguin molt més complexes
300
00:16:49.000 --> 00:16:50.000
del que podríem pensar.
301
00:16:50.040 --> 00:16:55.960
És a dir, aquí la idea interessant
seria comparar la història
302
00:16:56.040 --> 00:16:58.080
o la nostra evolució
cientificotecnològica
303
00:16:58.160 --> 00:16:59.400
com un tronc lineal
304
00:16:59.960 --> 00:17:02.080
o com un arbre amb moltes branques,
305
00:17:02.160 --> 00:17:04.280
i moltes d'aquestes branques
es gesten
306
00:17:04.360 --> 00:17:06.640
d'una manera complexa
en les societats actuals.
307
00:17:06.720 --> 00:17:10.120
Aquesta idea que amb més ciència,
més tecnologia,
308
00:17:10.200 --> 00:17:12.800
més progrés inqüestionable,
més felicitat humana,
309
00:17:12.880 --> 00:17:15.920
més benestar, etc.,
és una idea massa simple
310
00:17:16.280 --> 00:17:18.240
que desgraciadament ja no tornarà.
311
00:17:18.840 --> 00:17:21.840
Un dels trets de la modernitat
ha estat l'establiment
312
00:17:21.920 --> 00:17:24.960
d'una frontera clara
entre la ciència i la política.
313
00:17:25.080 --> 00:17:28.480
La ciència s'ocupa dels fets
i la política dels valors.
314
00:17:28.880 --> 00:17:31.040
Les decisions polítiques
es poden prendre
315
00:17:31.120 --> 00:17:33.360
sobre la base de
de certs coneixements científics,
316
00:17:33.400 --> 00:17:37.280
però aquests no estan influïts
per valors o posicions polítiques.
317
00:17:37.320 --> 00:17:40.640
Actualment, però,
i en moltes d'aquestes controvèrsies
318
00:17:40.760 --> 00:17:44.000
el paper dels experts científics
se sol posar en qüestió.
319
00:17:44.320 --> 00:17:47.240
La qüestió de qui és un expert
i qui té l'última paraula
320
00:17:47.320 --> 00:17:51.400
per prendre decisions importants
en temes mediambientals, sanitaris,
321
00:17:51.800 --> 00:17:53.880
tecnològics, nanotecnològics,
322
00:17:53.960 --> 00:17:57.000
avui dia
és una qüestió molt complexa.
323
00:17:58.080 --> 00:18:04.160
Hem heretat del s. XX aquesta idea
de l'acadèmic respectat,
324
00:18:05.360 --> 00:18:09.280
confortablement instal·lat
en les seves institucions acadèmiques
325
00:18:09.360 --> 00:18:11.960
en les quals tenia
una certa llibertat,
326
00:18:12.360 --> 00:18:16.000
un cert blindatge moral
i intel·lectual;
327
00:18:16.880 --> 00:18:18.600
davant de segons quins tipus
328
00:18:18.680 --> 00:18:21.000
de qüestions cientificotècniques
actuals,
329
00:18:21.080 --> 00:18:22.880
aquesta és una qüestió
més controvertida.
330
00:18:22.920 --> 00:18:25.400
L'exemple del canvi climàtic
és evident:
331
00:18:25.680 --> 00:18:29.040
Hi ha molts científics
que han invertit
332
00:18:30.440 --> 00:18:33.360
anys i anys de recerca
des de la seva especialitat
333
00:18:33.440 --> 00:18:37.920
en qüestions més biològiques,
meteorològiques, químiques,
334
00:18:38.000 --> 00:18:41.160
físiques, d'enginyeria,
ecològiques, etc.,
335
00:18:41.240 --> 00:18:43.560
cada un des de la seva especialitat
com a expert,
336
00:18:43.600 --> 00:18:45.960
i no són capaços
de resoldre el problema.
337
00:18:46.040 --> 00:18:49.200
Pretendre que cadascun
d'aquests experts té una opinió
338
00:18:49.280 --> 00:18:53.720
apolítica neutral objectiva
és també una ingenuïtat.
339
00:18:53.960 --> 00:18:59.960
Vivim en un món en què novament
hi ha un intent de tecnocràcia,
340
00:19:00.040 --> 00:19:03.360
en el sentit que l'opinió de l'expert
és la definitiva
341
00:19:03.440 --> 00:19:05.760
o desitjaríem que fos definitiva,
342
00:19:06.000 --> 00:19:08.320
però ens enfrontem
a una sèrie de problemes
343
00:19:08.360 --> 00:19:12.160
en els quals el propi expert
és feble davant de les decisions.
344
00:19:12.240 --> 00:19:17.680
És a dir, en tots aquests temes
nano o bioambientals
345
00:19:17.760 --> 00:19:23.120
inevitablement els factors polítics,
econòmics, geoestratègics,
346
00:19:23.520 --> 00:19:26.080
estètics, relacionats
amb els mass media, etc.,
347
00:19:26.160 --> 00:19:27.680
tenen una gran importància.
348
00:19:27.720 --> 00:19:32.520
Ja pot publicar l'expert
molts articles de primera fila
349
00:19:32.960 --> 00:19:35.000
a les millors revistes
internacionals,
350
00:19:35.080 --> 00:19:37.640
que la seva opinió
sempre queda limitada.
351
00:19:37.720 --> 00:19:42.440
Per tant, la idea de poder separar
el coneixement científic de l'expert
352
00:19:42.880 --> 00:19:47.040
i les decisions polítiques, socials,
que se'n deriven
353
00:19:47.120 --> 00:19:48.360
és una idea ingènua.
354
00:19:48.440 --> 00:19:49.440
N'hi ha molts...
355
00:19:49.840 --> 00:19:52.080
Per exemple, historiadors
de l'Alemanya nazi
356
00:19:52.160 --> 00:19:55.640
com el nord-americà Robert Proctor,
diuen precisament que
357
00:19:56.160 --> 00:20:00.160
amb la pràctica quotidiana
dels científics s'està fent política.
358
00:20:01.600 --> 00:20:05.720
No es pot distingir
la construcció del coneixement
359
00:20:05.800 --> 00:20:07.160
de la pròpia política.
360
00:20:07.400 --> 00:20:10.800
Sheila Jasanoff,
una altra autora nord-americana,
361
00:20:10.880 --> 00:20:13.080
parla també
d'una mena de co-construcció.
362
00:20:13.160 --> 00:20:15.000
El coneixement
i les decisions polítiques
363
00:20:15.080 --> 00:20:16.520
van absolutament juntes.
364
00:20:17.280 --> 00:20:20.480
Pretendre que un expert
és un personatge molt intel·ligent
365
00:20:20.560 --> 00:20:21.800
que sap molt d'un tema
366
00:20:21.880 --> 00:20:24.840
i que les seves decisions
seran objectives, neutrals,
367
00:20:24.880 --> 00:20:28.640
aproblemàtiques i que seran aplicades
sense problemes a la societat,
368
00:20:28.680 --> 00:20:30.480
desgraciadament també és ingenu.
369
00:20:30.760 --> 00:20:33.240
Aquest tipus de qüestions,
que marquen la nostra època
370
00:20:33.320 --> 00:20:36.280
i ens aboquen a una forma diferent
d'entendre la nostra relació
371
00:20:36.360 --> 00:20:39.800
amb la ciència i la tecnologia,
són les que abordarem en aquest curs
372
00:20:39.880 --> 00:20:43.200
sobre ciència i tecnologia
en la societat contemporània.