SciELO - Scientific Electronic Library Online

 
vol.7 suppl.1Editortial índice de autoresíndice de assuntospesquisa de artigos
Home Pagelista alfabética de periódicos  

Serviços Personalizados

Journal

Artigo

Indicadores

  • Não possue artigos citadosCitado por SciELO

Links relacionados

  • Não possue artigos similaresSimilares em SciELO

Compartilhar


Revista iberoamericana de ciencia tecnología y sociedad

versão On-line ISSN 1850-0013

Rev. iberoam. cienc. tecnol. soc. vol.7  supl.1 Ciudad Autónoma de Buenos Aires dez. 2012

 

ARTÍCULOS

Acceso y procesamiento de información sobre problemas científicos con relevancia social: limitaciones en la alfabetización científica de los ciudadanos

Access and information processing of socially relevant scientific problems: limitations related to citizens' scientific literacy

 

Víctor Jiménez y José Otero*

* Departamento de Física, Universidad de Alcalá, España. Correos: victor_jimenez64@yahoo.com y jose.otero@uah.es.


Este artículo se centra en la interacción entre los ciudadanos y la información científica necesaria para la comprensión de problemas tecno-científicos con relevancia social. Se describe el proceso de búsqueda de información científica sobre estos problemas, y se analizan los obstáculos con los que se encuentra un ciudadano en esta búsqueda. Se concluye apuntando variables con posible influencia en las dificultades encontradas: las característic as de los sistemas de información, la naturaleza de la información científica, y las disposiciones y capacidades de los propios ciudadanos.

Palabras clave: Información científica; Problemas socio-científicos; Alfabetización científica.

This paper focuses on the interaction between citizens and scientific information. This interaction is necessary to understand socially relevant scientific and technological problems. The authors describe the search for scientific information about these problems and discuss the obstacles found by a citizen who attempts this search. As a conclusion, it is pointed out that several variables may influence the difficulties mentioned before: characteristics of the information system, the nature of scientific information, and citizens' own capabilities and dispositions.

Keywords: Scientific information; Socio-scientific problems; Scientific literacy.


Introducción

Los ciudadanos de las sociedades desarrolladas actuales realizan sus actividadescotidianas en un escenario en el que la ciencia y la tecnología juegan papelesimportantes. Se necesitan conocimientos y habilidades apropiadas para tratar con estaclase de problemas, y mejorar lo que se ha llamado "comprensión pública de laciencia". Ello incluye la adquisición de un vocabulario suficiente para leer ycomprender información científica, y una comprensión básica del impacto de la ciencia y la tecnología en la sociedad (Evans y Durant, 1995; Godin y Gingras, 2000).

Esta mejora de la comprensión pública de la ciencia se promueve en el contexto escolar, pero también existe una línea de trabajo centrada en la población adulta (Miller, 1998, 1992; Evans y Durant, 1995). Se trata de analizar y mejorar la respuesta del público a problemas tecno-científicos con relevancia social, como la seguridad en el consumo de alimentos (Frewer y otros, 2002; Powel y otros, 2007; McInerney, Bird y Nucci, , 2004), el calentamiento global (Corbett y Durfee, 2004), el síndrome de inmunodeficiencia adquirida (Cross y Price, 1999) o la calidad del aire (Bush, Moffatt y Dunn, 2001). El trabajo que se presenta a continuación se relaciona con la comprensión pública de la ciencia por parte de la población adulta. Tiene como objetivo identificar dificultades en la interacción entre los ciudadanos y las administraciones públicas en España, al recabar información sobre problemas tecno- científicos con relevancia social.

La interacción entre los ciudadanos y los asuntos de naturaleza científica o técnica que les afectan a diario no está exenta de dificultades. Por ejemplo, en lo que concierne a la interacción con la tecnología más próxima, como automóviles o electrodomésticos, el usuario se enfrenta a dispositivos que incorporan sistemas de gran complejidad y opacidad, incluyendo módulos electrónicos de difícil acceso sin instrumentación sofisticada. Es decir, la tecnología que se utiliza, y muchos de los problemas que plantea, están fuera de las posibilidades de análisis del ciudadano no especialista. Estas dificultades existen también en la interacción con los problemas tecno-científicos más generales, de tipo social. En un posible intento de comprensión, el ciudadano queda frecuentemente en manos de expertos, a cuya opinión, con frecuencia, accede a través de los filtros que constituyen los medios de comunicación de masas o los portavoces, no especialistas, de las administraciones públicas. De hecho, el papel de los expertos y su actuación como asesores en problemas con relevancia social es un tema que ocupa a la Unión Europea, reclamando transparencia y democratización en su actuación para reducir la distancia entre los técnicos y los ciudadanos (Comisión de las Comunidades Europeas, 2001). Se debate sobre el papel de los expertos en la toma de decisiones sobre problemas tecno-científicos (Broncano, 2010) o se aboga por la inclusión de todos los actores sociales (ciudadanos, científicos y políticos) para obtener solución a estos problemas, mediante la "participación extendida" (Funtowicz y Strand, 2007).

En este contexto, el objetivo del presente trabajo es examinar las dificultades existentes en la interacción entre los ciudadanos y las fuentes de información en las administraciones públicas, respecto a dos problemas tecno-científicos relacionados con la salud: el efecto de la contaminación atmosférica, por una parte, y el efecto del consumo de agua embotellada, por otra. Se examina el proceso que siguen dos ciudadanos con formación científica básica para buscar información sobre estas relaciones, y las dificultades que plantean la búsqueda y el procesamiento de esta información.

El trabajo se plantea como un estudio de casos. Los estudios de casos consisten en "el examen intensivo-tanto en amplitud como en profundidad-de una unidad de  estudio, empleando todas las técnicas disponibles para ello" (Greenwood, 1970: 117). El diseño de la investigación de casos requiere la definición, al menos, de cinco componentes importantes (Yin, 2003: 21): preguntas que se intentan responder, proposiciones del estudio, unidades de análisis, conexión entre los datos y las  proposiciones, y criterios para la interpretación de los datos.

En primer lugar, las "preguntas que se intentan responder" corresponden al objetivo mencionado en el párrafo anterior: ¿puede acceder un ciudadano con formación básica a la información científica necesaria para responder a preguntas sobre problemas tecno-científicos que le afectan en su vida diaria? Si encuentra problemas, ¿de qué clase son? En segundo lugar, nuestro estudio se fundamenta en las proposiciones expuestas anteriormente: los problemas tecno-científicos involucran conocimiento de notable complejidad, al que tienen difícil acceso los ciudadanos no especialistas. Suponemos que existen problemas relacionados, tanto con la fuente de información como con el receptor, que intentamos caracterizar. En tercer lugar, en cada caso del estudio utilizamos como unidad de análisis una persona clasificable como "caso representativo" (Yin, op.cit: 41) por sus características socioeconómicas y educativas. En cuarto lugar, en cuanto a la conexión entre datos y proposiciones, utilizamos la observación controlada de los individuos participantes para recoger toda la información que intercambian con las fuentes en el proceso de búsqueda de información. Transcribimos el proceso seguido por los dos ciudadanos para obtener información a partir de las fuentes elegidas. La información que examinamos es verbal, cuando se trata de la interacción con funcionarios o empleados de los organismos consultados, y escrita, cuando se trata de documentos, por ejemplo los que se pueden encontrar en la Web. La etapa final del proceso de comparación entre datos y proposiciones incluye el examen de la validez de las respuestas que encontraron los participantes. En los casos en que no llegan a respuestas que les satisfacen, los investigadores identificamos el proceso que conduciría eventualmente a una respuesta apropiada, a partir de los documentos disponibles, y las dificultades que conlleva este proceso.

Finalmente, en lo que respecta a los criterios de interpretación de los datos, no resulta sencillo medir la importancia de las dificultades encontradas por los ciudadanos. Como aproximación relativamente fiable y válida a esta medida, utilizamos en los dos casos la valoración de tres indicadores: el tiempo invertido en la búsqueda, el número de organismos que debieron ser consultadas en esta búsqueda y, finalmente, el hallazgo, o no, de la información requerida para contestar a las preguntas planteadas por los ciudadanos.

1. Caso A: Contaminación atmosférica y salud

La contaminación atmosférica es un hecho preocupante tanto a escala nacional, en España (Alonso y otros 2005; Ballester, 2005; Pérez-Hoyos 1999), como a escala supranacional (Comisión de las Comunidades Europeas, 2000; World Health Organization, 2003), con el problema reflejado también en los medios de comunicación de masas (J.S.G., 2006; Roselló, 2007; Méndez, Sevillano y García, 2011).

Se reconoce que la atmósfera, especialmente a partir de la última mitad del siglo XX, recibe y acumula las emisiones de gases y partículas contaminantes derivadas de las actividades antropogénicas y de fenómenos naturales. Sabemos también que un gran porcentaje de la población mundial no respira aire limpio. Por tanto, ¿qué impacto tiene en la salud respirar aire contaminado?

En los últimos años se han realizado diversos estudios sobre este tema. El proyecto europeo APHEA (Atkinson, Anderson,Sunyar, Ayres, Baccini, Vonk, Boumghar, Forastiere, Fosberg, Touloumi, Schwartz y Katsouyanni, 2001), que incluyó estudios del aire en 35 ciudades europeas, tiene su continuación en el proyecto actual, APHEIS (Medina y Placencia, 2001). En Estados Unidos se realizó un proyecto similar, el estudio NMMAPS (Dominici, 2005), que incluyó las 90 ciudades con mayor número de habitantes. El proyecto EMECAM (Galán, Aranguez, Gandarillas, Ordóñez y Aragonés, 1999), realizado en España sobre la base del proyecto APHEA, evaluó el impacto a corto plazo de la contaminación atmosférica sobre los ingresos hospitalarios y la mortalidad en 14 ciudades en el periodo 1992-1995. Restringiéndonos al municipio de Madrid, el proyecto EMECAS (Ballester, Saez, Daponte, Ordóñez, Teracido, Cambra, Arribas, Bellido, Guillén, Aguinaga, Cañada, López, Iñiguez, Rodríguez, Pérez-Hoyos, Barceló, Ocaña, y Aranguez, 2005) concluyó que los contaminantes atmosféricos, en particular dióxido de azufre, partículas de monóxido de carbono y dióxido de nitrógeno, incrementan la mortalidad, especialmente la relacionada con el sistema circulatorio y respiratorio. También, los datos del proyecto APHEIS en Madrid indican que los valores diarios de partículas en suspensión de 10 μm (PM10) superan en más del 100 por ciento el valor límite establecido (López y Zorrilla, 2005), causando 59 muertes al año (1,4/100.000 personas). El 50,7 por ciento de estas muertes se producen por causas cardiovasculares y el 26 por ciento por causas respiratorias. Del mismo modo, los valores mencionados de partículas PM10 son causa de 82,3 ingresos hospitalarios urgentes de origen respiratorio y de 39,2 de origen cardiaco (Alonso, Martínez, Cambra, López, Boldo, Zorrilla, Daponte, Aguilera, Toro, Iñiguez, Ballester, García, Plasencia, Artazcoz y Medina, 2005). Parece clara, por tanto, la influencia negativa de la contaminación atmosférica en la salud.

Sin embargo, los efectos precisos de distintos niveles de contaminación sobre la salud no parecen fáciles de conocer por parte de los expertos, ni, desde luego, por parte de los ciudadanos no especialistas. La literatura científica sobre el tema pone de manifiesto la complejidad metodológica existente para relacionar la contaminación del aire con los efectos en las personas (Alonso y otros 2005; Ballester, 2005a; Ballester, Sáez, Alonso, Taracido, Ordóñez, Aguinaga, Daponte, Bellido, Guillén, Pérez, Cañada, Arribas y Pérez-Hoyos, 1999; World Health Organization, 2003). Por tanto, saber el efecto preciso que tiene en la salud respirar aire contaminado parece un problema perfectamente concebible por alguien que vive en una gran ciudad. A continuación se pretende analizar los problemas de acceso y procesamiento de información sobre este efecto por parte de un ciudadano que se interese en ello.

1.1. Método

Se eligió para el estudio a Luisa (nombre ficticio), ciudadana de 40 años, residente en una zona de estatus socioeconómico medio en la localidad de Alcalá de Henares, población de unos 200.000 habitantes situada en el área metropolitana de Madrid. El nivel educativo de Luisa alcanza la enseñanza secundaria obligatoria (hasta los 16 años) y su ocupación actual es empleada de unos grandes almacenes.

Se explicó a Luisa el contexto y el propósito del trabajo, solicitándole que averiguase, acudiendo a alguna persona o institución responsable, cuál es el daño que produce en la salud respirar habitualmente el aire en Alcalá de Henares. No se ofreció ninguna otra orientación sobre las fuentes a consultar o el procedimiento que debía seguir. A partir de esta instrucción inicial, Luisa eligió realizar las averiguaciones pertinentes a través de llamadas telefónicas. Las conversaciones telefónicas a lo largo de todo el proceso de búsqueda fueron registradas taquigráficamente. La transcripción taquigráfica se traducía inmediatamente a un documento de texto, con lo que se aseguraba la fidelidad de la transcripción del significado, aunque no siempre la literalidad de las respuestas. En la fase posterior del estudio se analizó el proceso de búsqueda de información en Internet.

1.2. Resultados y discusión

Para encontrar la información requerida, Luisa escogió como fuente inicial de información los servicios municipales del Ayuntamiento de Alcalá de Henares. A partir de una primera consulta telefónica a la Concejalía de Medio Ambiente, a la que accedió a través de la centralita del Ayuntamiento, Luisa recibió información de diferentes clases por vía telefónica, o fue redireccionada a organismos distintos de aquel al que llamaba. La totalidad del proceso de búsqueda se realizó en dos días, separados entre sí por un intervalo debido a las obligaciones personales de Luisa. El tiempo invertido estrictamente en las llamadas fue de 23 minutos, aproximadamente. Un resumen del proceso se presenta en la Tabla 1.

Tabla 1. Resumen de llamadas e información proporcionadapor las administraciones públicas a Luisa

 

La información obtenida durante todo el proceso puede clasificarse en tres apartados. En primer lugar se considera la información diana, es decir, información que, según el criterio de los autores de este artículo, satisfaría la demanda de Luisa. Ejemplo de esta información serían contestaciones indicando que la contaminación por partículas existente no representa amenaza para la salud de una persona sana, o que la contaminación por NO2 durante la semana aumenta en un 50% el riesgo de infecciones respiratorias. Pero debe tenerse en cuenta que este criterio tiene limitaciones debidas a la subjetividad del juicio sobre cuando se satisfaría la demanda del ciudadano que busca información. Incluso teniendo en cuenta estas limitaciones, que se discuten en detalle más adelante, el criterio se utilizó en esta primera aproximación al problema sin que plantease dificultades importantes.

El segundo tipo de información considerada fue la información accesoria. Este tipo de información es de naturaleza similar a la información diana (por ejemplo: índices de contaminación que informan sobre la calidad del aire en un día y una hora determinados), pero no incluye los efectos sobre la salud. Se considera que esta información no contesta a la pregunta básica.

En tercer lugar existe información instrumental, es decir, información que puede orientar en la búsqueda de la información diana y que origina redireccionamientos. Se refiere, por ejemplo, al número de teléfono de un servicio u organismo distinto al consultado, o alguna dirección web en Internet.

 

1.2.1. Proceso de consultas telefónicas

Luisa realizó en total nueve llamadas telefónicas, en tres de las cuales no obtuvo respuesta. Realizó siete veces la petición de información básica, siguiendo un patrón similar al siguiente:

(...) deseaba saber si me podía usted dar información..., sobre los índices de contaminación que tenemos en Alcalá de Henares y qué problemas de salud... podrían derivar de ello... ¿Cómo de dañino es esta contaminación para nuestra salud y qué índices tenemos?

Luisa experimentó cinco redireccionamientos en su proceso de búsqueda: el funcionario consultado la dirige hacia otra fuente, que considera apropiada, ofreciéndole un número telefónico:

(...) le voy a dar el teléfono del Área III de Alcalá de Henares del Instituto de Salud Pública y también le voy a dar el teléfono del Servicio de Sanidad Ambiental, también del Instituto de Salud Pública(...)

En cuatro ocasiones Luisa es informada de que el servicio no cuenta con los datos. Una contestación típica es la siguiente:

¿Sobre la contaminación en Alcalá de Henares? Pues es que en el ayuntamiento no existe ningún sistema de medición (...) Tiene que acudir a la comunidad de Madrid (...) a la Consejería de Medio Ambiente.

Además, en dos de esas cuatro ocasiones, el responsable de la información requerida no estaba disponible:

(...) Me puede dejar su número de teléfono y nos pondríamos en contacto con usted que ahora mismo no le puedo pasar.

En estos dos casos Luisa recibió puntualmente, más adelante, la llamada del organismo.

En la interacción con la fuente de información puede observarse que el nivel de comprensión entre Luisa y sus interlocutores es, en general, muy aceptable. No obstante, se identificaron algunos episodios de incomprensión entre Luisa y el interlocutor porque el mensaje era recibido y procesado parcial o erróneamente. El siguiente diálogo ejemplifica un episodio de incomprensión.

Luisa: (...) Deseaba saber si me podía usted dar información sobre los índices de contaminación que tenemos en Alcalá de Henares y que problemas de salud podrían derivar de ello... ¿Cómo de dañino es esta contaminación para nuestra salud y que índices tenemos?

Interlocutor: ¿Con contaminación a que se refiere?

Luisa: ¡A la contaminación medio ambiental!

Interlocutor: (...) lo único que puedes localizar (...) en la red de calidad del aire, a ver si hay de Alcalá de Henares, (...) y conocer los parámetros de las emisiones, por ejemplo de CO2, de partículas de la atmósfera, pero no de contaminación (...)

En resumen, el proceso de búsqueda de información, llevó a Luisa a contactar con seis organismos administrativos: 1) Ayuntamiento de Alcalá de Henares/Medio Ambiente/Residuos; 2) Comunidad de Madrid/Atención al Ciudadano; 3) Comunidad de Madrid/Información Ambiental; 4) Comunidad de Madrid/Consejería de Sanidad y Consumo/Sistema de Información Sanitaria; (5) Comunidad de Madrid /Salud Pública Área III; y 6) Comunidad de Madrid/Instituto de Salud Pública/Sanidad Ambiental.

Luisa consideró que había llegado a una fuente de posible información diana, en el último paso del proceso de búsqueda (IId). En este paso, el Servicio de Sanidad Ambiental de la Comunidad de Madrid proporcionó telefónicamente información sobre valores promedio de contaminantes en la Unión Europea, con la mención de que no hay unos límites claros de peligrosidad puesto que ésta depende de diversos factores. El interlocutor ofreció una semejanza entre los efectos de los contaminantes atmosféricos y la susceptibilidad de personas afectadas por olas de calor o alergias. Además, Luisa recibió información instrumental consistente en dos direcciones web: Madrid.org y Apheis.net. El servicio señaló que en dichas páginas se encontraría información sobre legislación de calidad del aire y sobre los efectos de los contaminantes en la salud.

1.2.2. Proceso de consulta en la Web

De acuerdo con la respuesta obtenida del Servicio de Sanidad Ambiental de la Comunidad de Madrid en el paso IId, Luisa consultó la Web a partir de las dos páginas mencionadas. Previendo la dificultad de búsqueda de la información diana, instruimos a Luisa para que simplemente identificase las direcciones URL en donde creía que existía esta información. De acuerdo con el registro de su navegación por Internet, Luisa visitó 17 direcciones URL. A partir de esta revisión, Luisa identificó 14 conexiones hipertextuales en donde creía que podía encontrar la información diana. Dada la dificultad que representaba para ella la revisión de estas conexiones, los autores de este artículo llevaron a cabo la lectura de sus contenidos, invirtiendo aproximadamente 50 minutos. Sólo dos de las 14 direcciones incluían información diana, de acuerdo con el criterio de los autores (la relación del contenido en las 14 conexiones, junto con la dirección URL de la página de inicio, se muestra en el Apéndice).

La información diana en torno a la relación contaminación-efectos en la salud se muestra en la Tabla 2.

Tabla 2. Información localizada en las direcciones web proporcionadas porServicio de Sanidad Ambiental de la Comunidad de Madrid

Al lado de esta información, aparece gran cantidad de información accesoria que no daría respuesta directa a la petición de Luisa, debido a que no se proporcionan datos cuantitativos. Por ejemplo: cuando se explica: "Se ha comprobado la relación existente entre la contaminación atmosférica, producida por partículas en suspensión y anhídrido sulfuroso, y la aparición de bronquitis crónica caracterizada por la producción de flemas, la exacerbación de catarros y dificultades respiratorias tanto en los hombres como en las mujeres adultas...". En otros casos se describen efectos en el organismo sin una relación explícita con los contaminantes en la atmósfera: "Se ha comprobado que una saturación de carbooxihemoglobina por encima del 10% puede provocar efectos sobre la función psicomotora que se manifiesta con síntomas de cansancio, cefaleas y alteraciones de la coordinación. Por encima del 5% de saturación se producen cambios funcionales cardíacos y pulmonares y se aumenta el umbral visual".

Por tanto, Luisa podría eventualmente acceder a información que relaciona niveles de contaminación atmosférica en Alcalá de Henares con efectos sobre la salud, mediante la comparación de los índices de contaminación de la ciudad (proporcionados en el paso Id) y las relaciones generales proporcionadas en Madrid.org y Apheis.net recogidas en la Tabla 2. Esta comparación, realizada por los autores, se muestra en la Tabla 3.

Tabla 3. Relación entre los índices de contaminación y la salud

En resumen, una ciudadana como la que participó en nuestro estudio podría llegar a las conclusiones que relacionamos en la última columna de la Tabla 3, después de nueve llamadas telefónicas, la revisión de 17 direcciones URL, el análisis relativamente detallado de 14 de éstas páginas, la identificación de los criterios incluidos en dos de ellas y la comparación con los índices de contaminación de la fecha, proporcionados telefónicamente en el paso Id.

2. Caso B: Consumo de agua embotellada y salud

El segundo análisis sobre los problemas encontrados en la búsqueda de información que responda a problemas tecno-científicos relevantes para los ciudadanos se centra en los efectos del consumo de agua embotellada en la salud.

Diversas características hacen que el agua sea imprescindible para la vida. Cerca del 60 por ciento del cuerpo de los humanos está constituido por agua y un alto porcentaje se utiliza en los procesos metabólicos, en excreciones y en la transpiración. Esto hace necesario la ingesta de entre uno y tres litros de agua diariamente para evitar la deshidratación. Es por tanto imprescindible disponer de fuentes de suministro que permitan abastecerse de agua libre de contaminantes químicos y microbiológicos (Organización Mundial de la Salud, 2006). La conciencia de la necesidad de proveer a los individuos de agua doméstica, limpia y barata existe en Europa como servicio público desde el siglo XIX (Wilk, 2006). Desde entonces el suministro de agua ha sido un bien gestionado por el Estado. En la actualidad, en España los ayuntamientos vigilan la potabilidad del agua, evaluando la calidad física, química y microbiológica de forma que se proteja la salud de la población (Real Decreto 140/2003, 7 de febrero).

Sin embargo, en las dos últimas décadas un fenómeno creciente ha sido el consumo de agua embotellada como alternativa al agua de abasto público. Pero disponer de agua embotellada trae consigo un gasto económico para el consumidor, dado que su precio puede ser mil veces mayor que el del agua de suministro público. Además, la producción de agua embotellada genera un impacto negativo en el medio ambiente por las cantidades de energía consumida en la manufactura de recipientes, por su transporte y por el número de botellas vacías que se desechan (Denehy, 2008; Wilk, 2006; Guaita, 2008). ¿Por qué, entonces los, consumidores eligen beber agua embotellada antes que la de suministro público, de coste considerablemente menor? En un estudio norteamericano en el que se preguntó sobre la preferencia de beber agua embotellada, un 47 por ciento contesta que la elige como alternativa a otras bebidas, el 35 por ciento que lo hace por seguridad, el 7 por ciento la elige por su sabor y un 11 por ciento debido a otras causas (NRDC, 1999). Otros estudios muestran también que en el consumo de agua embotellada inciden factores como la creencia de que no se dispone de agua limpia y segura en el suministro público, la mayor conciencia de los efectos nocivos para la salud de bebidas con edulcorantes o saborizantes añadidos artificialmente, o las campañas de marketing de las empresas productoras describiendo el agua embotellada como "una bebida refrescante", "ligera", "clara", "libre de saborizantes y edulcorantes", "sana y pura" (Denehy, 2008; Bullers,2002; Wilk, 2006).

Entonces, ¿es mejor para la salud beber agua embotellada? No todo parece ventajoso en este consumo. Se ha encontrado que la concentración de antimonio en el agua envasada es superior a la concentración del mismo elemento en su fuente de origen. Ello hace sospechar que éste elemento se libera de los envases de tereftalato de polietileno (PET), pues se usa como catalizador en su fabricación (Shotyc, 2006).En cuanto a los controles de calidad, los del agua suministro público, ofrecen muchas garantías (Denehy, 2008; Bullers, 2002).

Por tanto, no parecen estar claras las ventajas comparativas del consumo de agua embotellada respecto a la de suministro público, en lo que respecta a los efectos sobre la salud. Como en el caso de la contaminación atmosférica, es concebible que los efectos en la salud del consumo de una u otra clase de agua pudiesen representar un problema para un ciudadano reflexivo. Por ello, en este segundo caso, se analizan los problemas de acceso y procesamiento de información necesaria para decidir sobre los efectos que puede tener en la salud el consumo de agua embotellada por comparación con el agua de suministro público.

2.1. Método

La búsqueda de información fue llevada a cabo por Daniel (nombre ficticio), varón de 50 años, residente en una zona de estatus socioeconómico medio de la ciudad de Guadalajara, capital de provincia de 83.000 habitantes en la Comunidad Autónoma de Castilla-La Mancha, en España. Daniel tiene la educación del nivel obligatorio en España y su ocupación es funcionario municipal.

De la misma manera que en el Caso A se explicó el contexto y el propósito del trabajo a Daniel, rogándole que averiguase dirigiéndose a los organismos que considerase apropiados si en Guadalajara es mejor para la salud beber agua embotellada que agua de suministro público. El proceso de recogida de datos siguió las mismas pautas que en el Caso A. Se consideraron también los tres tipos de información mencionados anteriormente.

2.2. Resultados y discusión

Daniel escogió como fuente de consulta inicial la Consejería de Agricultura y Desarrollo Rural del gobierno autónomo de Castilla-La Mancha (Junta de Comunidades de Castilla la Mancha, JCCM). Como en el caso anterior, recibió información en las llamadas o fue redireccionado a otras fuentes. Daniel recabó la información en un solo día, invirtiendo 18 minutos en llamadas telefónicas. Un resumen del proceso se representa en la Tabla 4.

Tabla 4. Resumen de llamadas e información proporcionada por las administraciones públicas a Daniel

 

2.2.1. Proceso de consultas telefónicas

Daniel inició la búsqueda en la Delegación Provincial de Agricultura y Desarrollo Rural de Guadalajara, del gobierno de la Comunidad de Castilla-La Mancha. En la búsqueda de información, Daniel contactó con cuatro organismos administrativos: 1) JCCM/Delegación Provincial/Agricultura y Desarrollo Rural; 2) Ayuntamiento de Guadalajara/centralita; 3) Ministerio de Medio Ambiente/ Oficina Periférica en Guadalajara/Confederación Hidrográfica del Tajo; y 4) Mancomunidad de Aguas del Sorbe/Laboratorio. Realizó en total seis llamadas telefónicas, en una de las cuales no obtuvo respuesta, haciendo tres veces la misma petición de información básica (Ic, Ie y If). Las peticiones de información siguen un patrón similar al siguiente:

(...) una pregunta a nivel particular y es saber... ¿es mejor para mi salud beber agua embotellada o beber agua de Guadalajara?

Daniel experimentó dos redireccionamientos en todo el proceso de búsqueda (Ia y Ic).Por ejemplo:

(...)¿Si quiere usted llamar al laboratorio? Yo le doy el teléfono

En una ocasión (Ic), el funcionario consultado declara que en esa instancia no se cuenta con los datos solicitados:

Llame al Ayuntamiento porque ellos conocen... porque saben el agua que suministran y echan o ponen lo que tengan que poner, ¿no?

Como en el caso A, el nivel de comprensión en la interacción entre Daniel y sus interlocutores es, en general, muy aceptable. Daniel supone que ha llegado a la fuente de información diana en el último paso lf. En este paso, el laboratorio de la Mancomunidad de Aguas del Sorbe le comunica que el agua de la red de Guadalajara es saludable, que pasa por un estricto control de calidad y que destaca a nivel nacional por su calidad. Pero en relación con la pregunta básica, si es mejor para la salud beber agua embotellada, indican que lo único que puede provocar problemas para la salud es la contaminación del agua. Sugieren que compare las analíticas del agua de la red de Guadalajara y del agua embotellada, ya que no pueden dar otra información:

(...) tenemos una página web y en ella están colgados los análisis mensuales del agua, y usted compara las características de este agua con las de una botella de agua mineral que usted compre, donde viene también una analítica y verá la comparativa. Ésta tiene menor cantidad de minerales que otras aguas, que eso no es mejor ni es peor, es diferente. Su composición varía dependiendo del suelo por el que pasan, simplemente. Pero, vamos... lo que puede provocar problemas para la salud sería la contaminación que pudiera tener el agua y este agua [la de suministro público] no tiene contaminación, está perfectamente depurada...

Además, remiten a la página web de la compañía de agua de suministro público en Guadalajara: www.aguasdelsorbe.es.

2.2.2. Proceso de consulta en la Web

De acuerdo con la información instrumental ofrecida por la Mancomunidad de Aguas del Sorbe, Daniel revisó la página web indicada. La información obtenida en esta página sobre el agua de suministro en Guadalajara es de carácter accesorio. Se presenta información sobre conductividad del agua, pH, contenido de sustancias como amonio, cloro, sodio, sulfuro, iones, metales pesados, o plaguicidas, así como unidades formadoras de colonias de Escherichia coli, Enterococos y Coliformes. Por tal razón, Daniel continuó la búsqueda, por su propia iniciativa, en las páginas web siguientes: 1) Ministerio de Medio Ambiente (a partir de www.aguasdelsorbe.es); 2) de una marca conocida de agua embotellada a la cual accedió escribiendo la dirección directamente; (3) Ayuntamiento de Guadalajara a la cual accedió escribiendo la dirección (www.guadalajara.es) directamente; y 4) Guadalagua, empresa gestora del agua (accionando una conexión hipertextual a partir de la dirección URL anterior). Después de una búsqueda por las páginas anteriores, que incluyó seis direcciones URL y 26 conexiones hipertextuales, Daniel consideró que no podía encontrar la información diana. Remitió a los autores de este artículo un documento PDF con los resultados del análisis mensual del agua de suministro público en Guadalajara, encontrado en el sitio: www.aguasdelsorbe.es.

Siguiendo la recomendación del laboratorio de la Mancomunidad de Aguas del Sorbe, y dada la previsible dificultad que tendría Daniel para realizar la comparación entre los resultados de este análisis y la información existente en el agua embotellada comercial, los autores intentaron realizar la comparación eligiendo dos marcas de agua embotellada que se adquirieron en un supermercado local. El análisis del agua de suministro público realizado por Aguas del Sorbe (MAS, 2010) proporciona los resultados de 83 parámetros correspondientes a indicadores organolépticos, microbiológicos, iones, metales pesados, equilibrio calcio-carbónico, trihalometanos/volátiles, hidrocarburos policíclicos aromáticos y plaguicidas. ¿Cuáles de éstos son especialmente relevantes para la salud e interesan ser comparados con el valor en el agua embotellada? Suponiendo que un ciudadano con formación científica básica accediese a documentos de las autoridades nacionales e internacionales responsables de la salud pública, podría encontrar en el informe "Guías para la calidad del agua potable (3a Ed.). Vol1. Recomendaciones" (OMS, 2006) de la Organización Mundial de la Salud las informaciones siguientes:

• La gran mayoría de los problemas de salud relacionados de forma evidente con el agua se deben a la contaminación por microorganismos (bacterias, virus, protozoos u otros organismos). No obstante, existe un número considerable de problemas graves de salud que pueden producirse como consecuencia de la contaminación química del agua de consumo (pág. 12).

• También debe tenerse en cuenta el riesgo para la salud asociado a la presencia en el agua de consumo de radionúclidos de origen natural, aunque su contribución a la exposición total a radionúclidos es muy pequeña en circunstancias normales (pág. 15).

• Son pocas las sustancias químicas de las que se haya comprobado que causan efectos extendidos sobre la salud de las personas como consecuencia de la exposición a cantidades excesivas de las mismas en el agua de consumo. Entre ellas se incluyen el fluoruro, el arsénico y el nitrato. También se han comprobado en algunas zonas efectos sobre la salud de las personas asociados al plomo (procedente de las instalaciones de fontanería domésticas) y existe preocupación por el grado potencial de exposición en algunas zonas a concentraciones de selenio y uranio significativas para la salud. El hierro y el manganeso generan preocupación generalizada debido a sus efectos sobre la aceptabilidad del agua, y deben tenerse en cuenta en cualquier procedimiento de fijación de prioridades (pág. 37).

La investigación se centró, entonces, en el análisis de las dos clases de contaminantes más importantes: los de naturaleza microbiológica y los de naturaleza química.

Contaminación microbiológica. La contaminación del agua por virus, bacterias y parásitos produce enfermedades infecciosas muy comunes y extendidas. La presencia de estos microorganismos en el agua debe su origen a la contaminación fecal. En su mayoría, estos agentes patógenos se encuentran en el tracto digestivo de humanos y animales. La contaminación microbiológica es causada por organismos que no se encuentran en zonas específicas del planeta ni se circunscriben a países en desarrollo o desarrollados. Representan una amenaza global que exige una gran coordinación de la salud pública mundial y puede provocar gastos enormes para el control de brotes epidémicos (Rojas, 2003). La detección directa de contaminación microbiológica representa un gasto enorme y laboratorios especializados, además de varios días de trabajo (OMS, 2006). Por ello, para su detección se utilizan indicadores biológicos e indicadores químicos que sugieren la presencia de los patógenos mencionados. Los indicadores biológicos son organismos de fácil identificación, como las bacterias entéricas o coliformes. Los indicadores químicos asociados a la contaminación microbiológica son el amonio, los cloruros, nitratos y nitritos. Por lo tanto, los contaminantes microbiológicos que interesan en la comparación con el agua embotellada son las enterobacterias y los indicadores químicos amonio, cloruros, nitratos y nitritos.

• Contaminación química. ¿Cuáles de los contaminantes químicos son especialmente relevantes para la salud, en el contexto que nos ocupa, e interesa comparar con el valor en el agua embotellada? Para identificarlos se puede partir de la relación de 125 contaminantes químicos presentes en el agua, que proporciona la OMS (2006, Cap. 12). De ellos, fueron seleccionados aquellos cuya presencia en el agua de consumo tiene influencia en la salud, y no solamente en las características organolépticas del agua, y cuyo efecto se haya comprobado en poblaciones humanas: arsénico, bario, fluoruro, níquel, plomo, selenio y uranio.

2.2.3. Comparaciones y síntesis de resultados

En la Tabla 5 se muestra el valor de los parámetros microbiológicos y químicos seleccionados, tanto en el análisis realizado por la Mancomunidad de Aguas del Sorbe como en el análisis incluido en las etiquetas del agua embotellada.

Tabla 5. Relación de valores máximos permitidos en el agua de suministro público y en el agua embotellada

Al final del largo proceso descrito, la comparación de las analíticas del agua de suministro público y del agua embotellada imposibilita sacar conclusiones sobre diferencias en los posibles efectos en la salud. Ninguno de los parámetros clave aparece en la información proporcionada en las etiquetas del agua embotellada. Es posible que las empresas consideren obvia la ausencia de estos contaminantes. Las etiquetas de las dos marcas de agua embotellada examinadas proporcionan, sin embargo, información sobre valores (sin mencionar las unidades de medida) de carbonato de calcio, sodio, cloro, calcio, magnesio, litio y potasio. Pero un ciudadano que quisiese llegar a conclusiones fundamentadas sobre los efectos del consumo de agua de una u otra procedencia encontraría muchas dificultades, como le sucedió a Daniel, para obtener información básica sobre la ausencia de contaminantes importantes. Es razonable suponer que las dificultades que tendría para evaluar las implicaciones y la importancia de la información relativamente secundaria, que aparece en las etiquetas de las botellas de agua embotellada examinadas, serían mucho mayores.

Conclusiones

El examen de los procesos de búsqueda en los dos casos examinados revela que no fue fácil para los dos ciudadanos participantes obtener información relacionada con algunos problemas tecno-científicos que les afectan. Los dos estudios ponen de manifiesto que las dificultades en la búsqueda y procesamiento de información sobre los dos problemas estudiados se deben a las características de la fuente, las características del sujeto que busca la información y la naturaleza de la propia información buscada. A continuación se considerarán cada una de estas clases de dificultades.

En primer lugar, las administraciones y organismos públicos consultados mostraron algunas limitaciones como fuentes de información sobre los dos temas elegidos en este análisis. Los dos sujetos participantes en nuestro estudio hicieron nueve y seis llamadas telefónicas respectivamente, invirtieron estrictamente en llamadas minutos en el primer caso y 18 minutos en el segundo y contactaron con seis distintas oficinas públicas en el primer caso y cinco en el segundo. En este proceso, sufrieron cinco redireccionamientos en la búsqueda de información sobre la contaminación y dos en la búsqueda referente a la calidad del agua. Es razonable pensar que un ciudadano normal no hubiese invertido el tiempo y el esfuerzo que dedicaron los participantes en este trabajo, debido al compromiso adquirido con los investigadores.

Las transcripciones de las interacciones entre los ciudadanos y los funcionarios, ponen de manifiesto que estos últimos se muestran en general cooperativos ante los requerimientos efectuados, aunque no disponen en muchas ocasiones de la información requerida. Por tanto, las dificultades para proporcionar la información requerida en este estudio parecen encontrarse en características estructurales del sistema administrativo, más que en deficiencias individuales de los funcionarios. Y una de las razones puede hallarse en que la organización administrativa no parece estar diseñada para cumplir estas funciones informativas y, por tanto, no resulta eficiente para la transmisión de información como la requerida en el estudio. Por otra parte, los propios funcionarios tampoco tenían claro en ocasiones a donde dirigir las pesquisas como muestran los cuatro redireccionamientos erróneos del primer caso y lo dos del segundo.

Las limitaciones en las fuentes de información también aparecieron en los pocos datos que se recogieron en este estudio sobre el sector privado. El caso B pone de manifiesto la ausencia de información relevante para decidir sobre los efectos en la salud del consumo de agua embotellada, que se puede encontrar en las etiquetas de dos marcas.

La segunda clase de dificultad, de la mayor importancia, tiene que ver con la complejidad de la propia información solicitada. Las fuentes de la administración proporcionaron de manera relativamente sencilla, en los dos casos, información accesoria como índices de contaminación o datos de pruebas analíticas del agua de suministro público. La información puede revelar la calidad del aire y del agua, pero no informa de los efectos sobre la salud. Esta última información es compleja, incluso para un experto en los efectos de la contaminación atmosférica en la salud (Alonso y otros 2005; Ballester, 2005; Ballester y otros, 1999; Pérez-Hoyos y otros, 1999) o sobre la relación entre la calidad del agua y la salud (Wilk, 2006; Denehy, 2008). En el caso de la contaminación atmosférica existen importantes dificultades metodológicas para determinar directamente el efecto pernicioso de los contaminantes en las personas (Bolumar, 2008). De ahí que los análisis de estos efectos se lleven a cabo con datos indirectos, relacionando el aumento de la mortalidad y morbilidad con niveles altos de contaminantes. Por tanto, es altamente improbable que ciudadanos como Luisa y Daniel llegasen a respuestas satisfactorias a las preguntas planteadas, incluso tras la revisión de la información escrita recomendada. Los investigadores pudieron acceder a dos localizaciones web en el caso A, sobre contaminación, que incluían información diana. Una de las dos páginas relaciona claramente el tipo de contaminantes con los daños que produce. La segunda página, en inglés, ofrece gran cantidad de trabajos e informes, de nivel relativamente alto sobre la contaminación y la salud de manera que es difícil, para alguien no experto, acceder a la información relevante.

En el caso B, la página web recomendada en el último paso del proceso de consulta telefónica explica el proceso de purificación, e incluye resultados de análisis mensuales del agua, pero no alude a información relativa a los efectos sobre la salud. Ello requirió la revisión de documentos, como los informes de la OMS o del Ministerio de Sanidad español, para identificar los parámetros especialmente relevantes desde el punto de vista sanitario, que no son fácilmente accesibles para un ciudadano con formación científica básica. Por tanto, no es sencillo, incluso para alguien con formación científica general, acceder a información que responda concretamente a las preguntas planteadas por los ciudadanos.

Finalmente, una tercera clase de dificultades puede radicar en características del propio ciudadano. La fuente recomendada finalmente en ambos casos consistió en documentos disponibles en la web. Sin embargo, es necesario considerar, en primer lugar, la capacidad para buscar y entender la información pertinente por parte del ciudadano interesado. En el caso A, es difícil llegar a conclusiones claras sobre los efectos de la contaminación atmosférica en la salud incluso para un experto, como se mencionó anteriormente. En el caso B, se sugiere finalmente al ciudadano que compare datos de analíticas de agua embotellada y de agua de la red de suministro público, con objeto de extraer las conclusiones apropiadas sobre los efectos en la salud. Pero los resultados de las pruebas indicadas en la Tabla 5 no son de interpretación fácil para alguien no experto en el tema. Por ejemplo, ¿qué componentes son especialmente dañinos? o, ¿cuál es la solidez de los datos mediante los que se fijan los valores máximos permisibles? La posibilidad de que un ciudadano con una formación científica básica llegue a contestaciones fundamentadas a estas preguntas parece remota.

En segundo lugar, deben considerarse las dificultades para acceder a la información relevante, que están asociadas a rasgos de personalidad como la "necesidad de cognición" (Cacioppo y Petty, 1982) u otras características individuales del dominio metacognitivo (Hacker, Dunlosky, Graesser, 2009). Estos factores personales condicionarían seguramente la perseverancia en la búsqueda de la información o el grado en el que el ciudadano se satisface con la información proporcionada, aunque sea insuficiente. Los ciudadanos podrían verse satisfechos con respuestas que, de hecho, no contestan su pregunta. Un ejemplo es la siguiente información proporcionada por un empleado de la Mancomunidad de Aguas del Sorbe, durante el proceso de búsqueda en el caso B: "El agua de Guadalajara es muy buena. Es de las mejores ¿eh? Junto con la de Madrid es un agua muy buena, muy buena". Un ciudadano podría darse por staisfecho con tal respuesta, aún cuando la desconociese en qué se fundamenta. Estos parámetros individuales, que jugaron un papel menor en el estudio actual debido a lo especial de la situación en la que se encontraban los sujetos colaboradores, son merecedores de un estudio más detallado por su importancia en la búsqueda de información por los ciudadanos en situaciones naturales.

Finalmente, resulta apropiado preguntarse sobre el grado en que son generalizables los resultados del estudio de estos dos casos. La posibilidad de generalización a partir de los estudios de casos es un asunto discutido extensamente en la literatura (Gomm, Hammersley y Foster, 2000; Yin, 2003). Los estudios de casos, por su propia naturaleza, no proporcionan datos generalizables "estadísticamente"; es decir: el caso no debe considerarse en modo alguno como una muestra de uno o dos sujetos. El modo de generalización de los casos es el llamado de "generalización analítica" (Yin, 2003) o de "inferencia lógica" (Mitchell, 1983). Los estudios de casos están dirigidos a apoyar (o en su caso falsar) una teoría, como es en nuestro caso la caracterización de la búsqueda de información científica con relevancia social como un proceso con dificultades intrínsecas para el ciudadano con una formación básica. Por otra parte, una de las funciones de los estudios de casos es descubrir "factores relevantes que, posteriormente el investigador puede medir y expresar en términos cuantitativos" (Van Dalen y Meyer, 1994: 244). Estos factores son los que se incluyen dentro de las tres clases relacionadas en los párrafos anteriores. Por tanto, estos dos estudios de casos sugieren interrogantes importantes, y los correspondientes estudios posteriores, sobre la posibilidad de que los ciudadanos no especialistas accedan a información científica elevante para los problemas de la vida diaria. Apuntan también los efectos y las limitaciones de un enfoque relativamente ingenuo de la alfabetización científica tanto en la educación formal como en la informal: ¿puede un ciudadano con una formación científica básica, como la proporcionada en la etapa de educación general, comprender aceptablemente problemas tecno-científicos de su entorno como los planteados? Y en caso de que no pueda, ¿está instaurada como solución la existencia de una ignorancia consciente abrazada sin problemas por los ciudadanos?

Bibliografía

1 ALONSO, E., MARTÍNEZ, T., CAMBRA, K., LÓPEZ, L., BOLDO, E., ZORRILLA, B., DAPONTE, A., AGUILERA, I., TORO, S., IÑIGUEZ, C., BALLESTER, F., GARCÍA, F., PLASENCIA, A., ARTAZCOZ, L. y MEDINA, S. (2005): "Evaluación en cinco ciudades españolas del impacto en salud de la contaminación atmosférica por partículas: Proyecto europeo APHEIS", Revista Española de Salud Pública, vol.79, no.2, pp.297-308.         [ Links ]

2 ATKINSON, R., ANDERSON, R., SUNYER, J., AYRES, J., BACCINI, M., VONK, J., BOUMGHAR, A., FORASTIERE, F., FORSBERG, B., TOULOUMI, G., SCHWARTZ, J. Y KATSOUYANNI, K. (2001): "Acute Effects of Particulate Air Pollution on Respiratory Admissions Results from APHEA 2 Project", American Journal of Respiratory and Critical Care Medicine, vol. 164, pp 1860-1866.         [ Links ]

3 BALLESTER, F. (2005): "Contaminación atmosférica, cambio climático y salud", Revista Española de Salud Pública, vol. 79, no. 2, pp. 159-175.         [ Links ]

4 BALLESTER, F., SAEZ, M., DAPONTE, A., ORDOÑEZ, J.M., TARACIDO, M., CAMBRA, K., ARRIBAS, F., BELLIDO, J., GUILLÉN, J., AGUINAGA, I., CAÑADA, Á., LÓPEZ, E., IÑIGUEZ, C., RODRIGUEZ, P., PÉREZ-HOYOS, S., BARCELÓ, M., OCAÑA, R. y ARANGUÉZ, E. (2005): "El proyecto Emecas: protocolo del estudio multicéntrico en España de los efectos a corto plazo de la contaminación atmosférica sobre la salud", Revista Española de Salud Pública, vol. 79, no. 2, pp. 229-242.         [ Links ]

5 BALLESTER, F., SAEZ, M., ALONSO, E., TARACIDO, M., ORDÓÑEZ, J., AGUINAGA, I., DAPONTE, A., BELLIDO, J., GUILLÉN, J., PÉREZ, M., CAÑADA, Á., ARRIBAS, F., PÉREZ- HOYOS, S. (1999): "El proyecto EMECAM: estudio multicéntrico español sobre la relación entre la contaminación atmosférica y la mortalidad. Antecedentes, participantes, objetivos y metodología", Revista Española de Salud Pública, vol.73, no.2, pp.165-175.         [ Links ]

6 BOLUMAR, F. (2008): Comunicación personal.

7 BULLERS, A. (2002): "Bottled Water: Better Than the Tap?", FDA Consumer Magazine, U.S. Food and Drug Administration, Julio- Agosto.

8 BUSH, J., MOFFATT, S. y DUNN, C. (2001): "Keeping the public informed? Public negotiation of air quality information" Public Understanding of Science, vol. 10, pp. 213-229.         [ Links ]

9 BRONCANO, F. (2010): "¿Tienen los expertos autoridad epistémica en la democracia?", Foro CTS, Revista Iberoamericana de Ciencia Tecnología y Sociedad. Disponible en: http://www.revistacts.net/index.php?option=com_content&view=article&id=352:el-debate-itienen-los-expertos-autoridad-epistemica-en-la-democracia&catid=19:debates&Itemid=38.         [ Links ]

10 CACIOPPO, J. y PETTY, R. (1982): "The need for cognition", Journal of Personality and Social Psychology, vol. 42, pp. 116-131.         [ Links ]

11 COMISIÓN DE LAS COMUNIDADES EUROPEAS (2001): "Democratising Expertise and Establishing Scientific Reference Systems", White Paper on Governance.         [ Links ]

12 CORBETT, J. y DURFEE, J. (2004): "Media Representations of Global Warming Testing Public (Un)Certainty of Science", Science Communication, vol. 26, no 2, pp. 129-151.         [ Links ]

13 CROSS, R. y PRICE, R. (1999): "The Social Responsibility of Science and the public understanding of Science", International Journal of Science Education, vol. 21, no. 7, pp 775 -785.         [ Links ]

14 DENEHY, J. (2008): "Water for sale: What Are the Cost?", The Journal of school Nursing, vol. 24. no 2. pp. 59-60.         [ Links ]

15 DOMINICI, F., ZANOBETTI, A., ZEGER, S., SCHWARTZ, J. y SAMET, J. (2005): "The national morbidity, mortality, And air pollution study. Part IV: Hierarchical Bivariate Time-Series Models-a Combined Analysis of pm10 Effects on Hospitalization and Mortality". Health Effects Institute, no. 9, parte IV, pp 1-25. Disponible en: www.airimpacts.org/documents/local/NMMAPS4.pdf.         [ Links ]

16 EVANS, G. y DURANT, J. (1995): "The relationship between knowledge and attitudes in the public understanding of science in Britain", Public Understand of science, vol. 4, pp. 57-74.         [ Links ]

17 FREWER, L., MILES, S., BRENNAN, M., KUZNESOF, S., NESS, M. y RITSON, C. (2002): "Public preferences for informed choice under conditions of risk uncertainty", Public Understanding of Science, vol. 11, pp. 363-372.         [ Links ]

18 FUNTOWICZ, S. y STRAND, R. (2007): "De la demostración experta al diálogo participativo", Revista Iberoamericana de Ciencia, Tecnología y Sociedad -CTS, vol. 3, no 8, pp. 97-113.         [ Links ]

19 GALAN, I., ARANGUEZ, E., GANDARILLAS, A., ORDÓÑEZ, J. y ARAGONÉS, N. (1999): "Efectos a corto plazo de la contaminación atmosférica sobre la mortalidad: resultados del proyecto EMECAM en Madrid, 1992-1995", Revista Española de Salud Pública, vol. 73, no. 2, pp. 243-252.         [ Links ]

20 GODIN, B. y GINGRAS, Y. (2000): "What is scientific and technological culture and how is it measured? A multidimensional model", Public Understand of Science, vol. 9, pp. 43-58.         [ Links ]

21 GOMM, R., HAMMERSLEY, M., y FOSTER, P. (2000). Case Study Method, London, Sage.         [ Links ]

22 GREENWOOD, E. (1970): Metodología de la investigación social, Buenos Aires, Paidós.

23 GUAITA, N. y JIMÉNEZ, L. (2008): "Agua y Sostenibilidad", Índice: Revista de Estadística y Sociedad, no 28, pp. 14-17.         [ Links ]

24 HACKER, D, DUNLOSKY, J, y GRAESSER, A. (Eds.): Handbook of Metacognition in Education, New York, Routledge.         [ Links ]

25 J.S.G. (2006): "La contaminación del aire oscurece el cielo de la región", El País, Febrero 14, p. M1.         [ Links ]

26 LÓPEZ, L. y ZORRILLA, B. (2005): "Health EALTH impact assesdment of air pollution. Enhis-1 27 Project: WP5 Health impact assessment", Local City Report, Madrid. Disponible en: www.apheis.org/CityReports2005/Madrid.pdf

27 MANCOMUNIDAD DE AGUAS DEL SORBE (2010): "Análisis de agua tratada - Agosto". Disponible en: http://www.aguasdelsorbe.es/web/downloads.php?id_button=9&id_section=38.         [ Links ]

28 MCINERNEY, C., BIRD, N. y NUCCI, M. (2004): "The flow of Scientific Knowledge from Lab to the Lay Public", Science Communication, vol. 26, no 1, pp. 44-74.         [ Links ]

29 MEDINA, S., y PLACENCIA, J. (2001) "Presentación de APHEIS, Contaminación atmosférica y Salud: Un Sistema Europeo de Información. Contaminación atmosférica y Salud Pública en Europa". Disponible en: www.apheis.org/Pdf/apheis_castillan.PDF.         [ Links ]

30 MENDES,         [ Links ] R, SEVILLANO, E. y GARCÍA, J. (2011): "La contaminación del tráfico ensombrece Madrid y Barcelona", 8 de febrero. Disponible en: http://www.elpais.com/articulo/sociedad/contaminacion/trafico/ensombrece/Madrid/Barcelona/el pepusoc/20110208elpepusoc_1/Tes

31 MILLER, J. (1992): "Toward a scientific understanding of the public understanding of science and technology", Public Understanding of Science, vol. 1, pp. 23-26.

32 MILLER, J. (1998): "The measurement of civic scientific literacy", Public Understanding of Science, vol. 7, pp. 203-223.         [ Links ]

33 MITCHELL, J. C. (1983): "Case and Situation Analysis", Sociological Review, vol. 31, pp. 187-211.         [ Links ]

34 NATIONAL RESOURCES DEFENSE COUNCIL (NRDC) (1999): "Bottled water-pure drink or pure hype". Disponible en: http://www.nrdc.org/water/drinking/bw/bwinx.asp        [ Links ]

35 Organización Mundial de la Salud (OMS) (2006): Guías para la calidad del agua potable. Vol. 1  Recomendaciones. Disponible en: http://www.who.int/water_sanitation_health/dwq/gdwq3_es_fulll_lowsres.pdf        [ Links ]

36 PÉREZ-HOYOS, S., SÁEZ, M., BARCELÓ, M. A., CAMBRA, C., FIGUEIRAS A., ORDÓÑEZ, J., GUILLÉN, F., OCAÑA, R., BELLIDO, J., CIRERA, L., ALONSO, A., RODRÍGUEZ, V., ALCALÁ, T. y BALLESTER, F. (1999): "Protocolo EMECAM: análisis del efecto a corto plazo de la contaminación atmosférica sobre la mortalidad", Revista Española de Salud Pública, vol. 73, no 2, pp.177-185.         [ Links ]

37 POWELL, M., DUNWOODY, S., GRIFFIN, R., y NEUWIRTH, K. (2007): "Exploring lay uncertainty about an environmental health risk", Public Understanding of Science, vol.16, no 3, pp. 323-343.

38 REAL DECRETO 140/2003 (2003): Boletín Oficial del Estado no 45, 21 de febrero.         [ Links ]

39 ROJAS, R. (2003): "Normas de calidad de agua de bebida y riesgo a la salud", Disponible en: OMS/OPS/SDE/CEPIS-SB. www.bvsde.paho.org/.../Evaluación%20de%20Riesgos%20rev1.doc.         [ Links ]

40 ROSELLÓ, B. (2007): "Aumentan las muertes por contaminación ambiental, según un estudio durante 30 años", El Mundo, 6 de Agosto, p. M3.         [ Links ]

41 SHOTYK, W., KRACHLER, M. y CHEN, B. (2006): "Contamination of Canadian and European Bottled Waters with Antimony from PET Containers", Journal of Environmental Monitoring, vol. 8, pp. 288-292.         [ Links ]

42 VAN DALEN, D.B. y MEYER, W.J. (1994): Manual de técnica de la investigación educacional, Barcelona, Paidós.         [ Links ]

43 WHO (2003): "Health Aspects of Air Pollution with Particulate Matter, Ozone and Nitrogen Dioxide". Disponible en: http://www.euro.who.int/document/e79097.pdf        [ Links ]

44 WILK, R. (2006): "Bottled Water. The pure commodity in the age of branding", Journal of Consumer Culture, vol. 6, pp. 303-325.         [ Links ]

45 YIN, R. K. (2003): Case Study Research. Design and Methods, Londres, Sage.         [ Links ]

APÉNDICE

Páginas Web seleccionadas a partir de Madrid.org y Apheis.netAgradecimientos

El presente trabajo se llevó a cabo en el marco del proyecto EDU 2008-05359 del Ministerio de Ciencia y Tecnología (I.P. José Otero Gutiérrez). Agradecemos al Dr. F. Bolumar, de la Universidad de Alcalá, por la orientación proporcionada sobre aspectos del caso A, y a D. L. Blanco, de la Comunidad de Aguas del Sorbe, por los útiles comentarios sobre el trabajo. Sin embargo, cualquier error en el artículo es de nuestra sola responsabilidad. También, un agradecimiento muy especial a Luisa y a Daniel por su crucial colaboración en el estudio.

^rND^sALONSO^nE.^rND^sMARTÍNEZ^nT.^rND^sCAMBRA^nK.^rND^sLÓPEZ^nL.^rND^sBOLDO^nE.^rND^sZORRILLA^nB.^rND^sDAPONTE^nA.^rND^sAGUILERA^nI.^rND^sTORO^nS.^rND^sIÑIGUEZ^nC.^rND^sBALLESTER^nF.^rND^sGARCÍA^nF.^rND^sPLASENCIA^nA.^rND^sARTAZCOZ^nL.^rND^sMEDINA^nS.^rND^sATKINSON^nR.^rND^sANDERSON^nR.^rND^sSUNYER^nJ.^rND^sAYRES^nJ.^rND^sBACCINI^nM.^rND^sVONK^nJ.^rND^sBOUMGHAR^nA.^rND^sFORASTIERE^nF.^rND^sFORSBERG^nB.^rND^sTOULOUMI^nG.^rND^sSCHWARTZ^nJ.^rND^sKATSOUYANNI^nK.^rND^sBALLESTER^nF.^rND^sBALLESTER^nF.^rND^sSAEZ^nM.^rND^sDAPONTE^nA.^rND^sORDOÑEZ^nJ.M.^rND^sTARACIDO^nM.^rND^sCAMBRA^nK.^rND^sARRIBAS^nF.^rND^sBELLIDO^nJ.^rND^sGUILLÉN^nJ.^rND^sAGUINAGA^nI.^rND^sCAÑADA^nÁ.^rND^sLÓPEZ^nE.^rND^sIÑIGUEZ^nC.^rND^sRODRIGUEZ^nP.^rND^sPÉREZ-HOYOS^nS.^rND^sBARCELÓ^nM.^rND^sOCAÑA^nR.^rND^sARANGUÉZ^nE.^rND^sBALLESTER^nF.^rND^sSAEZ^nM.^rND^sALONSO^nE.^rND^sTARACIDO^nM.^rND^sORDÓÑEZ^nJ.^rND^sAGUINAGA^nI.^rND^sDAPONTE^nA.^rND^sBELLIDO^nJ.^rND^sGUILLÉN^nJ.^rND^sPÉREZ^nM.^rND^sCAÑADA^nÁ.^rND^sARRIBAS^nF.^rND^sPÉREZ- HOYOS^nS.^rND^rND^sBUSH^nJ.^rND^sMOFFATT^nS.^rND^sDUNN^nC.^rND^sBRONCANO^nF.^rND^sCACIOPPO^nJ.^rND^sPETTY^nR.^rND^sCORBETT^nJ.^rND^sDURFEE^nJ.^rND^sCROSS^nR.^rND^sPRICE^nR.^rND^sDENEHY^nJ.^rND^sDOMINICI^nF.^rND^sZANOBETTI^nA.^rND^sZEGER^nS.^rND^sSCHWARTZ^nJ.^rND^sSAMET^nJ.^rND^sEVANS^nG.^rND^sDURANT^nJ.^rND^sFREWER^nL.^rND^sMILES^nS.^rND^sBRENNAN^nM.^rND^sKUZNESOF^nS.^rND^sNESS^nM.^rND^sRITSON^nC.^rND^sFUNTOWICZ^nS.^rND^sSTRAND^nR.^rND^sGALAN^nI.^rND^sARANGUEZ^nE.^rND^sGANDARILLAS^nA.^rND^sORDÓÑEZ^nJ.^rND^sARAGONÉS^nN.^rND^sGODIN^nB.^rND^sGINGRAS^nY.^rND^sGUAITA^nN.^rND^sJIMÉNEZ^nL.^rND^nJ.^sS.G.^rND^sMCINERNEY^nC.^rND^sBIRD^nN.^rND^sNUCCI^nM.^rND^rND^sMILLER^nJ.^rND^sMITCHELL^nJ. C.^rND^sPÉREZ-HOYOS^nS.^rND^sSÁEZ^nM.^rND^sBARCELÓ^nM. A.^rND^sCAMBRA^nC.^rND^sFIGUEIRAS^nA.^rND^sORDÓÑEZ^nJ.^rND^sGUILLÉN^nF.^rND^sOCAÑA^nR.^rND^sBELLIDO^nJ.^rND^sCIRERA^nL.^rND^sALONSO^nA.^rND^sRODRÍGUEZ^nV.^rND^sALCALÁ^nT.^rND^sBALLESTER^nF.^rND^sPOWELL^nM.^rND^sDUNWOODY^nS.^rND^rND^rND^sROSELLÓ^nB.^rND^sSHOTYK^nW.^rND^sKRACHLER^nM.^rND^sCHEN^nB.^rND^sWILK^nR.^rND^sRafael^nCastro^rND^sRafael^nCastro^rND^sRafael^nCastro

DOSSIER-ARTÍCULOS

La terapia génica cerebral: conquista y horizonte de lo 'nano'

Brain gene therapy: triumph and future of nanotechnology

 

Rafael Castro*

* Profesor Titular de Fisiología, Facultad de Medicina, Universidad de La Laguna, Tenerife, España. Correo electrónico: jrcastro@ull.es.


La terapia génica cerebral consiste en la introducción de ácidos nucleicos en el tejido nervioso con un propósito terapéutico. Mediante la terapia génica (TG) no invasiva, este materialgenético es introducido indirectamente por vía sanguínea, evitando su inyección directa en el parénquima cerebral y el daño de la barrera hematoencefálica. Dicha terapia supone nuevas y excitantes perspectivas para el tratamiento de numerosas enfermedades neurológicas para las cuales no existen tratamientos farmacológicos efectivos. En los últimos años se ha producido un giro espectacular en las estrategias para la transferencia génica no invasiva del sistema nervioso central. El desarrollo de nuevos serotipos de vectores adenoasociados y de una gama de nanopartículas funcionalizadas permite introducir y expresar material génico en el tejido nervioso tras la administración periférica de dichos vectores. Los estudios en animales resultan altamente prometedores y es probable que en los próximos años den lugar a procedimientos de terapia génica útiles y seguros para su uso en pacientes. En el horizonte de la TG se abre la nanotecnología con el desarrollo de nuevos materiales y formación de vectores híbridos que mejoren la eficiencia y selectividad, pero sin olvidar el equilibrio consciente que debe haber entre necesidades humanas e innovación científica-tecnológica.

Palabras clave: Terapia génica; Nanopartículas; Cerebro; AAV9; Sociedad

Brain gene therapy involves the input of nucleic acids into nerve tissue for therapeutic purposes. The genetic material is indirectly introduced into the blood through non-invasive gene therapy, thereby avoiding direct injection into the brain which can damage the blood-brain barrier. Such therapy offers exciting new treatments for the numerous neurological diseases which lack effective pharmacological treatments. In recent years there has been a dramatic shift in non- invasive strategies for transferring genes into the central nervous system. The development of  new serotypes of adenoassociated vectors and of a range of functionalized nanoparticles means that it is now possible to introduce and express gene material in nerve tissue following peripheral administration of the vectors mentioned above. Studies already performed on animals have had highly promising results and it is likely that over the next few years they will give rise to non-invasive gene therapy procedures which will be useful and safe for treating patients. The future of gene therapy nanotechnology will open the development of new materials and formation of hybrid vectors that improve efficiency and selectivity while maintaining the equilibrium that must exist between human needs and scientific-technological innovation.

Key words: Gene therapy; Nanoparticles; Brain; AAV9; Society.


Introducción a la terapia génica

En los últimos quince años hemos asistido al inicio de una revolución científica basada en la capacidad de medir, manipular y organizar la materia en la escala del nanómetro. La nanotecnología se define como el conjunto de saberes y metodologías dirigidas a estudiar, fabricar y caracterizar estructuras funcionales con dimensiones inferiores a unas pocas decenas de nanómetros. Es el término popular para la construcción y utilización de estructuras funcionales con al menos una dimensión característica medida en escala nanométrica -un nanómetro (nm) es la mil millonésima parte de un metro (10-9 m)-. Esto es más o menos cuatro veces el diámetro de un átomo individual. La anchura del ADN es aproximadamente de 2,5 nm y las moléculas de proteína miden 1-20 nm. Dada la inherente nanoescala de los componentes funcionales de las células vivas, era inevitable que la nanotecnología se aplicara en biotecnología, dando lugar al término de "nanobiotecnología", la cual está empezando a tener un impacto en la salud.

Durante los pasados 50 años, los conceptos iniciales de nanotecnología han dado lugar a numerosas tecnologías, y algunos medicamentos basados en nanotecnología se encuentran en el mercado. La invención del microscopio revolucionó la medicina, al posibilitar la detección de microorganismos, así como el estudio de la histopatología de la enfermedad. La microcirugía supuso un refinamiento considerable sobre la microcirugía y abrió las posibilidades a procedimientos que no se llevaban a cabo con anterioridad o tenían una alta mortalidad y morbilidad. Las nanotecnologías, al abrirse al mundo más allá de la microescala, tendrán un impacto similar en medicina y cirugía. Esto se debe a que los procesos fisiológicos y patológicos a nivel celular ocurren a nanoescala. La nanomedicina es, por tanto, la aplicación de la nanobiotecnología a la medicina. Puede también ser considerada como un refinamiento de la medicina molecular e integra los avances en genómica y proteómica para facilitar el desarrollo de la medicina personalizada. La nanobiotecnología tendrá un impacto en el desarrollo de la nanomedicina, tanto directamente como mejorando otras disciplinas, entre las que se encuentra la terapia génica.

Los fármacos convencionales de pequeño peso molecular han sido diseñados para que se difundan en las células mediante cinéticas precisas y, donde sea necesario, empleando sistemas de transporte específicos. La terapia de proteínas es más compleja, especialmente si tiene que actuar intracelularmente, porque no hay muchas vías celulares para importar proteínas. Además, estas moléculas, como por ejemplo la insulina, no pueden administrarse oralmente. La situación se hace compleja cuando se quiere administrar ácidos nucleicos debido a su tamaño y a la falta de sistemas de importación a través de la membrana celular, especialmente en el núcleo celular. Por tanto, los ácidos nucleicos necesitan ser empaquetados de forma natural en partículas virales que satisfagan muchas de estas propiedades o en partículas artificiales que puedan sustituir a los virus. La vida media del tratamiento es también completamente diferente, ya que la transformación que se consigue con los ácidos nucleicos puede significar una alteración permanente, al contrario que el tratamiento con fármacos convencionales, el cual es intrínsecamente transitorio.

La terapia génica puede considerarse uno de los proyectos más importantes para la humanidad y su futuro, en la medida en que apunta a combatir en sus propias causas las enfermedades de origen hereditario y genéticas en general. La terapia génica se define como la introducción de ácidos nucleicos en células para modificar el curso de una condición médica o enfermedad. Pero decidir si la terapia génica es adecuada para el tratamiento de una enfermedad, implica muchas cosas: la escasez o ineficacia de otros tratamientos, haber identificado el gen o genes alterados en la misma, comprender la biología de la enfermedad, duración, localización, distribución, y la disponibilidad de una copia normal del gen afectado. Inicialmente propuesta para el tratamiento de enfermedades monogénicas, la terapia génica es reconocida ahora como "una nueva forma de administración de fármacos" que ofrece estrategias diversas para el tratamiento de enfermedades innatas y adquiridas. Si el futuro de la terapia génica está en competir con éxito con el tratamiento farmacológico clásico, será necesario disponer de métodos económicos, simples y eficaces de transferencia génica.

1. Vectores de terapia génica

Para lograr una transferencia génica exitosa es crucial la elección del vehículo (vector) que va a transferir el gen terapéutico (transgén) al tejido o tipo celular deseado. Básicamente, los vectores utilizados en terapia génica pueden dividirse en dos grandes grupos, virales y no virales, cada uno de los cuales presenta ventajas e inconvenientes. Dado que los virus no son organismos vivientes, podemos considerarlos como nanomáquinas de la naturaleza, de las cuales la terapia génica modifica algunas piezas, por ejemplo, eliminando las partes del virus que le permiten reproducirse y causar enfermedad, y sustituyéndolas por el transgén. Dentro de los sistemas virales existen, por ejemplo: adenovirus, retrovirus, virus del herpes simplex, lentivirus, adenoasociados... Cada vector viral tiene características particulares, como son la preferencia para reconocer y transferir su material genético a un tipo particular de célula, la capacidad de almacenamiento de genes, la facilidad o no para obtener grandes cantidades de partículas virales, etc. Algunos de los vectores virales que han mostrado su eficacia para transferir genes in vivo, por ejemplo, en el sistema nervioso central o SNC (especialmente lentivirus y virus adenoasociados) pueden integrarse en los cromosomas de las células transducidas, favoreciendo una expresión duradera del transgén en los animales de experimentación (Thomas, 2003: 346-358). En varios casos, se transforman genéticamente algunas líneas celulares para producir neurotransmisores o factores neurotróficos (proteínas que modulan el crecimiento, la diferenciación, la reparación y la supervivencia de las neuronas) en grandes cantidades, la conocida terapia génica ex vivo, con la finalidad de utilizarse como alternativas terapéuticas en trastornos del SNC (Mejía-Toiber, 2009: 483-489). Sin embargo, los vectores virales generan importantes problemas relacionados con su producción y seguridad (Kaiser, 2002: 2113-2115). Además, algunos vectores virales inducen una respuesta inmune que disminuye la eficacia y bioseguridad con una administración repetida. Una complicación adicional del uso de algunos vectores virales es su tendencia a integrarse cerca de promotores (regiones de ADN que controlan la actividad de genes específicos) y en unidades transcripcionales (secuencias de ADN que se activan de una vez), aumentando con ello la posibilidad de causar efectos adversos (Essner, 2005: 513-519). En los últimos años ha habido importantes esfuerzos por desarrollar estrategias alternativas no virales de transferencia génica in vivo. En este sentido, se ha empleado ADN desnudo, ligado a una variedad de complejos moleculares, como liposomas, nanopartículas no lipídicas, polímeros y polipéptidos. Con estos vectores, la manufactura de ADN a gran escala resulta factible, reproducible, y el producto final no requiere condiciones sofisticadas de almacenamiento. Además, los vectores no virales no presentan restricciones en relación con el tamaño del gen ni provocan una respuesta inmunológica significativa (Conwell, 2005: 3-18). La nanotecnología puede resolver el problema de selectividad en la terapia génica, es decir, que el transgén llegue sólo a las células que lo necesitan. Sin embargo, con el uso de un vector no viral, la entrada del material genético a la célula es limitada, debido a la necesidad de proporcionar el ADN en la superficie celular en concentraciones suficientes para su entrada (Luo, 2000: 893-895), y a que el transgén tiene aún que escapar de la degradación y llegar al núcleo de las células para poderse expresar. La carga eléctrica altamente negativa del ADN también dificulta su transporte, por lo cual se utilizan polímeros o iones con carga positiva para neutralizarla. Los vectores no virales presentan también dificultad para inducir una expresión duradera del gen terapéutico, hecho que enlaza con la regulación de la expresión del gen transferido. Una vez en el núcleo, el gen puede integrarse o no adecuadamente en los cromosomas de la célula, y las necesidades pueden ser diferentes en cada caso. Por ejemplo, en una enfermedad neurodegenerativa es probable que se requiera una expresión prolongada; y en otros casos puede ser suficiente con la expresión transitoria del gen, como en las células cancerosas. Los vectores no virales presentan también dificultad para inducir una expresión duradera del gen terapéutico (Conwell, 2005: 3-18; Pathak, 2009: 1559-1572). Aunque este hecho limita de momento su uso en terapia génica de enfermedades cerebrales, no es menos cierto que en los últimos años ha habido un desarrollo espectacular en cuanto a su diversidad, propiedades y manufacturación.

2. Nanopartículas que cruzan la barrera hematoencefálica

Patologías frecuentes y graves como el autismo, la enfermedad de Alzheimer, los tumores cerebrales, los ictus, etc., no disponen de tratamientos curativos eficientes en la actualidad. Uno de los factores que dificulta el desarrollo de nuevas terapias es la barrera hematoencefálica (BHE), la cual limita en muchos casos el acceso del agente terapéutico al tejido neural. La BHE está constituida por una estructura vascular especializada formada por la interacción entre células endoteliales que tapizan el interior de los vasos cerebrales y numerosos pies de astrocitos que tapizan por fuera los vasos cerebrales para regular el paso y difusión de moléculas entre el plasma y el SNC (Loch-Neckel, 2010: 165-174). Las moléculas pequeñas -generalmente inferiores a 500 Daltons (Da)- y algunos péptidos liposolubles pequeños pueden pasar la BHE sin la mediación de trasportadores específicos. Sin embargo, en la mayor parte de los casos, el trasiego por la BHE precisa de transcitosis (transporte de moléculas a través de una célula) mediada por receptores o transportadores selectivos, como el receptor de lipoproteína de baja densidad (LDLR), el receptor de insulina, el receptor de leptina, el receptor de transferrina y el receptor de factor de crecimiento similar a la insulina.

La elección de un vector apropiado que transfiera el gen deseado en el área cerebral afectada es crucial a la hora de establecer una terapia génica segura y eficiente para el SNC. Casi un 70% de los ensayos clínicos actuales emplean vectores virales como vehículos de transferencia de ADN en células para reparación de genes defectuosos. Aunque los vectores virales resultan efectivos y son ampliamente usados, no es menos cierto que existen aún aspectos importantes de seguridad que hay que tener en cuenta cuando se emplean partículas virales en un programa terapéutico (Thomas, 2003: 346-358). Debido a los evidentes efectos colaterales de los vectores virales, el objetivo real está en conseguir una terapia génica, eficiente, no invasiva y no viral para el cerebro. Ello requerirá soluciones multidisciplinares entre diferentes campos, como ingeniería, química, biología celular, fisiología, farmacología y medicina. Aunque este escenario ideal no se ha conseguido aún, sí que hay hecho un trabajo considerable sobre estrategias de transferencia génica nanotecnológicas para cruzar la BHE. Por tanto, la aplicación de la nanotecnología en la investigación biomédica está teniendo un importante impacto en el desarrollo de nuevos tipos de herramientas diagnósticas y terapéuticas.

Durante los últimos años ha habido mucha investigación en terapia génica, con progresos significativos en el desarrollo de nuevas estrategias de transferencia génica en el SNC y en la evaluación de su potencial en el tratamiento de enfermedades neurológicas. Entre los diferentes sistemas desarrollados para este propósito, hemos comentado que los vectores virales han sido, sin duda, los más usados. Además, debido al impedimento de las medicinas génicas en cruzar la BHE, la mayoría de los trabajos realizados han utilizado vectores virales adenoasociados o vectores lentivirales (empleando rutas invasivas de administración, como la inyección intracerebral con craneotomía) y que, además, producen una expresión génica localizada. Aunque la inyección directa intracerebral de vectores virales que expresan transgenes -terapia génica invasiva (TGi)- puede ser una alternativa razonable para el tratamiento de enfermedades neurodegenerativas localizadas, en las que están implicadas estructuras anatómicas discretas del cerebro (Tenenbaum, 2002: 451-483), el tratamiento de muchos trastornos neurológicos demanda la transferencia del transgén a todo el SNC. Por otro lado, el pequeño tamaño del ratón (principal modelo animal empleado) favorece una expresión génica más distribuida, siendo necesarias apenas cinco inyecciones de vector en todo el cerebro. Sin embargo, el mayor tamaño del cerebro humano requeriría demasiadas inyecciones locales, haciendo el procedimiento clínicamente impracticable. Por ello, en los últimos años se ha producido un giro espectacular en las estrategias de transferencia no invasiva de genes terapéuticos en el SNC -terapia génica no invasiva (TGni)-. En este tipo de transferencia génica se introducen ácidos nucleicos indirectamente en el tejido nervioso (generalmente por vía sanguínea), con objeto de lograr una utilidad terapéutica, evitándose así su inyección directa en el parénquima cerebral y el daño en la BHE. A continuación se hará una descripción de los tipos y características más importantes de los vectores virales y no virales que posibilitan la realización de una TGni en el SNC.

Un foco de atención clave es el desarrollo y uso de vectores no virales a base de nanopartículas, para lograr una transferencia génica segura y eficiente. Entre las mayores ventajas de estos vehículos a nanoescala de transferencia de fármacos/genes está su habilidad para cruzar las barreras de membrana, particularmente en el SNC. Estas nanopartículas deben ser funcionalizadas de alguna manera para ser eficaces, lo que significa poder llenarse con, o acoplarse a, moléculas terapéuticas (como fármacos, ácidos nucleicos...) o marcarse con anticuerpos o ácidos nucleicos para facilitar la detección de una diana de interés. Pueden fabricarse a modo de nanocristales, complejos de fármaco-polímero o creando esferas a nanoescala (liposomas) que puedan atrapar moléculas de fármacos u otros agentes (LaVan, 2003: 1184-1191). Las nanopartículas poliméricas han resultado efectivas en estudios de transferencia génica (Cohen, 2000: 1896-1905). Son partículas que transportan fármacos/genes de interés dentro de una matriz de polímero biodegradable. Dependiendo del método de preparación, pueden obtenerse nanopartículas, nanoesferas o nanocápsulas. Las nanoesferas constan de una matriz de polímero en el que el fármaco/gen está físicamente y uniformemente disperso, mientras que las nanocápsulas representan sistemas de transporte vesicular en los que el fármaco/gen está confinado en una cavidad rodeada de una matriz de polímero. Las nanopartículas poliméricas presentan una mejor eficiencia en términos de transporte de fármacos/genes comparadas con los métodos tradicionales orales e intravenosos (Soppimath, 2001: 1-20). Estas ventajas tienen su origen en dos propiedades básicas. En primer lugar, su pequeño tamaño favorece la penetración a través de pequeños capilares, lo que permite una mayor acumulación del fármaco/gen en el sitio diana (Soppimath, 2001: 1-20). Esto es particularmente relevante en el SNC, en el que el transporte de algunos fármacos es limitado, debido a su incapacidad para cruzar la BHE. La aplicación de nanopartículas como vehículos de transporte de fármacos/genes puede ayudar a superar dicho obstáculo. De hecho, se ha demostrado recientemente que las nanopartículas poliméricas son efectivas para el transporte de péptidos y otros agentes a través de la BHE (Kreuter, 2003: 409-416; Nahar, 2006: 259-318). En segundo lugar, el uso de polímeros biodegradables favorece la liberación sostenida de fármacos/genes en el sitio diana durante un largo período (Fang, 2009: 19268-19273).

Los dendrímeros son macromoléculas tridimensionales altamente ramificadas que rodean un núcleo central, y que pueden diseñarse a escala nanométrica con extraordinaria precisión. Los dendrímeros cuentan con varios extremos libres, a los que se pueden acoplar y ser transportadas moléculas de distinta naturaleza, desde agentes terapéuticos hasta moléculas fluorescentes. En su núcleo central pueden incorporarse diferentes moléculas de fármacos o ADN y, debido a su estructura ramificada, un solo dendrímero es capaz de transportar una cantidad elevada de moléculas, cuando se compara con otros sistemas de transporte basados en nanopartículas. Múltiples grupos terminales que se localizan predominantemente en la superficie pueden controlar la interacción de las macromoléculas de dendrímero con su ambiente molecular. De hecho, los dendrímeros suelen contener más de 100 grupos terminales, dotados de amplios sitios reactivos, para permitir la conjugación con diferentes tipos de moléculas (Jain, 2008: 1035-1052). Además, dichos grupos terminales pueden modificarse para hacer hidrofílico el interior y que su exterior permanezca hidrofóbico, o viceversa (Sahoo, 2003: 1112-1120). Recientemente se ha demostrado que los dendrímeros pueden ser vectores prometedores de transferencia génica en el cerebro.

Los fulerenos son pequeñas esferas de pocos nanómetros de tamaño (nanoesferas), constituidas por átomos de carbono, ubicados de tal manera que forman estructuras nanométricas hexagonales y pentagonales. El fulereno más conocido es el carbono 60 (C-60), constituido por 60 átomos de carbono que forman una estructura similar a la de un balón de fútbol. Recientemente se ha descrito un fulereno soluble en agua, derivado del C-60, capaz de cruzar la membrana citoplasmática, y que se localiza preferentemente en la mitocondria (Foley, 2002: 116-119). Esto abre grandes perspectivas a la hora de poder realizar terapia génica mitocondrial. Las nanoesferas de carbono derivadas de glucosa son una clase emergente de vectores intracelulares. Las superficies de estas esferas están altamente funcionalizadas y no necesitan ninguna otra modificación. Además, la propiedad fluorescente intrínseca de las nanosferas de carbono representa una ventaja a la hora de seguir su localización celular, sin necesidad de añadir marcas fluorescentes adicionales. Estas esferas pueden dirigirse al núcleo de las células de mamíferos, sin causar toxicidad (Selvi, 2008: 3182-3188). Los experimentos in vivo han demostrado que estas nanoesferas pueden atravesar la BHE y localizarse en el cerebro, así como en el hígado y bazo (Selvi, 2008: 3182-3188; Wong-Ekkabut, 2008: 363-368). Hay evidencia también de su continua remoción de estos tejidos durante el tiempo. Aunque los vectores no virales basados en nanopartículas son fáciles de producir y tienen baja inmunogenicidad, hay cuestiones de toxicidad, especificidad, regulación de la expresión del transgén y eficiencia de transfección (introducción de ADN exógeno al interior de una célula eucariótica) que deben ser resueltas antes de su aplicación clínica.

3. Terapia génica cerebral no invasiva con nanopartículas

En terapia génica de enfermedades que afectan a extensas áreas del cerebro, la estrategia preferida sería administrar los vectores por vía sistémica. El cerebro humano contiene del orden de 100 millones de capilares que abarcan una superficie de aproximadamente 12 m2 (Bickel, 2001: 247-279). Prácticamente cada neurona del cerebro tiene su propio capilar, con una distancia media de capilar a neurona de 8-20 μm (Schlageter, 1999: 312-328). La administración de un gen terapéutico a neuronas a través de la membrana capilar sería entonces el método de elección. Sin embargo, hemos visto previamente que la BHE constituye un serio obstáculo a la entrada de macromoléculas en el cerebro. El mecanismo básico acuñado por Pardridge como caballos troyanos moleculares consiste en que una proteína o ADN que para cruzar la BHE es acoplada/conjugada a un ligando que es reconocido por un receptor que está presente en el lado luminal (por ejemplo, de la luz de un vaso) de las células endoteliales capilares del cerebro. Una vez en la sangre, el complejo proteína/ADN- ligando se une al receptor, llevándose a cabo un proceso de endocitosis. Dicho complejo se desplaza seguidamente por el citoplasma endotelial, evitando el sistema endosomal/lisosomal, para salir entonces por el lado abluminal (cerebral).1 Este sistema de transporte de proteínas a través de la BHE se ha empleado con éxito para varios factores neurotróficos, pero también como un tipo de nanopartículas detalladas a continuación (inmunoliposomas pegilados, ILP) que contienen ADN que expresa enzimas y factores neurotróficos de interés terapéutico en la enfermedad de Parkinson (Zhang, 2009: 1059-1063).

Hemos comentado previamente que la BHE posee mecanismos específicos de transporte mediados por receptores, que pueden aprovecharse como vía de transporte de fármacos/genes al cerebro. El receptor de transferrina es particularmente interesante, porque su expresión está restringida a los capilares cerebrales y a las membranas neuronales (Jefferies, 1984: 162-163). Para el direccionamiento cerebral con transportadores coloidales de genes se han utilizado fundamentalmente inmunoliposomas pegilados (ILP). La transferencia de ILP desde la sangre al cerebro se consigue mediante anticuerpos monoclonales dirigidos contra el receptor de transferrina o de insulina, los cuales, al unirse a sus respectivos ligandos, inducen la endocitosis mediada por receptor (transcitosis), incorporando posteriormente los genes exógenos en el parénquima cerebral sin dañar la BHE. Con la administración intravenosa de inmunoliposomas pegilados se ha conseguido expresar un gen antisentido en células de glioma humano (un tipo de tumor del SNC que surge a partir de las células gliales), las cuales habían sido previamente intracerebralmente implantadas en ratón (Zhang, 2002: 183-194). Asimismo, un plásmido de expresión de tirosina hidroxilasa (TH) fue administrado por vía intravenosa (con ILP) en un modelo de enfermedad de Parkinson producido con la neurotoxina 6-hidroxidopamina, apreciándose la normalización de los niveles de expresión de TH en el estriado (una importante región cerebral relacionada con el control motor) (Zhang, 2003: 1-12).

En los últimos años, los dendrímeros de poliamidoamina (PAMAM) han emergido como una clase nueva de polímeros esféricos nanoscópicos que han capturado el interés de investigadores de varias disciplinas científicas. Cada vez resulta más evidente que la PAMAM es un polímero multifuncional con diversas aplicaciones como, por ejemplo, ser vehículos de transferencia para oligonucleótidos antisentido y de ARNsi (Kang, 2005: 2099-2106).2 Además, en sí misma, la PAMAM puede comportarse como un eficiente transportador de genes. Las PAMAM que poseen grupos de superficie amino-primaria tienen la inherente habilidad de asociarse con y condensar ADN, habiéndose empleado eficientemente en transferencia biocompatible de ADN (Kim, 2004: 2487-2492). Una buena eficiencia de transfección se ha conseguido también modificando la superficie de la PAMAM con el aminoácido L-arginina. Las aminas primarias localizadas en la superficie de estos dendrímeros permiten la conjugación con algunos ligandos, como transferrina, para lograr una transferencia génica eficiente dirigida al cerebro. Con este objetivo, se ha desarrollado recientemente un vector para transferencia génica en el cerebro. Recordemos que el receptor de transferrina se expresa en la BHE y en la membrana neuronal. La inyección intravenosa en ratón de un dendrímero nanoscópico altamente ramificado, modificado con transferrina y PEG (un polímero hidrofílico que aumenta la biocompatibilidad del vector) (PAMAM-PEG-Tf), induce una mayor expresión cerebral (casi el doble con respecto a otros vectores dendriméricos) de un gen exógeno encapsulado en dicho vector (Huang, 2007: 1117-1125). No obstante, la aplicación de los diferentes protocolos de transferencia ha estado limitada por la vida media de la proteína en circulación, por la necesidad de inyecciones repetidas o por los bajos rendimientos de transferencia conseguidos en el cerebro. Pero sigue habiendo mucha investigación para dar solución a estas cuestiones.

Recientemente se ha descrito la capacidad de un vector viral [un vector adenoasociado tipo 9 (AAV9)] de atravesar la BHE tras infusión intravenosa (tanto en ratones neonatos como adultos) y transducir amplias regiones del cerebro y de la médula espinal (Foust, 2009: 59-65). Los resultados conseguidos son de gran relevancia, dado el añejo interés por desarrollar vectores que pudiesen cruzar la BHE. De esta manera, la inyección intravenosa de AAV9 en animales neonatos producía un patrón de infección predominantemente neuronal, mientras que en animales adultos dicha inyección afectaba a las células gliales (fundamentalmente astrocitos). Es interesante resaltar que la transducción de células gliales mediada por AAV9 sólo se observaba después de la infusión intravenosa, mientras que la inyección directa en el parénquima cerebral inducía el patrón de infección neuronal clásico. ¿Por qué la transducción glial depende de la ruta de administración? Es posible que los receptores de AAV9 sean expresados sólo en los pies de astrocitos que cubren los vasos sanguíneos cerebrales, restringiendo, por ello, el acceso a las neuronas (Abbott, 2005: 5-23).

Incluso si pudiera abrirse la BHE en el adulto por vía farmacológica, se esperaría aún que las partículas de AAV de 80 nm no la crucen, impidiéndose el libre acceso a receptores potenciales de AAV en el parénquima cerebral (Manfredsson, 2009: 403-405).

El empleo de AAV9 puede tener importantes implicaciones para el tratamiento de varias enfermedades que afectan a extensas áreas del SNC. Entre éstas se encuentran la esclerosis lateral amiotrófica, la enfermedad de Parkinson y la enfermedad de Alzheimer.

Las estrategias actuales de terapia génica de enfermedades neurodegenerativas emplean vectores constitutivos no regulables, por lo que en todos los casos la expresión del transgén, una vez introducido éste en el organismo, escapa a todo control externo -terapia génica no regulable (TGnr)-. Es cierto que con frecuencia los estudios animales muestran que las respuestas terapéuticas inducidas por la TGnr se alcanzan con dosis netamente inferiores a aquellas capaces de inducir efectos colaterales indeseables. De hecho, en las terapias génicas actualmente en ensayos clínicos para la enfermedad de Parkinson, las dosis con las que se pretenden obtener respuestas terapéuticas son netamente inferiores a aquellas para las cuales se esperarían efectos colaterales indeseables, lo cual sugiere un perfil de seguridad aceptable incluso cuando se emplean vectores constitutivos no regulables (aunque la evidencia disponible en humanos sólo consta de muestras relativamente pequeñas de pacientes que sólo han podido ser seguidos durante cortos períodos tras el tratamiento).

A partir de estas consideraciones, y teniendo en cuenta que la extensa información disponible sobre AAV2 (el vector base a partir del que se desarrollaron los restantes serotipos de vectores adenoasociados) evidencia baja toxicidad, la falta de promotores regulables que se hayan probado como seguros y efectivos en pacientes, y las necesidades clínicas apremiantes de numerosas enfermedades neurológicas, algunos autores han sugerido que el uso de vectores regulables para la terapia génica humana es innecesario, y podría resultar incluso inadecuado y hasta potencialmente peligroso (Kordower, 2008: 34-40). Otros autores, no obstante, defienden la necesidad de utilizar promotores regulables siempre que sea posible, permitiendo así un control permanente de la expresión del transgén y que impida la aparición de daños imprevistos (Cress, 2008: 30-33). Existe poca información sobre las consecuencias de la sobreexpresión sostenida (de meses a años) o inespecífica (neuronas y glía) de genes particulares, lo cual es especialmente relevante en el caso de proteínas que, como los factores neurotróficos, disponen de receptores ampliamente distribuidos por el SNC. Por ello, es previsible que en los próximos años los ensayos clínicos de terapia génica comiencen a utilizar vectores regulables -terapia génica regulable (TGr)- (Cress, 2008: 30-33), lo cual permitiría ajustar la expresión del transgén hasta alcanzar su máxima eficacia biológica con el menor riesgo de efectos adversos. Además de suponer un mecanismo de seguridad contra la sobreexpresión descontrolada, la regulación de la actividad del transgén podría permitir una flexibilidad en el control de la respuesta terapéutica, difícilmente alcanzable por otros procedimientos. Las condiciones clínicas de muchos pacientes neurológicos habitualmente cambian con el curso de la enfermedad (Collier, 2007: 56-65), con lo que el ajuste de la dosis de TGr podría resultar clave para su utilidad a largo plazo. Dado que en un número elevado de casos el grado de la lesión es específico para cada paciente, la respuesta a la terapia génica podría variar notablemente entre los distintos pacientes, por lo que la incorporación de un mecanismo a prueba de fallos (en este caso de un vector regulable) podría resultar crítica para el tratamiento de algunos pacientes. Con el desarrollo de biomarcadores podrían comenzar a tratarse enfermedades neurodegenerativas antes de la aparición de sus primeros síntomas. Un sistema regulable posibilitaría el desarrollo de una sola construcción génica, cuya expresión podría ajustarse a las necesidades cambiantes de cada paciente. Además, se están desarrollando sistemas avanzados que permiten la regulación de múltiples transgenes introducidos en el mismo vector y controlados independientemente por diferentes agentes inductores. Con ello se podría desarrollar una TGr compleja, en la que múltiples transgenes (por ejemplo, para varios factores neurotróficos) podrían actuar sinérgicamente sobre distintas dianas terapéuticas. A pesar de las numerosas ventajas potenciales de la TGr, su uso clínico precisa aún de estudios básicos pormenorizados. Por tanto, hay retos pendientes de resolver antes de que la TGr pueda convertirse en una herramienta terapéutica eficiente y segura.

4. El horizonte de la terapia génica

La terapia génica genera mucho debate en todos los ámbitos de la sociedad (políticos, religiosos, jurídicos...) e inquieta al público, debido a numerosas cuestiones éticas. La revolucionaria idea de la terapia génica ofrece la oportunidad de curar enfermedades actualmente incurables, pero al mismo tiempo despierta preocupaciones en el concepto y en su práctica, haciendo que muchos cuestionen sus beneficios. De hecho, consideran que el conocimiento actual no es lo suficientemente bueno como para convencer al mundo de que es un método seguro y efectivo de tratamiento. Sin embargo, la terapia génica ofrece más esperanza que ningún otro tratamiento médico y, por esta razón, no debe darse la espalda a la idea. Como todas las terapias novedosas, la terapia génica cuenta con historias de fracaso, pero también de éxito. El caso más conocido de fracaso es el de Jesse Gelsinger, un paciente con una deficiencia en ornitina transcarbamilasa que fallecía en septiembre de 1999, a los 18 años de edad, debido a que en el ensayo clínico hubo complicaciones diversas que llevaron a un fallo multisistémico (Somia, 2000: 91-99; Yarborough, 2009: 4-5). El factor más importante en el desarrollo de la terapia génica es el hecho de que, para los trastornos genéticos, hay sólo una forma de curar la enfermedad: reemplazar el gen defectuoso con una copia sana -y por lo tanto, la terapia génica es la única esperanza de encontrar curas para tales desórdenes. Ha habido también éxitos, en especial para algunas de las enfermedades genéticas asociadas a la visión, en las inmunodeficiencias y otras enfermedades de la sangre, y en algunos tipos de cáncer (Kay, 2011: 316-328; Liu, 2011: 487-495). El uso de la terapia génica en enfermedades metabólicas, cardiovasculares y neurodegenerativas es también prometedor (Greenberg, 2011: 279-281; Kay, 2011: 316-328; LeWitt, 2011: 309-319; Mandel, 2010: 240-247).

Según  la base dedatos de Wiley-InterScience de 2011 (www.wiley.com//legacy/wileychi/genmed/clinical/), de un total de 1714 ensayos clínicos de terapia génica registrados, Estados Unidos representa casi el 64% de los mismos, seguido del Reino Unido (11,5 %), Alemania (4,6%), Suiza (2,9%) y Francia (2,6%).3 El resto de países, como Australia, Holanda, Bélgica, Canadá y China, no superó el 2% de los ensayos clínicos. En cuanto a las patologías abordadas, las enfermedades cancerosas supusieron un 64,6% de los ensayos clínicos de terapia génica, seguido de las enfermedades cardiovasculares (8,5%), las enfermedades monogénicas (8,3%), enfermedades infecciosas (8,1%) y enfermedades neurológicas (2%). Las enfermedades oculares e inflamatorias constituyeron menos del 2%. Es importante señalar que de todos los vectores empleados en ensayos clínicos, los vectores adenovirales representan un 24,2%, los retrovirus un 20,7%, los vectores de virus adenoasociados un 4,7%, los de virus herpes simplex un 3,3%, y los vectores lentivirales un 2,3%. La administración de ADN desnudo circular (18,7%) y la lipofección (6,4%) fue la categoría de vectores no virales más utilizada en los ensayos clínicos de terapia génica. Cabe indicar también cuáles fueron los tipos de genes transferidos en dichos ensayos: un 20,7% de los mismos fueron antígenos, seguido de citoquinas (18,5%), supresores tumorales (8,8%), genes de suicidio celular (8,4%) y factores de crecimiento (7,5%), entre otros.4 Sin embargo, un 60,7% de los ensayos clínicos de terapia génica comenzaron la fase I, apenas un 3,5% de ellos alcanzaron la fase III, y un 0,1% llegó a la fase IV (sólo dos ensayos), es decir, el seguimiento que se realiza tras su comercialización.

A pesar del escaso porcentaje de ensayos clínicos con capacidad de llegar al público, el desarrollo de nuevos biomateriales y vectores para terapia génica es exponencial. El dogma básico es que los vectores no-virales son menos eficientes pero más seguros. Sin embargo, los vectores virales van ganando cada vez más en seguridad y no-inmunogenicidad (es decir, no generación de respuesta inmune), y los vectores no virales empiezan a asemejarse a los virus, para hacerse más eficientes.

Una vez superados los obstáculos técnicos de la terapia génica, hay temor y preocupación porque la línea entre mejoramiento/refinamiento y terapia termine por desaparecer, y sesgue la percepción de la sociedad de lo que se considera "normal". Es decir, que ya no sea suficiente tratar y curar un proceso tumoral o una enfermedad neurodegenerativa, sino que se plantee también una terapia génica de la estatura, de mejoramiento visual, de actualización de la memoria... y de lo que la imaginación alcance. Qué duda cabe que estas cuestiones suscitan un debate filosófico, ético, político y social importante, al cual deberá darse una respuesta legislativa amparada en un planteamiento profundo de hacia dónde debe evolucionar el ser humano, sin menoscabo de sus derechos universales. Pero siempre hay que preguntarse si para una condición patológica determinada es justificable la aplicación de una terapia génica. Por poner un ejemplo, para detener la hemorragia en los hemofílicos es necesario realizar transfusiones o inyectar plasma que contenga el factor de coagulación que les falta. Vemos que es plausible dicha intervención terapéutica porque: 1) es una patología crónica; 2) el tratamiento convencional es incómodo (vía intravenosa); 2) se precisa administrar factor de coagulación muy periódicamente; 3) los protocolos de profilaxis en niños, sobre todo, pero también en adultos, precisan hasta tres perfusiones por semana; 4) el tratamiento exógeno puede conllevar riesgos fatales; 5) el tratamiento exógeno puede alterar de forma muy significativa el estado inmunológico del paciente; 6) el tratamiento es muy costoso. En cualquier protocolo de terapia génica hay que considerar cuatro aspectos básicos: la eficiencia, la especificidad, la persistencia y la toxicidad de la transferencia génica. De igual manera, debe disponerse de un conocimiento profundo de las cuestiones esenciales, como son: qué enfermedad se va a tratar, qué gene/s administramos, qué vector es el más adecuado, cuál es el órgano diana, y qué tipo de administración emplearemos. Todo ello sin olvidar que no sólo el genoma determina el estado de salud, pues cabe preguntarse por qué los gemelos tienen distinta susceptibilidad a las enfermedades si su dotación genética es idéntica. La epigenética es el estudio de los cambios heredables en la función génica que se producen sin un cambio en la secuencias de bases del ADN. Por tanto, puede considerarse un intérprete entre el ambiente y lo genes, siendo responsable de que el material genético pueda responder a los cambios ambientales sin variar la información que contiene.

La National Science Foundation de Estados Unidos anunciaba en 2004 novedades espectaculares para los próximos 20 años, y remarcaba que se podrá hacer todo lo que la mente humana pueda concebir y más. Solamente con que se lleve a cabo una fracción de las expectativas posibles, la nanotecnología cambiará el mundo en una escala sin precedente en la historia humana. No asoman dudas si uno repasa algunas noticias relacionadas con las aplicaciones nanotecnológicas. Por ejemplo, en enero de 2009 el departamento de Inmunología e Investigación celular de la Universidad de TelAviv publicaba en la revista Science los planos de un Nanosubmarino médico, así como un mapa de su inminente viaje inaugural, con capacidad para ser probado en humanos. Mientras los submarinos flotan por el cuerpo, se pegan a las células objetivo y administran un fármaco basado en el ARN interferente (ARNi). Este nuevo tipo de fármaco puede afectar al mecanismo de ARN defectuoso y reprogramar las células para que funcionen normalmente. Así, se consigue que el ARNi restituya la salud a las células enfermas o haga que las células mueran (como en las células cancerosas). Además, será posible dirigir los nanosubmarinos médicos, controlados por ordenador, hacia diferentes patologías, como el cáncer, la inflamación y las enfermedades neurodegenerativas. Dejando a un lado lo que hasta ahora no dejan de ser noticias médicas sensacionalistas, y a efectos prácticos, queda aún mucho trabajo por hacer. Si estuviésemos hoy en una hipotética consulta médica para un tratamiento de terapia génica y el terapeuta nos preguntara por la elección de una terapia génica con un vector viral o no viral, es fácil imaginar la respuesta. En la frontera inmediata existe un gran reto educativo. En varias universidades ya hay departamentos clínicos de nanociencia, en los que confluyen la física, biología, ingeniería y medicina clínica. El vector ideal para un tratamiento clínico eficiente, seguro y económicamente accesible sólo vendrá del esfuerzo colaborativo entre diferentes profesionales. Dicho vector deberá cumplir los siguientes criterios: 1) que pueda obtenerse a elevada concentración o título; 2) que haya un método fácil y reproducible para su producción; 3) que introduzca el transgén de una manera precisa y estable; 4) que no genere una respuesta inmune en el hospedador; 5) que el transgén pueda ser sometido a regulación externa; 6) que el vector pueda actuar en tipos celulares específicos.

A la revolución de la biología molecular, iniciada en 1953 con el desciframiento de la molécula de ADN, hay que añadir la emergencia en 1976 del sector biotecnológico con la creación de la compañía Genentech. Hacia finales de los 80 del siglo pasado se inicia la revolución genómica, que condujo en 2001 al desciframiento del genoma humano por la compañía Celera. A mediados de la primera década del presente siglo, los sectores académicos empiezan a explorar la convergencia entre varias tecnologías, comenzando entonces otra revolución, la de la convergencia. No cabe duda que en el siglo XX hemos desarrollado especialmente una gran capacidad científica y tecnológica. Sin embargo, podríamos preguntarnos a quién sirve realmente la ciencia y la técnica, y por qué se ha llegado a la situación actual de deterioro del ser humano y del planeta. ¿Qué se está haciendo mal? ¿Qué le falta completar a este desarrollo científico y técnico para poder realmente hablar de un progreso en la humanidad?

A modo de reflexión final, no quisiera terminar sin plantear el observable desajuste entre las necesidades humanas y la innovación científica. Evidentemente, la innovación científica carece de sentido si la gente marginada no puede acceder a los tratamientos o a las tecnologías existentes en la actualidad. Naciones Unidas considera a la nanotecnología como una herramienta importante para lograr sus Objetivos de Desarrollo del Milenio (ODM), adoptados en septiembre del 2000. Éstos eran un compromiso que firmaron unánimemente los 189 países de las Naciones Unidas. Con ellos se comprometían, en nombre de la humanidad, a erradicar el hambre y la pobreza, y a garantizar la salud y la sustentabilidad ambiental, hacia el 2015. Pero el informe que cada año emite Naciones Unidas sobre cómo se van cumpliendo los ODM es desalentador, a pesar del creciente desembolso económico para ayuda humanitaria. El Sur global da cuenta de más del 80% de la población, pero únicamente del 10% de las ventas de medicamentos. América del Norte, Europa y Japón cuentan con más de un 85% del mercado farmacéutico global, mientras que en 2005 África tenía acceso a sólo un 1,1% de dicho mercado. Es también sorprendente que el 90% de la investigación y el desarrollo en salud se dedica a patologías que afectan tan sólo al 10% de la población mundial. Es por estos datos por los que antes me he referido al deterioro del ser humano. Los analistas apuntan que los sistemas de suministro de fármacos habilitados con nanotecnología propiciarán que se garanticen y prolonguen las patentes exclusivas, monopólicas, que cubren los compuestos medicamentosos ya existentes. Según NanoMarkets, esto puede incrementar la rentabilidad, expandir el acopio de propiedad intelectual de una firma y desalentar a la competencia durante los años más valiosos de un medicamento.

Es sabido que los intereses económicos y monetarios siguen estando por encima del ser humano, de la humanidad y del bienestar común. Hoy hemos apartado al ser humano de la vida, y sólo rige el mundo el beneficio económico. Hemos separado la economía de la actividad cotidiana, y hemos dejado las decisiones de la vida cotidiana en manos de la política, de las grandes empresas, etc. Por ejemplo, es evidente que es el capital el que está dirigiendo hoy día las políticas de los países occidentales. La crisis actual no es económica, es una crisis de ética, de valores y de sentido de la existencia. Hemos separado radicalmente las convicciones, los ideales, las vivencias, del proceso económico. Pero el desarrollo científico y tecnológico debe estar al nivel del desarrollo de la conciencia, y ésta, como comentaba José Saramago, constituye la mejor alternativa contra la uniformidad, el pensamiento único y el neoliberalismo.

Conclusiones

El desarrollo de nuevos serotipos de vectores adenoasociados con capacidad de transducir células del SNC tras ser inyectados periféricamente y de una gama de nanopartículas funcionalizadas con capacidad también de cruzar la BHE está teniendo un importante impacto en el desarrollo y uso de herramientas terapéuticas más seguras y eficientes. Habiéndose cruzado el Rubicón, se esperan alcanzar los siguientes retos: por ejemplo, producir vectores eficientes con promotores regulables, reducir la transducción de órganos periféricos, dirigir los vectores a poblaciones neuronales y gliales concretas, y demostrar la reversión de varias enfermedades cerebrales. La administración de medicamentos terapéuticos para el tratamiento de trastornos del SNC es un problema común compartido por farmacólogos y terapeutas de genes, pero el campo de la transferencia génica no invasiva en el SNC puede encontrarse al borde de un excitante paso adelante. En el horizonte de la terapia génica se abre la nanotecnología con el desarrollo de nuevos materiales y la formación de vectores híbridos que mejoren la eficiencia y selectividad. La administración de genes reparados o la sustitución de genes incorrectos son campos en los que los objetos a nanoescala podrían introducirse con éxito, pero sin olvidar el equilibrio que debe haber entre necesidades humanas, innovación científica y conciencia global.

Notas

1 El el sistema endosomal/lisosomal es el aparato responsable de la digestión intracelular de macromoléculas internalizadas del exterior por los diferentes tipos de endocitosis, y de material intracelularmente generado (autofagia).

2 Secuencias cortas de ácidos nucleicos diseñados para unirse a secuencias específicas de ADN y, por tanto, con potencial terapéutico para inhibir la expresión de genes.

3 Los ensayos clínicos son evaluaciones experimentales de un producto, sustancia, medicamento, técnica diagnóstica o terapéutica que, en su aplicación a seres humanos, pretende valorar su eficacia y seguridad.

4 Citoquinas: conjunto de proteínas que regulan interacciones de las células del sistema inmune.

Bibliografía

1 ABBOTT, N. J. (2005): "Dynamics of CNS barriers: evolution, differentiation, and modulation", Cell Mol Neurobiol, vol. 25, no1, pp. 5-23.         [ Links ]

2 BICKEL, U., YOSHIKAWA, T. y PARDRIDGE, W. M. (2001): "Delivery of peptides and proteins through the blood-brain barrier", Adv Drug Deliv Rev, vol. 46, no 1-3, pp. 247-279.         [ Links ]

3 COHEN, H., LEVY, R. J., GAO, J., FISHBEIN, I., KOUSAEV, V., SOSNOWSKI, S.,  SLOMKOWSKI, S. y GOLOMB, G. (2000): "Sustained delivery and expression of DNA encapsulated in polymeric nanoparticles", Gene Ther., vol. 7, no 22, pp. 1896-1905.         [ Links ]

4 COLLIER, T. J., LIPTON, J., DALEY, B. F., PALFI, S., CHU, Y., SORTWELL, C., BAKAY, R. A., SLADEK JR, J. R. y KORDOWER, J. H. (2007): "Aging-related changes in the nigrostriatal dopamine system and the response to MPTP in nonhuman primates: diminished compensatory mechanisms as a prelude to parkinsonism", Neurobiol Dis., vol. 26, no 1, pp. 56-65.

5 CONWELL, C. C. y HUANG, L. (2005): "Recent advances in non-viral gene delivery", Adv. Genet., vol. 53, pp. 3-18.         [ Links ]

6 CRESS, D. E. (2008): "The need for regulatable vectors for gene therapy for Parkinson's disease", Exp. Neurol., vol. 209, no 1, pp. 30-33.         [ Links ]

7 ESSNER, J. J., MCIVOR, R. S. y HACKETT, P. B. (2005): "Awakening gene therapy with sleeping beauty transposons", Curr. Opin. Pharmacol., vol. 5, no 5, pp. 513-519.         [ Links ]

8 FANG, B. C., DAWSON, M., LAI, S. K., WANG, Y. Y., SUK, J. S., YANG, M., ZEITLIN, P.,BOYLE, M. P., FU, J. y HANES, J. (2009): "Biodegradable polymer nanoparticles that rapidly penetrate the human mucus barrier", Proc Natl Acad Sci USA, vol. 106, no 46, pp. 19268-19273.         [ Links ]

9 FOLEY, S., CROWLEY, C., SMAIHI, M., BONFILS, C., ERLANGER, B. F., SETA, P. y LARROQUE, C. (2002): "Cellular localisation of a water-soluble fullerene derivative", Biochem Biophys Res Commun., vol. 294, no 1, pp. 116-119.         [ Links ]

10 FOUST, K. D., NURRE, E., MONTGOMERY, C. L., HERNÁNDEZ, A., CHAN, C. M. y KASPAR, B. K. (2009): "Intravascular AAV9 preferentially targets neonatal neurons and adult astrocytes" Nat Biotechnol, vol. 27, no 1, pp. 59-65.         [ Links ]

11 GREENBERG, A. J., MCCORMICK, J., TAPIA, C. J. y WINDEBANK, A. J. (2011): "Translating gene transfer: a stalled effort", Clin Transl Sci., vol. 4, no 4, pp. 279-281.         [ Links ]

12 HUANG, R. Q., QU, Y. H., KE, W. L., ZHU, J. H., PEI, Y. Y. y JIANG, C. (2007): "Efficient gene delivery targeted to the brain using a transferrinconjugated polyethyleneglycol-modified polyamidoamine dendrimer", FASEB J., vol. 21, no 4, pp. 1117-1125.         [ Links ]

13 JAIN, N. K. y GUPTA, U. (2008): "Application of dendrimer-drug complexation in the enhancement of drug solubility and bioavailability". Expert Opin Drug Metab Toxicol, vol. 4, no 8, pp. 1035-1052.         [ Links ]

14 JEFFERIES, W. A., BRANDON, M. R., HUNT, S. V., WILLIAMS, A. F., GATTER, K. C. y MASON, D. Y. (1984): "Transferrin receptor on endothelium of brain capillaries", Nature, vol. 312, no 5990, pp. 162-163.         [ Links ]

15 KAISER, J. (2002): "Gene therapy. RAC's advice: proceed with caution", Science, vol. 298, no 5601, pp. 2113-2115.

16 KANG, H., DELONG, R., FISHER, M. H. y JULIANO, R. L. (2005): "Tat-conjugated PAMAM  dendrimers as delivery agents for antisense and siRNA oligonucleotides", Pharm Res, vol. 22, no 12, pp. 2099-2106.         [ Links ]

17 KAY, M. A. (2011): "State-of-the-art gene-based therapies: the road ahead". Nat Rev Genet, vol. 12, no 5, pp. 316-328.         [ Links ]

18 KIM, T. I., SEO, H. J., CHOI, J. S., JANG, H. S., BAEK, J. U., KIM, K. y PARK, J. S. (2004): "PAMAM-PEG-PAMAM: novel triblock copolymer as a biocompatible and efficient gene delivery carrier", Biomacromolecules, vol. 5, no 6, pp. 2487-2492.         [ Links ]

19 KORDOWER, J. H. y OLANOW, C. W. (2008): "Regulatable promoters and gene therapy for Parkinson's disease: is the only thing to fear, fear itself?" Exp Neurol, vol. 209, no 1, pp. 34-40.         [ Links ]

20 KREUTER, J., RAMGE, P., PETROV, V., HAMM, S., GELPERINA, S. E., ENGELHARDT, B., ALYAUTDIN, R., VON BRIESEN, H. y BEGLEY, D. J. (2003): "Direct evidence that polysorbate-80-coated poly(butylcyanoacrylate) nanoparticles deliver drugs to the CNS via specific mechanisms requiring prior binding of drug to the nanoparticles", Pharm Res, vol. 20, no 3, pp. 409-416.         [ Links ]

21 LAVAN, D. A., MCGUIRE, T. y LANGER, R. (2003): "Small-scale systems for in vivo drug delivery", Nat Biotechnol, vol. 21, no 10, pp. 1184-1191.         [ Links ]

22 LEWITT, P. A., REZAI, A. R., LEEHEY, M. A., OJEMANN, S. G., FLAHERTY, A. W., ESKANDAR, E. N., KOSTYK, S. K., THOMAS, K., SARKAR, A., SIDDIQUI, M. S., TATTER, S. B., SCHWALB, J. M., POSTON, K. L., HENDERSON, J. M., KURLAN, R. M., RICHARD, I. H., VAN METER, L., SAPAN, C. V., DURING, M. J., KAPLITT, M. G. y FEIGIN, A. (2011): "AAV2-GAD gene therapy for advanced Parkinson's disease: a double-blind, sham-surgery controlled, randomised trial", Lancet Neurology, vol. 10, no 4, pp. 309-319.         [ Links ]

23 LIU, M. M., TUO, J. y CHAN, C. C. (2011): "Republished review: Gene therapy for ocular diseases", Postgrad Med J., vol. 87, no 1029, pp. 487-495.         [ Links ]

24 LOCH-NECKEL, G. y KOEPP, J. (2010): "La barrera hematoencefálica y la administración de medicamentos en el sistema nervioso central", Rev Neurol, vol. 51, no 3, pp. 165-174.         [ Links ]

25 LUO, D. y SALTZMAN, W. M. (2000): "Enhancement of transfection by physical concentration of DNA at the cell surface", Nat Biotechnol, vol. 18, no 8, pp. 893-895.         [ Links ]

26 MANDEL, R. J. (2010): "CERE-110, an adeno-associated virus-based gene delivery vector expressing human nerve growth factor for the treatment of Alzheimer's disease", Curr Opin Mol Ther., vol. 12, no 2, pp. 240-247.         [ Links ]

27 MANFREDSSON, F. P., RISING, A. C. y MANDEL, R. J. (2009): "AAV9: a potential blood-brain barrier buster", Mol Ther, vol. 17, no 3, pp. 403-405.         [ Links ]

28 MEJÍA-TOIBER, J., CASTILLO, C. G. y GIORDANO, M. (2009): "Terapia celular y terapia génica ex vivo: avances en el tratamiento de enfermedades del sistema nervioso central", Rev Neurol, vol. 49, no 9, pp. 483-489.         [ Links ]

29 NAHAR, M., DUTTA, T., MURUGESAN, S., ASTHANA, A., MISHRA, D., RAJKUMAR, V., TARE, M., SARAF, S. y JAIN, N. K. (2006): "Functional polymeric nanoparticles: an efficient and promising tool for active delivery of bioactives", Crit Rev Ther Drug Carrier Syst, vol. 23, no 4, pp. 259-318.

30 PATHAK, A., PATNAIK, S. y GUPTA, K. C. (2009): "Recent trends in non-viral vector-mediated gene delivery", Biotechnol J, vol. 4, no 11, pp.1559-1572.         [ Links ]

31 SAHOO, S. K. y LABHASETWAR, V. (2003): "Nanotech approaches to drug delivery and imaging", Drug Discov Today, vol. 8, no 24, pp. 1112-1120.         [ Links ]

32 SCHLAGETER, K. E., MOLNAR, P., LAPIN, G. D. y GROOTHUIS, D. R. (1999): "Microvessel organization and structure in experimental brain tumors: microvessel populations with distinctive structural and functional properties", Microvasc Res, vol. 58, no 3, pp. 312-328.         [ Links ]

33 SELVI, B. R., JAGADEESAN, D., SUMA, B. S., NAGASHANKAR, G., ARIF, M.,BALASUBRAMANYAM, K., ESWARAMOORTHY, M. y KUNDU. T. K. (2008): "Intrinsically fluorescent carbon nanospheres as a nuclear targeting vector: delivery of membrane impermeable molecule to modulate gene expression in vivo", Nano Lett, vol. 8, no 10, pp. 3182-3188.         [ Links ]

34 SOMIA, N. y VERMA, I. M. (2000): "Gene Therapy: trials and tribulations", Nature Rev Genetics, vol.1, no 2, pp. 91-99.         [ Links ]

35 SOPPIMATH, K. S., AMINABHAVI, T. M., KULKARNI, A. R. y RUDZINSKI, W. E. (2001): "Biodegradable polymeric nanoparticles as drug delivery devices", J Control Release, vol. 70, no 1-2, pp.1-20.         [ Links ]

36 TENENBAUM, L., CHTARTO, A., LEHTONEN, E., BLUM, D., BAEKELANDT, V., VELU, T.,BROTCHI, J. y LEVIVIER, M. (2002): "Neuroprotective gene therapy for Parkinson's disease",  Curr Gene Ther, vol. 2, no 4, pp. 451-483.         [ Links ]

37 THOMAS, C.E., EHRHARDT, A. y KAY, M.A. (2003): "Progress and problems with the use of viral vectors for gene therapy", Nat Rev Genet, vol. 4, no 5, pp. 346-358.         [ Links ]

38 WONG-EKKABUT, J., BAOUKINA, S., TRIAMPO, W., TANG, I. M., TIELEMAN, D. P. y MONTICELLI, L. (2008): "Computer simulation study of fullerene translocation through lipid membranes", Nat Nanotechnol, vol. 3, no 6, pp. 363-368.         [ Links ]

39 YARBOROUGH, M. y SHARP, R. R. (2009): "Public trust and research a decade later: what have we learned since Jesse Gelsinger's death?" Mol Genet Metab, vol. 97, no 1, pp. 4-5.         [ Links ]

40 ZHANG, Y., CALON, F., ZHU, C., BOADO, R. J. y PARDRIDGE, W. M. (2003): "Intravenous nonviral gene therapy causes normalization of striatal tyrosine hydroxylase and reversal of motor impairment in experimental parkinsonism", Hum Gene Ther, vol.14, no 1, pp. 1-12.         [ Links ]

41 ZHANG, Y., JEONG LEE, H., BOADO, R. J. y PARDRIDGE, W. M. (2002): "Receptor mediated delivery of an antisense gene to human brain cancer cells", J Gene Med, vol. 4, no 2, pp. 183-194.         [ Links ]

42 ZHANG, Y. y PARDRIDGE, W. M. (2009): "Near complete rescue of experimental Parkinson's disease with intravenous, non-viral GDNF gene therapy", Pharm. Res, vol. 26, no 5, pp. 1059- 1063.         [ Links ]

^rND^sABBOTT^nN. J.^rND^sBICKEL^nU.^rND^sYOSHIKAWA^nT.^rND^sPARDRIDGE^nW. M.^rND^sCOHEN^nH.^rND^sLEVY^nR. J.^rND^sGAO^nJ.^rND^sFISHBEIN^nI.^rND^sKOUSAEV^nV.^rND^sSOSNOWSKI^nS.^rND^sSLOMKOWSKI^nS.^rND^sGOLOMB^nG.^rND^sCOLLIER^nT. J.^rND^sLIPTON^nJ.^rND^sDALEY^nB. F.^rND^sPALFI^nS.^rND^sCHU^nY.^rND^sSORTWELL^nC.^rND^sBAKAY^nR. A.^rND^sSLADEK^nJ. R.^rND^sKORDOWER^nJ. H.^rND^sCONWELL^nC. C.^rND^sHUANG^nL.^rND^sCRESS^nD. E.^rND^sESSNER^nJ. J.^rND^sMCIVOR^nR. S.^rND^sHACKETT^nP. B.^rND^sFANG^nB. C.^rND^sDAWSON^nM.^rND^sLAI^nS.^rND^sWANG^nY. Y.^rND^sSUK^nJ. S.^rND^sYANG^nM.^rND^sZEITLIN^nP.^rND^sBOYLE^nM. P.^rND^sFU^nJ.^rND^sHANES^nJ.^rND^sFOLEY^nS.^rND^sCROWLEY^nC.^rND^sSMAIHI^nM.^rND^sBONFILS^nC.^rND^sERLANGER^nB. F.^rND^sSETA^nP.^rND^sLARROQUE^nC.^rND^sFOUST^nK. D.^rND^sNURRE^nE.^rND^sMONTGOMERY^nC.^rND^sHERNÁNDEZ^nA.^rND^sCHAN^nC. M.^rND^sKASPAR^nB. K.^rND^sGREENBERG^nA. J.^rND^sMCCORMICK^nJ.^rND^sTAPIA^nC. J.^rND^sWINDEBANK^nA. J.^rND^sHUANG^nR. Q.^rND^sQU^nY. H.^rND^sKE^nW. L.^rND^sZHU^nJ. H.^rND^sPEI^nY. Y.^rND^sJIANG^nC.^rND^sJAIN^nN. K.^rND^sGUPTA^nU.^rND^sJEFFERIES^nW. A.^rND^sBRANDON^nM. R.^rND^sHUNT^nS. V.^rND^sWILLIAMS^nA. F.^rND^sGATTER^nK. C.^rND^sMASON^nD. Y.^rND^rND^sKANG^nH.^rND^sDELONG^nR.^rND^sFISHER^nM. H.^rND^sJULIANO^nR. L.^rND^sKAY^nM. A.^rND^sKIM^nT. I.^rND^sSEO^nH. J.^rND^sCHOI^nJ. S.^rND^sJANG^nH. S.^rND^sBAEK^nJ. U.^rND^sKIM^nK.^rND^sPARK^nJ. S.^rND^sKORDOWER^nJ. H.^rND^sOLANOW^nC. W.^rND^sKREUTER^nJ.^rND^sRAMGE^nP.^rND^sPETROV^nV.^rND^sHAMM^nS.^rND^sGELPERINA^nS. E.^rND^sENGELHARDT^nB.^rND^sALYAUTDIN^nR.^rND^sVON BRIESEN^nH.^rND^sBEGLEY^nD. J.^rND^sLAVAN^nD. A.^rND^sMCGUIRE^nT.^rND^sLANGER^nR.^rND^sLEWITT^nP. A.^rND^sREZAI^nA. R.^rND^sLEEHEY^nM. A.^rND^sOJEMANN^nS. G.^rND^sFLAHERTY^nA. W.^rND^sESKANDAR^nE.^rND^sKOSTYK^nS. K.^rND^sTHOMAS^nK.^rND^sSARKAR^nA.^rND^sSIDDIQUI^nM. S.^rND^sTATTER^nS. B.^rND^sSCHWALB^nJ. M.^rND^sPOSTON^nK. L.^rND^sHENDERSON^nJ. M.^rND^sKURLAN^nR.^rND^sRICHARD^nI. H.^rND^sVAN METER^nL.^rND^sSAPAN^nC. V.^rND^sDURING^nM. J.^rND^sKAPLITT^nM. G.^rND^sFEIGIN^nA.^rND^sLIU^nM. M.^rND^sTUO^nJ.^rND^sCHAN^nC. C.^rND^sLOCH-NECKEL^nG.^rND^sKOEPP^nJ.^rND^sLUO^nD.^rND^sSALTZMAN^nW. M.^rND^sMANDEL^nR. J.^rND^sMANFREDSSON^nF. P.^rND^sRISING^nA. C.^rND^sMANDEL^nR. J.^rND^sMEJÍA-TOIBER^nJ.^rND^sCASTILLO^nC. G.^rND^sGIORDANO^nM.^rND^sNAHAR^nM.^rND^sDUTTA^nT.^rND^sMURUGESAN^nS.^rND^sASTHANA^nA.^rND^sMISHRA^nD.^rND^sRAJKUMAR^nV.^rND^sTARE^nM.^rND^sSARAF^nS.^rND^rND^sPATHAK^nA.^rND^sPATNAIK^nS.^rND^sGUPTA^nK. C.^rND^sSAHOO^nS. K.^rND^sLABHASETWAR^nV.^rND^sSCHLAGETER^nK. E.^rND^sMOLNAR^nP.^rND^sLAPIN^nG. D.^rND^sGROOTHUIS^nD. R.^rND^sSELVI^nB. R.^rND^sJAGADEESAN^nD.^rND^sSUMA^nB. S.^rND^sNAGASHANKAR^nG.^rND^sARIF^nM.^rND^sBALASUBRAMANYAM^nK.^rND^sESWARAMOORTHY^nM.^rND^sKUNDU^nT. K.^rND^sSOMIA^nN.^rND^sVERMA^nI. M.^rND^sSOPPIMATH^nK. S.^rND^sAMINABHAVI^nT. M.^rND^sKULKARNI^nA. R.^rND^sRUDZINSKI^nW. E.^rND^sTENENBAUM^nL.^rND^sCHTARTO^nA.^rND^sLEHTONEN^nE.^rND^sBLUM^nD.^rND^sBAEKELANDT^nV.^rND^sVELU^nT.^rND^sBROTCHI^nJ.^rND^sLEVIVIER^nM.^rND^sTHOMAS^nC.E.^rND^sEHRHARDT^nA.^rND^sKAY^nM.A.^rND^sWONG-EKKABUT^nJ.^rND^sBAOUKINA^nS.^rND^sTRIAMPO^nW.^rND^sTANG^nI. M.^rND^sTIELEMAN^nD. P.^rND^sMONTICELLI^nL.^rND^sYARBOROUGH^nM.^rND^sSHARP^nR. R.^rND^sZHANG^nY.^rND^sCALON^nF.^rND^sZHU^nC.^rND^sBOADO^nR. J.^rND^sPARDRIDGE^nW. M.^rND^sZHANG^nY.^rND^sJEONG LEE^nH.^rND^sBOADO^nR. J.^rND^sPARDRIDGE^nW. M.^rND^sZHANG^nY.^rND^sPARDRIDGE^nW. M.^rND^nGabriel^sBello Reguera^rND^nGabriel^sBello Reguera^rND^nGabriel^sBello Reguera

DOSSIER-ARTÍCULOS

El riesgo moral: los límites de la vida humana y la democratización de la ética

Moral risk: the limits of human life and the democratization of ethics

 

Gabriel Bello Reguera*

* Catedrático de Filosofía Moral, Facultad de Filosofía de la Universidad de La Laguna, Tenerife. Correo electrónico: gabello@ull.es.


El riesgo moral es el hecho de estar expuestos a que una acción, una práctica o conducta salga mal en sentido moral, no técnico. Este trabajo reflexiona sobre el riesgo moral producido por las nuevas prácticas biotecnológicas. La bioética (o ética de la vida humana) se enfrenta a dilemas morales producidos por la capacidad técnica de las nuevas tecnologías. Para ello, se debe situar correctamente el debate entre la biología precientífica y la biología científica, buscando modos democráticos de dirimir las controversias generadas. Del análisis de la fuerza o poder performativo del lenguaje, cabe concluir que lo performado es la identidad humana como identidad moral, diferenciada de su identidad biológica o genómica. Dicho de otro modo: la humanidad como norma moral de sí misma, como línea roja ética que opera de criterio para valorar o evaluar -mediante juicios de valor positivos o negativos- las acciones, prácticas, conductas, instituciones y personas que afectan a la humanidad de otros seres humanos y, de este modo, elegir entre unas y otras. Ahora bien, como estas valoraciones están cargadas de significación y efectividad políticas, el poder performativo del lenguaje puede ser caracterizado no sólo como bioético (o bioética), sino también como biopolítico (o biopolítica).

Palabras clave: Riesgo moral; Vida; Democratización; Bioética

Moral risk occurs when one is exposed to an action, practice or behaviour that turns out poorly in the moral (and not technical) sense. This work reflects on the moral risk produced by new biotechnological practices. Bioethics (or ethics of human life) deals with the moral dilemmas produced by the technical capacity of new technologies. To do so, the debate between pre-scientific biology and scientific biology must be properly framed, searching for democratic ways to mediate the controversies that arise. From the analysis of the performative power or force of language, it can be concluded that the performed is the human identity as a moral one, differentiated from its biological or genetic identity. In another words: humanity as its own moral norm, as an ethical redline which serves as a criterion to evaluate -through positive or negative value judgements- the actions, practices, conducts, institutions and people who affect the humanity of other human beings and, in this way, choose between them. As these evaluations are charged with political meaning and effectiveness, the performative power of language can be characterised not only as bioethical (or bioethics), but also as biopolitical (or biopolitics).

Key words: Moral risk; Life; Democratization; Bioethics


1. El riesgo moral y nosotros

El riesgo moral es el hecho de estar expuestos a que una acción, una práctica o conducta salga mal en sentido moral, no técnico. Estar expuestos, pues, a hacer el mal de modo intencionado y consciente, desde la libertad y la responsabilidad (mal radical o demoníaco), o bien de forma no intencionada o inconsciente (mal banal o "efecto colateral"). En el primer caso el malhechor conoce el juicio moral negativo de que es objeto la acción, práctica o conducta a realizar, pero aun así decide llevarla a cabo; en el segundo, el malhechor padece un error de juicio. En ambos, el efecto final es el fracaso moral del arriesgado, el agente, signifique lo que signifique esa expresión. En todo caso, la identificación o determinación del fracaso exige contar con criterios bien definidos en la comunidad moral en la que haya tenido lugar el comportamiento objeto del juicio moral negativo: reglas o normas morales claras y distintas aceptadas en general. En caso contrario -la existencia de más de un código moral en funcionamiento- los criterios éticos se pluralizan y el fracaso se relativiza hasta el punto de que un fracaso moral en un contexto dado, puede ser un éxito en otro diferente. Por ejemplo, la violencia que puede ser definida, según el contexto, como terrorismo o como guerra justa; en el primer caso es vista como un fracaso, en el segundo, como un éxito. O el aborto y la eutanasia: en las comunidades religiosas constituyen un fracaso absoluto, mientras que en las laicas son un éxito relativo.

La relativización de los criterios morales abre una encrucijada que domina hoy gran parte de la teoría ética. Por un lado, parece ser la que configura hoy la percepción moral de la humanidad, dado el desprestigio crítico de cualquier absolutismo por sus connotaciones autoritarias y totalitarias, así como la connivencia del universalismo con el imperialismo (Bello Reguera, 2011). Por otro lado, en cambio, su efecto inmediato parece ser la pérdida de la exigencia fuerte e inapelable de mantener la guardia ante el riesgo y el fracaso morales en los diversos ámbitos de la vida social, política y cultural. Conviene, por lo tanto, aclarar un poco más la situación mediante la distinción entre relatividad y relativismo. El relativismo consiste, en líneas generales, en que los criterios y los juicios morales son relativos a los diversos contextos históricos y culturales, de lo cual se deduce que pueden ser contradictorios entre sí: por ejemplo la mutilación genital femenina es juzgada positivamente en ciertas sociedades africanas y negativamente en la nuestra. La relatividad, por su parte, mantiene la contextualización de los criterios y juicios morales pero añade un elemento: la recontextualización (Rorty, 1996:131), que permite redefinir o redescribir los límites y fronteras que delimitan un contexto dado y, con ellos, los criterios y los juicios morales que incluye.

Ahora bien, la redefinición o redescripción de nuestros contextos morales es la redefinición o redescripción de nuestras identidades morales, de nuestras humanidades y, a fin de cuentas, de nosotros mismos. Y esto es, a juicio del filósofo norteamericano Richard Rorty, "lo más importante que podemos hacer" (Rorty, 1983: 223), afirmación que roza la paradoja porque concede a la relatividad de nuestras prácticas lingüísticas la significación moral más valiosa a la que podemos aspirar en comparación con cualesquiera otras. Al tratarse de re-descripción (y no "descripción") implica repetición y la repetición temporalidad que cancela la vieja figura de la definición metafísica, idealista, esencialista o naturalista como referente único y último de nosotros mismos: de nuestra identidad humana o humanidad. La redescripción no nos proporciona un "nosotros" único encerrado en una identidad última e inmodificable. Se trata, más bien, de un procedimiento que no permite trazar el límite o frontera que define el interior y el exterior de nuestra identidad -nosotros mismos- según la lógica idealista de las ideas rígidamente claras y rígidamente distintas o diferenciadas. De todo lo cual se sigue que carece de sentido una autoridad intelectual, moral o política capaz de llevarlo a cabo, a no ser una que lo imponga por la violencia física o simbólica.

Todo lo cual aproxima la relatividad de nuestras prácticas lingüísticas de redefinición y redescripción a lo que, según algunos sociólogos de la globalización, es la condición liquida del mundo actual: de sus límites o fronteras territoriales, conceptuales o normativas, definida en oposición a la solidez de los valores, los principios y las normas morales a los que estamos más o menos acostumbrados (Bauman, 2007). Pues bien, este marco teórico, entre filosófico y sociológico, puede ser visto como la Caja de Pandora de los riesgos y los fracasos morales a los que nos exponemos al no disponer de límites y fronteras morales únicas y universales regidas por el binarismo moral clásico que delimita el bien del mal de una vez para siempre.

2. El riesgo moral y las prácticas biotecnológicas

Uno de estos ámbitos en los que el riesgo moral está hoy al rojo vivo es el de la bio-ética, la ética de la vida humana en su acepción biológica: evolutiva, ecológica, genética y neurológica diferenciada de la (supuesta) vida del espíritu, el alma o la mente que constituía el objeto preferente de la ética tradicional. Una vida, la corporal u orgánica, cuyos riesgos morales afectan a su nacimiento (formas de nacer), a su muerte (formas de morir) y a su transcurso más o menos saludable (formas de vivir más o menos medicalizadas). O a la composición misma de la vida humana o humanidad: si un embrión o un feto menor de 14 semanas, o un enfermo terminal en estado vegetativo, se componen de los mismos elementos que la vida humana de feto de 30 semanas, un niño de 3 años o un adulto de 24, 38 o 47 años. De esta composición puede depender, por ejemplo, el trazado de los límites de la vida humana a partir una definición o delimitación de su significado.

Esta reorientación contemporánea de la ética a la vida del cuerpo y su materialidad bioorgánica tiene que ver con la intensificación de los riesgos morales planteados por las técnicas biogenéticas y biomédicas derivadas de la biología molecular o bioquímica, a partir de la decodificación del código genético; primero al descifrar la estructura molecular del ADN en 1953 y después la del genoma humano en el cambio de siglo. Las técnicas en cuestión han dado lugar a prácticas del mismo tenor que ya forman parte de nuestra vida social y cultural. Para tener una idea aproximada de ellas, basta mencionar algunas que aparecen en los medios de comunicación complementadas con otras que proporciona la literatura especializada.

Comenzaré por el aborto, objeto de diversas decisiones políticas y legislativas. Por ejemplo la que protagonizó el gobierno socialista de España en los últimos años, con la oposición de la derecha moral, religiosa y política, liderada por la parte española de la Teocracia Vaticana, la Conferencia Episcopal, que ha mostrado su oposición en los medios de comunicación y en manifestaciones multitudinarias, que movilizaron cientos de autobuses y varios aviones con la consiguiente difusión mediática.1Uno de cuyos efectos es la reciente promesa del recién elegido presidente conservador de modificar la ley socialista avalada por las declaraciones del Cardenal Rouco en las que sugiere la modificación de la ley del aborto.2También fue mediático, aunque menos, el aborto de una niña brasileña de nueve años, legitimado por el entonces presidente de la república, Lula da Silva, que suscitó la protesta de la jerarquía católica brasileña con el argumento de que en cuestiones de teología el presidente de la república debe consultar a los expertos, dando a entender que la ética se reduce a la teología moral católica y es monopolio de la jerarquía eclesiástica. Un tercer caso fue la eutanasia de la italiana Eluana Englaro, en estado vegetativo y en grado de degradación orgánica avanzada, seguida de la protesta airada de la Teocracia Vaticana que trató al padre de Eluana de asesino y movilizó al gobierno de Berlusconi a legislar sobre la cuestión.3Otro más, el hecho de que el ya presidente Obama incluyera en su primera campaña electoral la promesa de despenalizar la investigación con células embrionarias con el consiguiente rechazo de la derecha republicana y evangélica. En otro registro, cabe mencionar la decisión de unos padres españoles de concebir un niño para, entre otras cosas, curar a su hermano enfermo (ambas cosas han tenido lugar: cfr. prensa del verano de 2009), con las mismas protestas por parte de los mismos y las mismas. O los viajes a EEUU de parejas españolas para elegir el sexo de su próximo bebé utilizando la técnica del diagnóstico preimplantacional, que también abre la posibilidad de eliminar malformaciones congénitas y mejorar la dotación genética natural, efecto del azar. Sin que debamos olvidarnos de la clonación que, experimentada repetidamente en animales, en algún momento estuvo entre las posibilidades para que las parejas infértiles pudieran optar a descendientes clonados a partir de los genes paternos, ni de la clonación no reproductiva de las "células madre" con el fin de tratar enfermedades degenerativas a partir de células no degeneradas del propio enfermo.4

Estas prácticas biogenéticas, sin embargo, parece que han perdido "actualidad" y que han sido sustituidas en la atención general por otras derivadas de las neurociencias, que abren la posibilidad de intervenir en las estructuras neurológicas del cerebro mediante técnicas quirúrgicas y farmacológicas (Racine, 2010, caps. 7-8; Evers, 2009: 13). O las que podrían seguirse de la nanotecnología y sus aun tempranas aplicaciones (De Cózar, 2011). O bien, finalmente, las prácticas interactivas propiciadas por las redes de comunicación digital que, según algunos analistas, están produciendo modificaciones en las estructuras sinápticas de nuestro cerebro, registradas por investigaciones neurológicas; cuyo efecto parece ser la superficialidad y levedad de las actividades mentales, debidas a la extensión del espacio informativo y a la cantidad de información a procesar, que contrasta con la mayor intensidad del pensamiento promovido por la cultura del libro tradicional (Carr, 2010:143-144).

3. Eugenesia: la humanidad en juego

Las prácticas biotecnológicas derivadas de la biogenética constituyen la base de la "eugenesia liberal", que conviene definir mínimamente. El término "eugenesia" significa "buena génesis" o "buen nacimiento" (igual que "eutanasia" significa buena muerte o muerte digna), salvo para quienes están en contra, que significa lo contrario debido a la eugenesia nazi. El método de la eugenesia consiste en eliminar los genes negativos y favorecer los positivos, y ni su diseño teórico ni sus primeros pasos fueron alemanes. Su proyecto teórico proviene de Inglaterra, donde lo concibió un primo de Darwin, Francis Galton, a finales del siglo XIX, y su desarrollo inicial, ya un tanto bárbaro, tuvo lugar en los Estados Unidos en las primeras décadas del siglo XX.5La eugenesia liberal constituye un resurgimiento del proyecto eugenésico originario que tiene lugar a partir de la decodificación del ADN y se desarrolla durante la segunda mitad del siglo pasado con una diferencia significativa: a su favor operan los avances en la genética molecular que proporciona la seguridad científica y técnica en el manejo de los genes, de la que carecía la eugenesia inicial. Para lo que importa aquí, la eugenesia liberal se puede cifrar en dos rasgos. El primero es su mercantilización: la relación entre la oferta de las técnicas y servicios genéticos, y la demanda de los mismos por parte de los compradores potenciales (como las parejas españolas que viajan a los Estados Unidos a comprar el servicio técnico que les permite elegir el sexo de su futuro bebé). Entramos en la era del mercado genético o biogenético. El segundo es la libertad individual de elegir o decidir comprar y vender como el valor moral propio de las democracias neoliberales, que legitima las prácticas eugenésicas: libertad de elegir el sexo de un hijo, libertad de vender la técnica que lo hace posible y libertad de comprarla.

La eugenesia liberal de mercado, de impronta norteamericana, contrasta con la eugenesia política o institucional sugerida por el filósofo alemán P. Sloterdijk en un famoso opúsculo (Sloterdijk, 2000) donde propone sustituir la educación humanista clásica, basada en la escritura y la lectura, que él cree fracasada ante la irreductibilidad de la violencia infrahumana, por la ingeniería genética, que eventualmente podría erradicar la agresividad humana en su raíz biológica. El resultado final sería la sustitución de la humanidad humanista que conocemos y encarnamos por una humanidad posthumanista, cuya génesis y estructura es biotecnológica.

La propuesta de Sloterdijk, sin embargo, consiste en una contradicción ética de gran calado que conviene explicitar. Por un lado, se apoya en la ética progresiva o evolutiva aplicada a la esfera tecnológica cuyo imperativo básico es "todo lo que sea factible tecnológicamente debe hacerse".6Del cual se sigue que cultura humanista, que había sustituido a la biología como vanguardia evolutiva, deberá ser sustituída, a su vez, por la ingeniería genética. Todo ello en el supuesto de que se trata de progreso humano. Por otro lado, en cambio, el abandono de la educación humanista y su núcleo ético da paso a la cría y domesticación de animales en las que Sloterdijk cree entrever, siguiendo ciertos pasajes de Nietzsche, Platón y Heidegger, la matriz misma del humanismo: el "folclore pastoral" o la "politología pastoral" europeos, asociados a la creencia de que "los hombres son animales de los cuales unos crían a sus semejantes mientras que los otros son criados",, lo cual implica que "el hombre significa para el hombre la máxima violencia" (Sloterdijk, 2000: 69 y 71). La cuestión es arriesgada debido a la ambigüedad de Sloterdijk. Es de suponer que "la reforma genética de las propiedades del género" o la "antropotécnica orientada a la planificación de las características" de la especie (Sloterdijk, 2000: 62-63) se orienten a erradicar "la máxima violencia que el hombre significa para el hombre". Pero no especifica quién y de qué modo decidiría y administraría la ingeniería genética implicada en ello. Y a quiénes se aplicaría. Lo cual alienta la sospecha de que podría tratarse de la "politología pastoral" de siempre, sobre todo después de leer sus referencias a la figura platónica de un "super-humanista cuya tarea sería la "planificación de propiedades de una élite que habría que criar expresamente para el bien de todos" (Sloterdijk, 2000: 69).

Si este análisis es verosímil, es preciso reafirmar la idea de que el progreso tecnológico, aliado ingenuamente con el determinismo genético, no sólo no resuelve los problemas morales y políticos de la violencia, como sostiene Sloterdijk, sino que puede empeorarlos hasta hacernos recordar el horror. En otras palabras: en lugar de un progreso moral puede suponer un regreso a estadios animales, prehumanos o, peor aún, a situaciones abiertamente deshumanizadoras.

Tanto la eugenesia liberal o de mercado, economicista, como la eugenesia política o institucional de Sloterdijk plantean riesgos morales que se han apresurado a denunciar autores como Habermas o Sandel. Los dos se declaran en contra del "supermercado genético", contra la "perfección genética" y, en el caso del primero, contra la transformación eugenésica de la humanidad "humanista". Habermas -que reacciona contra Sloterdijk- advierte sobre el riesgo de que la eugenesia acabe con la "autopercepción ética de la especie", de significado transcultural, si bien con una carga fuerte de neoilustración europea (Habermas, 2002). Lo cual supondría entrar en una humanidad no sólo posthumanista, como sugiere Sloterdijk, sino también postmoral o transmoral. Por su parte, M. Sandel advierte sobre el riesgo de perder la visión de "la vida como un don" (aunque no dice a cargo de quién) para ser sustituida por la vida como un producto biotecnológico a la carta, y se pronuncia por la preservación de valores éticos tradicionales como la modestia, la humildad y la responsabilidad (Sandel, 2007).

Más allá del acuerdo o desacuerdo, los pronunciamientos de Habermas y Sandel apuntan a lo que parece ser el núcleo de la bioética o, más propiamente, de la ética de la bioética: la humanidad. Pero de una humanidad ética: axiológica, valorativa y normativamente diferenciada de la humanidad biológica que actúa o debería actuar como línea roja que las prácticas biotecnológicas -genéticas, neurológicas y nanotecnológicas- no deberían traspasar sin actuar mal o hacer el mal: sin fracasar moralmente. En tal caso, el riesgo moral al que se exponen no es otro que el de violar los límites y fronteras de la humanidad, lo que puede situarse entre la transhumanidad (avanzar más allá de la humanidad presente: ¿cuál?) y la deshumanización (regresar a estadios prehumanos o inhumanos).

La función normativa de la humanidad, con sus ventajas e inconvenientes, puede ilustrarse con los derechos humanos y su condición normativa, sobre lo que parece haber acuerdo generalizado. Pero las cosas no son tan sencillas. Dejando al margen la hipocresía que suponen las contradicciones entre la teoría (ética) y la práctica (política) de los derechos humanos, su propia consistencia filosófica dista de estar consolidada. En las cuestiones bioéticas como el aborto, la eutanasia, la investigación con células madre y la eugenesia en general, los derechos humanos apenas son mencionados, porque lo que está en juego es lo que ellos presuponen: la definición clara y distinta de la humanidad o identidad humana. El problema está, sin embargo, en que esa definición no existe más allá o por encima de las culturas religiosas o laicas, ni siquiera más allá de las diversas culturas filosóficas.

Al abordar la definición de la humanidad es preciso comenzar diferenciando una humanidad descriptiva y otra normativa o axiológica (Macintyre, 1987). La primera nos dice lo que es la humanidad de hecho, en su materialidad bio-orgánica, pero no nos dice lo que es una vida humana buena o valiosa que pudiera operar como el ideal normativo universal de cualquier vida humana. Para eso necesitamos una definición axiológica o ética (Hottois, 1984: 27) que no se reduce a los predicados biológicos o culturales en su particularidad. Es verdad que la vida humana axiológica o ética suele definirse como digna, en la que la dignidad es el valor supremo, y que esta definición parece aceptada por todas las culturas religiosas o filosóficas. Pero es preciso reconocer inmediatamente que cada cultura particular particulariza el significado de la dignidad, lo cual es introducir la diferencia en su unidad. En la cultura filosófica el significado de la dignidad se diversifica según las distintas corrientes y sus marcos teóricos: unos la definen en función de la racionalidad, otros del reconocimiento, otros de la responsabilidad (López de la Vieja, 2010: 249 y ss.; Bello Reguera, 2008). Habermas la contextualizaría en lo que él denomina "la autopercepción ética de la especie", mientras que Sandel preferiría hacerlo en "la vida humana como un don", etc.

4. Biología precientífica, biología científica y ética

Las diferencias se acentúan si prestamos atención a la confrontación entre la cultura filosófica y la religiosa. Basta recordar el episodio de las viñetas de un periódico danés que representaban a Mahoma tocado con un turbante-bomba, ocurrido en 2006. La reacción de los creyentes musulmanes dejó claro que mientras que para el dibujante danés y sus lectores habituales la dignidad consiste en la libertad de expresión y el uso del humor con propósitos críticos, para los musulmanes la dignidad es su identificación con el Profeta y su imagen positiva más allá de toda crítica: sagrada. Pero lo que me interesa aquí y ahora es la diferencia y el desencuentro entre las definiciones laicas, filosóficas y científicas de la humanidad y la definición teológica, católica, cuyo episodio más representativo tuvo lugar a finales del siglo XIX cuando surgió la teoría de Darwin, que desmentía el mito creacionista puesto en circulación por la Biblia -adoptado por la teología católica- que aún pervive redefinido como "diseño inteligente" (Hidalgo Tuñón, 2007). Y dejaba en evidencia la diferencia irreconciliable entre la definición científica, biológica, y la definición teológica de la humanidad y, por lo tanto, de la dignidad humana.

Esa diferencia la caracterizó adecuadamente el Premio Nobel J. Monod al sostener que en la tradición europea operan, de hecho, dos biologías o teorías biológicas: una científica y otra precientífica. La primera se diversifica en tres variantes complementarias: la biología evolutiva, la biología molecular (bioquímica, clave de la genética y de los avances biomédicos y genómicos diversos) y la biología ecológica, que es la que permite valorar los efectos del cambio climático sobre el ecosistema global y su biodiversidad. La segunda, por su parte, es la biología animista o espiritualista (Monod, 1973, caps. II y X) cuyos orígenes están en la función imaginaria o fantástica, ficcional o mítica, creada y sostenida por la religión, la teología y la metafísica, a las que se sumó en su momento la biología pseudocientífica que inspiró el racismo biologista moderno, no sólo el nazi sino también el colonialista, y recientemente la ecología profunda (deep ecology).

La biología científica desmiente a la precientífica. Ella se somete a las exigencias del método empírico y al razonamiento lógico-matemático, ambos susceptibles de crítica y debate públicos, mientras que la segunda sólo se sustenta en la fe y en creencia. Sin embargo, este cuestionamiento teórico es ineficaz en la práctica ética cotidiana de miles de millones de creyentes en una religión u otra: en torno a 2000 millones de cristianos y a 1300 millones de musulmanes, limitándome a estas dos religiones que hoy parecen invencibles en ese terreno.7Las religiones son, de hecho, sistemas culturales que inspiran y legitiman estados teocráticos. De ahí la convicción creciente de que vivimos en una sociedad "postsecular" en la que la que la esperanza de que la religión desapareciera del horizonte histórico parece haber pasado a mejor vida (Habermas, 2006). Ello no implica, sin embargo, que el pensamiento crítico haya quedado sin recursos discursivos en lo que nos importa: la relación de las dos biologías consideradas con la ética.

La biología científica, al sustituir el discurso tropológico o figurativo del animismo y el espiritualismo por el lenguaje empírico -evolutivo, bioquímico o biogenético y neurológico- establece con la ética una relación paradójica. Dada la condición valorativa y normativa del discurso ético, la biología científica, descriptiva y explicativa, permanece ajena a él. Ni la teoría de la evolución, ni el descubrimiento de la estructura del ADN y del genoma humanos, ni la exploración del cerebro y su estructura neurológica, ni el conocimiento de la trama ecológica de la vida humana y sus riesgos han hecho aportaciones novedosas y relevantes a la ética normativa y sus significados básicos como la bondad, la justicia, la rectitud, la responsabilidad, la solidaridad, la hospitalidad, etc., y sus contrarios.8Sin embargo, de forma indirecta, las diversas teorías biológicas han hecho algunas aportaciones relevantes a la ética. Han abierto ámbitos y planteado problemas nuevos para la aplicación de los conceptos y categorías éticas que, desplazados de su "idealidad abstracta", son puestos a prueba en su consistencia teórica por la ética evolutiva, la ética ecológica, y la neuroética. Pero, sobre todo, han sustituido la antropología animista y espiritualista, teológica y metafísica, en la que se asentaba la ética tradicional, por una antropología materialista, informada científicamente, que proporciona bases más adecuadas para la génesis del discurso normativo y valorativo propio de la ética que, de este modo, se ve constreñido a redefinirse críticamente (García Gómez-Heras, 2005).

Gracias a las aportaciones de la biología científica, hoy es posible distinguir al menos cuatro significados distintos de la expresión "vida humana", que deberían ser tenidos en cuenta a la hora de definir su contrario: la "muerte humana". Porque en casos como el aborto, la eutanasia y la investigación con células embrionarias, hay quien habla de "asesinato", sin paliativos, y hay quien cree que lo que "muere" o aun no es una persona humana o ya ha dejado de serlo. Sirvan como aclaración complementaria los cuatro significados siguientes de la expresión "vida humana". a) La vida presensitiva como la embrionaria y la fetal anterior a la formación del sistema nervioso, en torno a la semana 14 del embarazo, indiferente al placer y al dolor. b) La vida postsensitiva, en fase terminal irrecuperable, que suele ser descrita como "en estado vegetativo" análogo (no idéntico) al de la vida presensitiva. Estas dos formas de vida son humanas por su composición genómica pero no lo son en otros aspectos que menciono a continuación. c) La vida neurosensitiva vinculada a la formación, la estructura y la dinámica del sistema nervioso y del cerebro, que proporciona la capacidad de experimentar placer y dolor, y que es común a todos los animales considerados "superiores"; de ahí el reconocimiento de los derechos de los animales a no sufrir inútilmente, y la prescripción legal española de que el aborto no pueda practicarse después de la semana 14, salvo casos de peligro para la madre o de malformación fetal, que eleva el plazo a 22 semanas. d) La vida neurolingüística, cuya dinámica implica actividad comunicativa y cultural que transforma la vida intra-cerebral (si es que lo fue alguna vez) en inter-cerebral o, más propiamente, social o sociolingüística: inter-activa mediante el intercambio de signos y su efecto, la significación, que no compartimos con ninguna otra especie animal. Sobre todo, la significación moral: el reconocimiento de cada vida humana como valiosa en sí misma, cuyo intercambio constituye el vínculo social y cuya interiorización por parte de los individuos singulares da lugar al sentimiento de autovaloración o dignidad. O su negación -el no reconocimiento o el mal reconocimiento- que da lugar al sistema de oposiciones binarias que configuran las diferencias en la valoración y la desvaloración morales: bondad y maldad, rectitud y transgresión, solidaridad y crueldad, responsabilidad e indiferencia, aprecio y desprecio, hospitalidad y violencia para con los otros.

¿Cuál es la alternativa de la biología precientífica en relación con la ética? Lo primero es reconocer que constituye una de las raíces más antiguas de la ética, arraigadas en relatos mitológicos como los referentes a la divinidad en sus diferentes versiones, o bien a una naturaleza que, al ser el referente de un relato mítico, no es natural sino cultural y, por lo tanto, artificial: efecto del arte. En esta efectuación artística están implicadas tres operaciones, a cargo de un extenso e intenso inconsciente cultural, que raramente aparecen juntas, como formando parte de un mismo sistema de significación. La primera es la naturalización de la ética, que la presenta como expresión directa de la naturaleza o causada por ella, de donde sale una ética naturalizada o naturalista que comienza con Aristóteles y su naturalismo metafísico, precedente del teológico medieval, y desemboca en el naturalismo romántico de amplia vigencia. Esta operación, en segundo lugar, no es posible sin otra anterior, generalmente implícita, encubierta o inconsciente, que consiste en la moralización de la naturaleza mediante una atribución imaginaria o ficcional de "rasgos morales" propios de las personas con sensibilidad y, sobre todo, la competencia legislativa soberana y última que encarna/emite la "ley natural", naturaleza como ley moral fundamental e inapelable: única y última (García Gómez-Heras, 2010)9 10. En tercer lugar, la moralización de la naturaleza hay que atribuirla a una operación aún más originaria y encubierta, la prosopopeya, reconstruida en el ámbito de la teoría literaria. Procedente de las palabras griegas prosopon, persona, y poiein, hacer, el término "prosopopeya" significa "hacer persona" o "personificar". He analizado esta figura a propósito de la deep ecology (Bello Reguera, 2000) pero el mismo enfoque puede ser transferido sin problemas a la biología animista y espiritualista que me ocupa.

Las tres operaciones anteriores constituyen los eslabones de la cadena que ata la ética a la biología precientífica. Lo relevante es que, una vez personificada y moralizada, la naturaleza puede aparecer como la causa y el origen de la moralidad, tal como ha sostenido y sostiene el naturalismo ético (García Gómez-Heras, 2010). El hecho es, sin embargo, que la naturaleza moralizada y personificada no es "natural", como promete el discurso naturalista, sino "artificial", un efecto de la prosopopeya, estructura lingüística propia del lenguaje tropológico o figurativo (literario), que crea significados artificiales en lugar de repetir o re-presentar lo dado en y por la naturaleza. El ejemplo decisivo es la personificación de la vida humana en su estadio presensitivo, propio de las células embrionarias y de los fetos de menos de 14 semanas, anterior, en todo caso, a la formación del sistema nervioso.11O la personificación de la vida postsensitiva propia de los enfermos terminales en estado vegetativo. Ambas personificaciones o prosopopeyas sostienen el animismo o espiritualismo que definen de modo unificado a la vida humana como tal, de modo uniforme y sin distinciones, desde su concepción hasta su muerte.

5. Bioética y biopolítica: entre autoritarismo y democracia

Lo relevante, en este punto de la argumentación, es que la prosopopeya es una práctica lingüística, propia de la vida neurolingüística o socio-lingüística que aparece al final de la cadena evolutiva con el desarrollo del cerebro humano. Y que, como otras tantas, es una forma de redescribirnos a nosotros mismos en esos mismos términos morales, valorativos y normativos. De ahí que Rorty considere que esa redescripción es "lo más importante que podemos hacer". A las prácticas lingüísticas se refería el filósofo británico del siglo pasado J. Austin con su expresión actos de habla, a los que atribuía el poder (causal) de hacer cosas con palabras. Se trataba de hacer explícito el poder realizativo, constructivo o productivo del lenguaje -además del constatativo o descriptivo- al que denominó fuerza performativa o performatividad y que asoció a los actos de habla del mismo nombre: los performativos (Austin, 1986). Se trataba, en su caso, de las palabras habladas, pero otros filósofos como J. Derrida, M. Foucault, R. Rorty y J. Butler la hicieron extensiva, directa o indirectamente, a las palabras escritas: la escritura o grafematicidad con la que se pretendía dar cuenta de la materialidad estructural de las prácticas lingüísticas o discursivas humanas (Pérez Navarro, 2007), aun de aquellas que se hacen derivar de lo natural, prehumano, o bien de lo sobrenatural y sobrehumano: lo divino.

Es la misma materialidad que performa la prosopopeya implícita en las escrituras y textos religiosos, teológicos y metafísicos, supuestamente inspirados por poderes sobrehumanos o por mentes privilegiadas como el filósofo-rey de Platón y sus herederos más o menos dictatoriales. Escrituras y textos que las grandes religiones -o grandes corrientes filosóficas- sacralizan en su espacio creencial propio y particular con pretensiones de validez universal. Sin embargo, al existir, de hecho, varios libros sagrados atribuidos a la misma fuente en sus diferentes versiones, la divinidad y sus afines, lo sagrado o lo divino se pluraliza y diversifica y, más radicalmente, se democratiza y acaba mostrando su génesis humana, demasiado humana. Y si esta democratización estructural afecta a la divinidad y a la sacralidad, ¿cómo podrían librarse de ella categorías filosóficas, metafísicas, ontológicas o epistemológicas como el Ser o la Naturaleza (la mitificada) que han gozado, durante largos siglos, de un estatus análogo al de la divinidad? Pero una vez democratizadas, ¿cuál es o puede ser su nuevo significado?

De esta breve reflexión sobre la fuerza o el poder performativo del lenguaje me gustaría concluir que lo performado es la identidad humana como identidad moral, diferenciada de su identidad biológica o genómica. Dicho de otro modo: la humanidad como norma moral de sí misma, como línea roja ética que opera de criterio para valorar o evaluar mediante juicios de valor positivos o negativos, las acciones, prácticas, conductas, instituciones y personas que afectan a la humanidad de otros seres humanos y, de este modo, elegir entre unas y otras.

Ahora bien, como estas valoraciones están cargadas de significación y efectividad políticas, el poder performativo del lenguaje puede ser caracterizado no sólo como bioético o bioética, sino también como biopolítico o biopolítica. Surgido y desarrollado en el ámbito de la pragmática y del pragmatismo, este horizonte performativo es, directa o indirectamente, el que llevó al último Rorty a redefinir la filosofía como política cultural (Rorty, 2007) en la que queda subsumida o incluida la ética. Esta redefinición proporciona, entre otras cosas, una crítica radical de la imagen de la filosofía como un conocimiento universalmente válido y, por lo tanto, neutral, situado por encima de las diversas opciones políticas. No existe una política cultural, con su correspondiente ética, neutral, ya que su práctica sólo es posible -al menos hasta ahora- en dos modalidades básicas: una autoritaria, vinculada a la biología precientífica, y otra democrática, en coherencia con la biología científica.

La modalidad autoritaria se sustenta sobre la biología precientífica que, al sustraersea la crítica pública, promueve los siguientes rasgos: apropiación privada del poder de hacer o performar juicios de valor moral positivos o negativos, sobre la realidad humana y sus expresiones culturales, para lo cual es necesario; apropiación privada del poder de definir los criterios de valor: el significado del bien y el mal, y los límites de la vida humana de forma rígida e innegociable; ello implica una apropiación privada del lenguaje -teológico-político- en el que se producen o performan las definiciones morales y los juicios a que dan lugar. Todo lo cual propicia la constitución de un poder moral y político único y último: total o totalitario, que trabaja sobre el supuesto de un riesgo moral cero, para lo cual cree disponer de un instrumento adecuado: la totalidad del biopoder que le permite ejercer un control totalitario sobre la vida humana y sus riesgos: sus éxitos y sus fracasos. Las regiones tradicionales constituyen los mejores paradigmas de este modelo: ellas y sus iglesias se apropian privadamente del poder  de definir el límite o la frontera, la línea roja, entre el bien y el mal, lo correcto y lo incorrecto, etc.

La modalidad democrática, en coherencia con la biología científica y su condición empírica y pública, presenta los siguientes rasgos: la distribución igualitaria o equitativa del poder performativo del lenguaje mediante procedimientos diversos como la educación pública y la participación cívica; la distribución igualitaria del poder de performar valores y normas y de aplicarlos a la valoración o evaluación de acciones, prácticas e instituciones que forman la trama de la vida en común; la distribución igualitaria del poder de definir, de forma negociada y consensuada, los límites y fronteras de la vida humana como criterio y medida de lo que está bien y mal: como línea roja moral pero, a la vez, como línea roja democrática, lo cual implica que ese cometido no es propiedad exclusiva de alguien en particular; la utilización de esta línea roja para enjuiciar moralmente, de forma igualmente negociada o consensuada, las acciones, prácticas, conductas, instituciones y personas, incluidas todas las implicadas en las prácticas biotecnológicas objeto de este ensayo. La condición democrática de toda esta trama (bio)ética y (bio)política implica que todas sus definiciones, evaluaciones y juicios morales no son definitivos e inamovibles, sino contingentes y revisables. No sólo en el tiempo histórico, cuyo transcurso modifica las situaciones morales y políticas, sino también en el espacio democrático, en el que los juicios de valor se pueden expresar en forma ética, culturalmente diversificada, en forma jurídica, de acuerdo con las leyes democráticas, y en forma política, según los intereses de poder de los diversos partidos. Y entre unas y otras no siempre hay acuerdo sino que, frecuentemente, entran en relaciones conflictivas cuya solución corre a cargo del criterio jurídico del momento que, por su parte, puede ser modificado mediante la movilización del debate ético y la victoria electoral.

Notas

1 La prensa del momento informó regularmente del debate previo. Por ejemplo, el diario El País, el 15 de agosto de 2009 encabezaba la página 35 con la siguiente entradilla: "Rajoy cede a la presión conservadora y anima a acudir a marchas antiaborto".

2 Véase, respectivamente, el diario El País del 24 de diciembre de 2011 y el del 31 de diciembre de 2011.

3 El diario El País del 2 de agosto de 2009, página 36, resaltaba las siguientes frases: "El vaticano investiga a defensores del testamento vital... 41 religiosos que apoyaron desconectar a Eluana pueden ser castigados". Y añadía esta otra atribuida a uno de ellos: "Reto al Papa a que diga que nos hemos colocado fuera de la Iglesia".

4 Sobre clonación, Bello Reguera (1999); sobre células embrionarias, Bello Reguera (2002).

5 Dí cuenta de estas barbaridades eugenésicas en Bello Reguera (2002). Sobre eugenesia en general, Kevles (1985).

6 Hottois (1984: 146-147), en el que puede leerse: "L`imperative technique: tout ce quil est posible techniquement de fair il faut le fair".

7 Los datos proporcionados son, obviamente, aproximativos.

8 Esta afirmación, acaso excesiva, debería ser confrontada con las pretensiones de la "ética evolutiva" y de la "neuroética". Al respecto, puede verse a) sobre la ética evolutiva: Raphael, 1966; Flew, 1966; Wilson, 1980; Boniolo y De Anna, 2006; y James, 2010; y b) sobre neuroética: Evers, 2007; Racine, 2010; y Cortina, 2011.

9 J. Habermas se refiere a la "moralización de la naturaleza humana" para rescatarla de su "tecnificación" a partir de los conocimientos proporcionados por la biología (Habermas, 2002: 38 y ss.).

10 Las declaraciones del Cardenal Rouco recogidas por El País del 31 de diciembre de 2011, p. 43, se apoyan, justamente, en este "naturalismo ético" o "ética naturalizada", cuando dice: "El orden de la relación matrimonio-familia está prefigurado en la naturaleza humana según lo quiere Dios" (columna 3).

11 Una expresión plástica de esta personificación pudo verse en un anuncio contra el aborto publicado por la Conferencia Episcopal española hace unos años en el que aparecía la imagen de un niño al lado de otra de un lince, para ilustrar el mensaje de que la política pro aborto salva al lince (por razones ecológicas) y condena al niño al legalizar el aborto. Está claro que el niño no es el feto que se trata de defender, pero al representarlo o sustituirlo en expresión plástica, lo personifica. Una vez personificado es más fácil presentarlo como "reo de muerte".

Bibliografía

1 AUSTIN, J. (1986): Cómo hacer cosas con palabras, Barcelona, Paidós.         [ Links ]

2 BARNETT, S. A. et al. (1966): Un siglo después de Darwin, Madrid, Alianza Edit.         [ Links ]

3 BAUMAN, Z. (2007): Modernidad líquida, Barcelona, Paidós.         [ Links ]

4 BELLO REGUERA, G. (1999): "La clonación humana: utopía y ética", en AAVV, Utopía, modernidad y ciencia, La Laguna, Publicaciones del Ateneo de La Laguna.

5 BELLO REGUERA, G. (2000): "Animismo y prosopopeya: una mirada crítica a la ética ecológica", Medio Ambiente y Comportamiento Humano, vol. 6, no 2, La Laguna, Tenerife, Edit. Resma.         [ Links ]

6 BELLO REGUERA, G. (2002a): "Vida embrionaria y teoría ética", en A. Omar y G. Bello Reguera (eds.         [ Links ]).

7 BELLO REGUERA, G. (2002b): "Eugen-ética: el perfeccionamiento científico de la vida humana", en J. M. Cózar (Ed.): Tecnología, civilización y barbari e, Barcelona, Anthropos.         [ Links ]

8 BELLO REGUERA, G. (2008): "La protección de la vida humana y el significado de la dignidad"         [ Links ], azafea (Revista de Filosofía), vol. 10, Salamanca.

9 BELLO REGUERA, G. (2011): "La relatividad de los derechos humanos. Más allá del etnocentrismo occidental", en J. M. Rosales y M. Toscano (eds.): Ética y ciudadanía democrática. Estudios en homenaje a José Rubio Carracedo, Contrastes (Revista de Filosofía): Suplemento 16, Málaga.         [ Links ]

10 BONIOLO, G. y DE ANNA, G. (2006): Evolutionary Ethics and Contemporary Biology, Cambridge, Cambridge University Press.         [ Links ]

11 CARR, N. (2011): Superficiales. ¿Qué está haciendo Internet con nuestras mentes?, Madrid, Taurus.         [ Links ]

12 CORTINA, A. (2011): Neuroética y neuropolítica, Madrid, Tecnos.         [ Links ]

13 DE CÓZAR, J. M. (2011): Nanotecnología, salud y bioética (Entre la esperanza y el riesgo), Oviedo, Ed. Junta General del Principado de Asturias.         [ Links ]

14 EVERS, K. (2009): Neuroética, Madrid, Katz.         [ Links ]

15 FLEW, A. G. N. (1967): Evolutionary Ethics, Londres, Macmillan.         [ Links ]

16 GARCÍA GÓMEZ-HERAS, J. M. (2005): "Repensar la bioética. Una disciplina joven ante nuevos retos y tareas", en J. M. García Gómez-Heras y C. Velayos (Editores).         [ Links ]

17 GARCÍA GÓMEZ-HERAS, J. M. (2010): En armonía con la naturaleza. Reconstrucción medioambiental de la filosofía, Madrid, Biblioteca Nueva.         [ Links ]

18 GARCÍA GÓMEZ-HERAS y VELAYOS, C. (2005): Bioética. Perspectivas emergentes y nuevos problemas, Madrid, Tecnos.

19 HABERMAS, J. (2002): "¿Hacia una eugenesia liberal? El debate sobre la autocomprensión ética de la especie", en El futuro de la naturaleza humana, Barcelona, Paidós.         [ Links ]

20 HABERMAS, J. (2007): Entre naturalismo y religión, Barcelona, Paidós.         [ Links ]

21 HERRERA GUEVARA, A. (2007): De animales y hombres. Studia Philosophica, Madrid, Biblioteca Nueva.         [ Links ]

22 HIDALGO TUÑÓN, A. (2007): "El 'diseño inteligente' a la luz de la 'concurrencia de inducciones' de William Whewell", en A. Herrera Guevara.         [ Links ]

23 HOTTOIS, G. (1984): Le signe et la technique. La philosopie a l'èpreuve de la technique, París, Aubier.         [ Links ]

24 JAMES, S. M. (2010): An Introduction to Evolutionary Ethics, Oxford, Willey-Blackwell.         [ Links ]

25 KEVLES, J. (1985): In the Name of Eugenics. Genetics and the Use of Human Heredity, Cambridge, Mass, Harvard University Press.         [ Links ]

26 LÓPEZ DE LA VIEJA, T. (2010): La pendiente resbaladiza. La práctica de la argumentación moral, Madrid, Plaza y Valdés.         [ Links ]

27 MACINTYRE, A. (1987): Tras la virtud, Barcelona, Crítica, p. 86.         [ Links ]

28 MONOD, J. (1973): El azar y la necesidad. Ensayo sobre la filosofía natural de la biología moderna, Barcelona, Barral.         [ Links ]

29 OMAR, A. y BELLO REGUERA, G. (eds.) (2002): Las células embrionarias y la clonación no reproductiva: un enfoque multidisciplinar, Vicerrectorado de Extensión Universitaria, La Laguna, Tenerife.         [ Links ]

30 PÉREZ NAVARRO, P. (2007): Del texto al sexo. Judit Butler y la performatividad, Barcelona/Madrid, Edit. Egales.         [ Links ]

31RACINE, E. (2010): Pragmatic Neuroethics. Improving Treatment and Understanding of Mind-Brain, Cambridge, Mass, The MIT Press.         [ Links ]

32 RAPHAEL, D. D. (1966): "Darwinismo y ética", en S. A. Barnet et al.         [ Links ]

33 RORTY, R. (1983): La filosofía y el espejo de la naturaleza, Madrid, Cátedra.         [ Links ]

34 RORTY, R. (1996): "La indagación intelectual como recontextualización: una explicación antidualista de la interpretación", en Objetividad, relativismo y verdad, Barcelona, Paidós.         [ Links ]

35 RORTY, R. (2007): Philosophy as Cultural Politics. Philosophical Papers 4, Cambridge University Press. Versión castellana, Filosofía como política cultural, Barcelona, Paidós (2010).         [ Links ]

36 SANDEL, M. (2007): Contra la perfección. La ética en era de la ingeniería genética, Barcelona, Marbot Ediciones.         [ Links ]

37 SLOTERDIJK, P. (2000): Normas para el parque humano, Madrid, Siruela.         [ Links ]

38 WILSON, E. O. (1980): Sobre la naturaleza humana, México, FCE.         [ Links ]

^rND^sBELLO REGUERA^nG.^rND^sBELLO REGUERA^nG.^rND^sBELLO REGUERA^nG.^rND^sBELLO REGUERA^nG.^rND^sBELLO REGUERA^nG.^rND^sBELLO REGUERA^nG.^rND^sGARCÍA GÓMEZ-HERAS^nJ. M.^rND^sHABERMAS^nJ.^rND^sHIDALGO TUÑÓN^nA.^rND^sRAPHAEL^nD. D.^rND^sRORTY^nR.^rND^rND^rND

DOSSIER-ARTÍCULOS

Lo que sabemos e ignoramos: del conocimiento cotidiano a la comprensión de la tecnociencia *

What we know and don't know: from common knowledge to the comprehension of technoscience

 

Clara Barroso**

** Profesora Titular de la Universidad de La Laguna. Doctora Asociada en el European Centre for Soft Computing (Mieres - Asturias, España).


La difusión social de la ciencia y la tecnología es un tema recurrente en diferentes foros de política educativa, así como en foros científicos. Es un tema crucial en los foros de discusión sobre la gobernanza de la ciencia y en los debates sobre ética y ciencia. En la revisión de la documentación al respecto se encuentran afirmaciones sobre la necesidad de una adecuada alfabetización y difusión de conocimientos científicos y técnicos, y de una actualización en los currículos de educación formal, pero sin abordar el análisis de los componentes cognitivos que hacen posible que las actuaciones propuestas generen el resultado deseado: la comprensión de las nuevas teorías y realizaciones tecnológicas que de ellas se derivan y conforman el entorno científico actual. A menudo se omite igualmente la necesidad de proyectar procesos de actualización del conocimiento que operen en contextos sociales amplios como instrumento para el logro de una ciudadanía cualificada para evaluar la deseabilidad social de tecnologías que se están incorporando a la vida cotidiana, como es el caso de la nanotecnología. Este trabajo reflexiona sobre ambos aspectos, buscando las claves que impulsen propuestas de formación, actualización y difusión social de los conocimientos tecno-científicos.

Palabras clave: Difusión social de la tecnociencia; Construcción de conocimiento significativo;  Educación formal; Evaluación social de la tecnociencia

The social diffusion of science and technology is a recurring topic in both education policy and science forums. It is also a crucial topic in forums discussing governance of science and in debates on ethics and science. Numerous documents covering this topic find assertions on the need to diffuse scientific and technical knowledge, promote literacy in these areas and update the formal education curricula, but they do not provide an analysis of the cognitive components that makes it possible for the proposed actions to generate the desired results: the comprehension of new theories and the technological achievements that are derived from them and make up the current state of science. Frequently omitted is also the need of promoting and update knowledge processes, in order to operate in broad social contexts and achieve a public capable of evaluating the social desirability of all those technologies that are being incorporated into daily life, such as nanotechnology. This work reflects upon both aspects and searches for he keys to promote training, update and diffusion of techno-scientific knowledge to society.

Key words: Social diffusion of technoscience; C construction of meaningful knowledge; Formal education , Social evaluation of technoscience


Introducción

En el documento de la Unión Europea Communicating Nanotechnology aparece la idea de cambiar el modelo basado en "comprensión pública de la ciencia" a otro basado en una "comprensión científica de lo público" (European Commission, 2010: 33).1Este trabajo se inicia desde esa necesidad de analizar racionalmente lo público a la hora de abordar los problemas de difusión social de los conocimientos científicos y tecnológicos, comenzando con la aproximación a lo que denominaremos "conocimiento cotidiano".

Inicialmente podemos aproximarnos al conocimiento cotidiano desde lo que Bruner define como "la psicología popular". Esta psicología popular se construye desde los iniciales procesos comunicativos en los que la narración compartida construye los entornos de significación de los objetos y del mundo que nos rodea y en el que los procesos sociales se producen.

De este modo la psicología popular nos inicia en los procesos de comprender, mediante la creación de "actos de significado", quiénes somos ("el yo"), quiénes comparten con nosotros el tiempo y el espacio ("los otros"), y el entorno en que se producen los procesos de comunicación entre los humanos ("el mundo") (Bruner, 1991). En estos procesos de intercambio de comunicación se generan y desarrollan los contextos de interpretación que aportan las claves para discriminar entre cosas tales como la experiencia real y la experiencia narrativa y que constituyen los basamentos del conocimiento que cada individuo va a desarrollar a lo largo de su vida. Esta distinción permite comprender lo que es real en el ámbito de la experiencia compartida y lo que es subjetivo (tanto en términos de individuo como en términos de grupos sociales).

1. La construcción del conocimiento cotidiano: el punto de partida

El conocimiento cotidiano se asienta en las representaciones abstractas de las percepciones de objetos que pertenecen a la realidad de nuestra experiencia vivida. Así, el primer escalón del conocimiento lo constituyen las oportunidades del entorno físico en que cada individuo se desarrolla, los estímulos que pueden procesarse orgánicamente. Se necesitan experiencias e interacción física con el mundo real para obtener percepciones sensoriales. Asignando significado a estas percepciones sensoriales comprendemos el mundo real en que estamos inmersos; por ello, estas experiencias físicas son la base de la construcción del "acervo de significados" que cada individuo empleará en su comprensión de la realidad en que se desarrolla.

El segundo escalón está vinculado a la capacidad (que es en parte intrínseca y en parte inducida por el contexto en que cada individuo comienza su desarrollo cognitivo) que cada individuo posee para compartir significados de los estímulos físicos que puede procesar cerebralmente. En este nivel, el proceso de construcción de significados está fuertemente mediatizado por el contexto cultural (significados compartidos) en que cada individuo experimenta los estímulos físicos; así, el aprendizaje del acervo de significados compartidos es la puerta de acceso a la cultura del grupo.

El lenguaje, como instrumento de construcción de significados, es en este ámbito fundamental. Un ejemplo clásico es el del dominio lingüístico de los inuit; para ellos carece de significado el término "nieve". En su cultura existen términos para designar "nieve en el suelo", "nieve derretida", nieve en el aire", etc. En el contexto físico (Ártico) en que se desarrolla su cultura, es crucial para la supervivencia el percibir los diferentes estados de la nieve, por lo que se atribuyen distintos significados a cada uno de los posibles estados. Mediante estos diferentes significados conocen los problemas a que se pueden enfrentar y se atribuyen posibles soluciones a diferentes problemas. Por tanto, el compartir significados permite la interacción adecuada con otros individuos de un mismo entorno físico y cultural y compartir dicho conocimiento para tomar decisiones. La interacción con el entorno físico para adquirir significados exige actuar en el medio y la interacción con el entorno social permite compartir significados en ese contexto, lo que requiere actuar en sociedad. Ambos aspectos serán cruciales para construir lo que Dewey va a denominar la "construcción de la experiencia compartida" (Dewey, 2007).

En conclusión: la percepción es imposible sin experiencias físicas; el significado viene determinado por el entorno en que la percepción tiene lugar y dicho significado no se construye al margen de la experiencia social del contexto físico.

En su fase inicial, este proceso se produce en el contexto inmediato de cada individuo de forma espontánea y constituye los primeros elementos de construcción de su conocimiento. Es lo que podemos denominar como educación informal. En las sociedades de conocimiento y tecnología complejas, tras esta primera experiencia de acceso al entorno cultural, se inicia el proceso de formación sistemática vinculada al acceso al conocimiento por medio de la educación formal.

La educación formal está vinculada al acceso a los conocimientos que la sociedad, a través de los expertos y responsables políticos, decide que son los necesarios para comprender el mundo en que este individuo ha de vivir: el currículum. Se espera que este currículum sea la puerta que permita dotar de significado a todo aquello que no forma parte de su experiencia cotidiana. Así se inicia un nuevo proceso en que experiencias indirectas (contenidos) han de entrar a formar parte de su acervo de conocimientos y se inicia el proceso que hará posible dotar de significado a realidades que no se perciben ni forman parte de la experiencia cotidiana: se accede al conocimiento científico. Así surge lo que vamos a denominar el conocimiento cotidiano de lo no cotidiano.

2. El conocimiento cotidiano de lo no cotidiano

La mayor parte de las realidades sobre las que reflexiona la ciencia son realidades que no forman parte de las experiencias que, como organismos y miembros de una sociedad, podemos percibir: las formas de vida microscópicas o no vinculadas a nuestro entorno (bacterias, formas de vida de los fondos abisales o en cráteres); entidades abstractas como teoremas o reglas lingüísticas; realidades macroscópicas, como las galaxias o ínfimas como los elementos atómicos; procesos que se producen en escalas temporales que superan la experiencia directa por producirse en escalas temporales lentas (crecimiento, evolución de especies) o rápidas (reacciones químicas); propiedades que se pueden medir indirectamente pero que no son sensorialmente perceptibles (conductividad de la electricidad o del calor). Todo ello son ejemplos que, formando parte del conocimiento científico, exceden los límites de percepción que se posee en la experiencia inmediata del medio en que se desarrolla nuestra vida cotidiana. La primera barrera, por tanto, a la hora de conocer muchos de los objetos de estudio de la ciencia es una barrera de tipo físico.2

Junto a esta barrera física se debe considerar la barrera cognitiva. En el ámbito cotidiano, la experiencia aporta la adquisición de informaciones que poseen significado en la medida en que capacitan para resolver los problemas a que nos enfrentamos en nuestra vida cotidiana. La resolución satisfactoria de estos problemas refuerza las evidencias empíricas que forman parte del acervo de conocimientos de los individuos que comparten una cultura. Es un proceso inductivo en el que la validez de un método para la resolución de problemas significativos refuerza e incrementa la fiabilidad de unas opciones posibles en la resolución de problemas de acuerdo con los resultados obtenidos. Este acervo no es sistemático, no se desarrolla mediante pautas organizadas de razonamiento e indagación ni se fundamenta en patrones o modelos racionales previos; no es universal, es contingente a las experiencias que se desarrollan en el contexto en que se desenvuelven los sujetos, y ese contexto es tanto físico como cultural.

Más aún, diferentes entornos en un mismo contexto cultural puede atribuir significados distintos a una experiencia. Es el caso de la construcción de significados inducida por el entorno en que se produce una experiencia, tanto en ámbitos de la vida cotidiana como en ámbitos científicos. Así lo que en una panadería significa "pan" es diferente a lo que significa "pan" en una orfebrería; lo que para una persona en una verdulería no es más que una "romanesca" en el contexto de las matemáticas puede interpretase como un modelo fractal; lo que significa "plasma" para un médico es diferente de lo que significa para un físico.

3. Comunicar lo que no pertenece a la experiencia cotidiana

En un intento de acercar el conocimiento científico a los parámetros de la experiencia cotidiana, se han elaborado imágenes, metáforas, representaciones o modelos que pretenden acercar la realidad objetiva que no podemos percibir a parámetros que hagan posible que esos mundos formen parte de nuestra experiencia sensorial. Estos recursos formarán parte de lo que vamos a considerar el "conocimiento cotidiano de lo no cotidiano". La representación del código genético mediante el modelo espiral de apareamiento de bases; la representación mediante imágenes de fotografías cromatografiadas de galaxias; las representaciones icónicas de modelos atómicos; las ilustraciones de nanotubos, o las imágenes cromatografiadas de átomos en experimentos nanotecnológicos son ejemplos de este tipo de intervención. A través de estas representaciones nos iniciamos en el "conocimiento cotidiano de lo no cotidiano" mediante la evocación e interpretación de imágenes que no corresponden la realidad objetiva sino que son la expresión, a nivel sensible, de esas realidades que no son perceptibles.3

Estos recursos, desarrollados en el ámbito cercano a la ciencia, son comprendidos por la comunidad científica, capaz de "interpretar sus significados"; sin embargo, en el entorno social no especializado (si bien pueden ser de gran valor para incitar la imaginación), es necesario que sean comprendidos como lo que son: una representación, no una realidad. Comprender la distancia entre lo representado o imaginario y la realidad requiere del conocimiento que permita transitar entre estos dos mundos: el de lo real y el de la representación. Requiere de los recursos cognoscitivos que permitan comprender los límites entre lo real y lo narrativo.

En este cometido dos son los instrumentos a nuestra disposición: por un lado la educación básica obligatoria (educación formal), y por otro, la difusión social del conocimiento.

La educación básica obligatoria requiere, como se ha indicado, de una puesta al día que, lejos de constituir una simple modificación del currículo, debería orientarse por lo que ya en 1980 proponía Ziman, a saber: enseñar menos de la ciencia y más sobre la ciencia (Ziman, 1985). No es cuestión de engordar currículos incorporando más temas, sino de hacer revisiones profundas sobre las informaciones que los estudiantes, en el mejor de los casos, van a "aprender". Comprender la ciencia no es saber más teorías o teoremas: es comprender el sentido de este conocimiento y cuáles son sus fundamentos epistemológicos, metodológicos y sus objetivos. Hacer de la formación básica el pilar de la comprensión es "educar" por encima de "enseñar"; es "comprender" por encima de "aprender"; en suma es permitir que lo que se enseña y se aprende sea significativo para entender el mundo en que nos movemos.

Sobre la difusión social de los conocimientos científicos, si bien es un tema ampliamente contemplado en foros de discusión científicos, no se han realizado análisis realistas sobre el mismo, lo que exige, entre otras cosas, del reconocimiento en la propia comunidad científica de la relevancia de esta ocupación. Paradójicamente, cada vez son más los intereses en hacer comprender la importancia de la investigación científica, ya que se confía en que esta comprensión incrementaría tanto la gobernanza social de los productos tecnocientíficos, como la propia aceptación de muchos de estos productos que, en ocasiones, son socialmente rechazados por falta de conocimiento real de sus beneficios y riesgos asociados.

En consecuencia, la difusión social del conocimiento queda sujeta a accionesvoluntarias que carecen del reconocimiento y sistematicidad necesarias para constituir una herramienta que permita que los ciudadanos no científicos comprendan significativamente cuáles son los logros, desafíos y riesgos de la producción científica y tecnológica. Más aún, estas acciones son puntuales y carecen de la proyección temporal necesaria para constituir un instrumento no sólo de acceso al conocimiento actual, sino (más importante) de actualización permanente.

4. I+D+i y la comprensión de la ciencia y la tecnología

Durante periodos anteriores a la revolución industrial, la producción científica se movía en el campo no profesional; a medida que se descubren posibilidades de utilizar el conocimiento científico para producir bienes de interés económico o social, se profesionaliza no sólo el quehacer del investigador sino también su potencial en el desarrollo de aplicaciones. Esto plantea un nuevo escenario en que los investigadores se comprometen con la necesidad de justificar su labor en términos de aplicabilidad.

A mediados del siglo XX ya se proponían prospectivas de desarrollos intelectuales exagerando (como hoy sabemos) la potencialidad de estos desarrollos en su dimensión aplicada. Una muestra de ello es el ejemplo siguiente:

"Resumiendo, tenemos ahora los elementos de una teoría heurística (en contraste con algoritmos) de solución de problemas; y podemos usar esa teoría tanto para entender los procesos heurísticos humanos como para simular esos procesos en computadores digitales. La intuición, comprensión y aprendizaje ya no son posesión exclusiva de los humanos: cualquier gran computador puede ser programado para mostrar también estos procesos" (Simon y Newell, 1958).4

Actualmente nos encontramos en una dimensión cualitativamente distinta. A diferencia de lo que se exigía a la producción científica en el S.XX, lo que pretende la I+D+I en el S.XXI se fundamenta en una filosofía vinculada a la generación de insumos económicos. Así, en 2006 Esko Aho afirma:

"Investigación es invertir dinero para obtener conocimiento, mientras que innovación es invertir conocimiento para obtener dinero."5

En este contexto las prospectivas e interés de los desarrollos científico-tecnológicos se justificarán, por tanto, en su capacidad de incrementar las ganancias financieras; la importancia que esta tendencia adquiere impulsa la necesidad de justificar la relevancia de la investigación científica en términos monetarios.

"Hace cinco años, el editorial en el primer número de Nature Nanotechnology comenzaba como sigue: 'Dependiendo de a quién preguntes, la nanotecnología se inició en 1981, 174, 1959 o en la Edad de Bronce'. Esto es aún cierto. 'Y depende de lo que consideres, y las definiciones que se utilicen', el artículo continuaba, 'el mercado mundial de los productos nanotecnológicos tendrá un valor de $2600 billones en 2014, o $1000 billones en 2015'".6

En consecuencia, los científicos se ven obligados a justificar su quehacer no sólo en términos de desarrollo intelectual; más allá de esto, la gran justificación de la producción científica se vincula a la posibilidad de su rentabilidad económica mediante la aplicación de sus hallazgos a productos de consumo general.

Un ejemplo significativo lo constituye el desarrollo en ingeniería genética y las expectativas que ha suscitado. El gran auge de desarrollo en este campo ha sido posible gracias al incremento de los beneficios económicos que este tipo de investigación ha generado en grandes corporaciones industriales. A su vez, pocos ámbitos del actual panorama de la investigación han dado lugar a tanta discusión social como la producida en torno a determinados productos y procesos de la ingeniería genética.

Las principales fuentes de difusión social sobre ingeniería genética han sido los activistas ecologistas y las grandes corporaciones industriales. Los primeros advertían de graves consecuencias no deseables, vislumbrando riesgos en términos de biodiversidad, gestión económica de los productos, y posibles efectos colaterales no deseados. La información que provenía de la industria, en cambio, presentaba la oportunidad para incrementar el rendimiento agrícola al desarrollar variedades que resistirían a parásitos y a los herbicidas, y que permitirían controlar el proceso de maduración de algunos productos. La industria presentaba a los posibles usuarios estos procesos con grandes ventajas, al permitir un mejor control del crecimiento de los productos, garantizando una mayor productividad y un manejo más flexible de los cultivos. La información que provenía de la industria inducía a considerar que determinadas aplicaciones de la ingeniería genética constituirían un potente instrumento de desarrollo (a pesar de defender con patentes férreas los productos que producían).

A ello hay que añadir que el conocimiento público de este campo ha estado fuertemente mediatizado por un desconocimiento general de aquellos objetos (genes) y procesos (modificación genética) sobre los que se informaba, y los conocimientos que sobre genética se difundían en el ámbito de la educación formal han estado desfasados.

Con todo ello, el caldo de cultivo para la aparición de un conflicto social, basado en expectativas (en ocasiones extremas y no del todo reales) en torno a la ingeniería genética estaba servido.

En este entramado de conflictos no hemos de olvidar el papel que jugaban los científicos, cuyos intereses de investigación estaban fuertemente mediatizados por las políticas de I+D+i que impulsaban la investigación orientada a los vínculos entre investigación y generación de beneficios económicos de las empresas que sustentaban sus investigaciones.

Un ejemplo de cómo se han difundido socialmente expectativas que no corresponden con los problemas científicos a que se enfrenta este ámbito tecnocientífico puede ejemplificarse en la siguiente cita:

"Cada día aparecen, tanto en prestigiosas revistas científicas como en las sensacionalistas, discusiones sobre los aspectos sociales, legales, éticos y científicos de la terapia genética, la fertilización in vitro o los alimentos transgénicos. Por supuesto, estas discusiones acaparan también la atención de muchos especialistas en bioética que relegan otros asuntos como por ejemplo los relacionados con una justa distribución de los recursos médicos limitados. Últimamente, en especial desde el nacimiento de la oveja Dolly, el tema de clonar seres humanos ocupa el interés de muchos" (De Melo, 2003).

En el ámbito de control de efectos no deseados, pocos han sido los avances científicos y tecnológicos. Las evidencias empíricas muestran que existe propagación de especies modificadas más allá de los ámbitos en que se ha actuado con estas especies. A su vez, los rasgos fenotípicos deseados no siempre son estables ya que dependen en primer lugar del entorno genético intervenido y del entorno ambiental en que se producen las variedades modificadas genéticamente. Como consecuencia, la contestación social en contra de determinadas aplicaciones de la ingeniería genética ha sido y sigue siendo un campo de discusión en el que, en ocasiones, poco se habla de lo que realmente hace o propone la propia ciencia.

5. Nanociencia y nanotecnología: los retos a que nos enfrentamos

En la actualidad la nanociencia y nanotecnología investigan sobre biomateriales utilizados durante siglos por culturas tradicionales (por ejemplo, seda y tela de araña) o materiales inorgánicos (azul Maya, púrpura de Han, azul Egipcio) para localizar principios activos o propiedades físicas que han hecho que estas culturas los hayan usado con éxito para solventar algunos de sus problemas cotidianos. El estudio de la composición de estos materiales ha permitido comprender que determinados tipos de ensamblaje a nivel atómico o molecular confieren propiedades de alto valor a estos materiales.

Estos conocimientos tradicionales son, por tanto, utilizados como fuente primaria de conocimiento. Si bien los resultados de investigación distarán mucho del conocimiento fuente, el hecho de hacer visible que algunos de los hallazgos exitosos en antiguas tradiciones técnicas pueden explicarse y reproducirse desde el conocimiento actual puede estimular la comprensión y aceptación social de las prácticas en el ámbito de la nanotecnología.

Se ha de puntualizar que comprender los procesos moleculares que permiten que materiales como la tela de araña o la seda sean a la vez estructuras flexibles, elásticas, ligeras y fuertes, exige no sólo imaginación sino comprensión de lo que es una molécula, qué es un ensamblaje molecular, cómo las moléculas ensambladas generan proteínas, etc. Cómo podemos intervenir con estos pequeñísimos elementos de la materia para producir materiales que solucionen problemas como construir edificios menos pesados, o reproducir propiedades como la hidrofobia, exige la compresión de conocimientos básicos en química, física y biología que exceden los límites de los actuales currículos de educación formal. Difícilmente van a poder ser comunicados en contextos de difusión social a menos que se sistematicen y planifiquen unos procesos en los que, paso a paso, los ciudadanos no especializados accedan a la comprensión significativa de qué es la materia y por qué existen determinadas propiedades físicas que pueden utilizarse para depurar aguas, construir nuevos dispositivos de captura de energía o diseñar fármacos que actúen exclusivamente en el foco afectado.

Si estos ámbitos (educación formal, difusión social del conocimiento) no inician la incorporación de los conocimientos básicos necesarios para comprender qué es la nanociencia y la nanotecnología, difícilmente se comprenderán los riesgos que éstas pueden incorporar, lo que dificultará una evaluación social cualificada de los productos que se ofertan. Más aún, si no se asume lo anterior, estaremos convirtiendo a los ciudadanos en meros usuarios pasivos sin capacidad para comunicar a los científicos cuáles de sus propuestas poseen interés social y no meramente económica; estaremos ante el mismo escenario que generó el rechazo social a determinadas aplicaciones de la ingeniería genética.

La participación social en las decisiones sobre la deseabilidad y los riesgos del desarrollo en nanotecnología permitiría, mediante la elaboración de juicios basados en la comprensión de este ámbito, compartir las responsabilidades vinculadas a la producción de nuevos materiales y sus aplicaciones posibles. En otras palabras, la comprensión social no sólo podría resolver los problemas vinculados a la gobernanza de la nanotecnología sino, más importante, la sociedad podría hacerse corresponsable, junto a los científicos y tecnólogos, de los productos que se generen y de los objetivos para los que se generan los diversos productos.

"El desarrollo de aplicaciones tecnológicas basadas en la ciencia a nanoescala aparece ahora como un potencial caso de estudio para nuevos modelos de regulación basados en una responsabilidad orientada al futuro, gobernanza del riesgo del ciclo de vida, y emisor de compromiso público" (Groves et al., 2011: 526).7

En la actualidad ya existen en el mercado productos que incorporan elementos "nano". Desde lápices que integran en su mina nanocápsulas con aromas, a cosméticos y protectores solares capaces de penetrar la estructura celular epitelial. También existen previsiones de aplicaciones aún más importantes para la sociedad: el desarrollo de nanocomponentes que incrementen el rendimiento de placas fotovoltaicas o el desarrollo de sistemas de depuración de aguas mediante membranas capaces de detectar y capturar, en dimensiones moleculares o atómicas, los elementos contaminantes, son ejemplos de gran interés social que, por encima de la producción de cosméticos, aparecen como potentes herramientas para enfrentarse a dos grandes problemas actuales.

Tanto los desarrollos ya situados en el consumo como los potenciales desarrollos han de poder ser comprendidos y evaluados socialmente si se defiende una gobernanza y una corresponsabilidad social del desarrollo de la nanotecnología. ¿Qué consecuencias tiene esta propuesta?

En primer lugar, habría que revisar la formación inicial que se ofrece en la educación formal obligatoria. En este ámbito debemos ser conscientes de la poca o nula atención que la ciencia actual merece en los currículos de educación formal. En numerosos libros de texto aún se pueden encontrar ilustraciones que representan al átomo mediante el modelo atómico de Bohr (1913), mientras que la nanotecnología aborda modelos atómicos que requieren de la comprensión de los principios de la física cuántica. A la vez, esta revisión incorpora la necesidad de una acción de actualización permanente del profesorado.

"Muchos profesores en el sistema de educación completaron su formación diez años atrás. Como resultado, sus conocimientos científicos y su familiarización con desarrollos importantes en enseñanza de la ciencia es limitada" (Blonder, 2011: 49).8

En segundo lugar, habría que revisar las metodologías didácticas impulsando la utilización de herramientas que permitan construir conocimiento más que aprender contenidos. En este cometido se están explorando metodologías que, más que poner a los estudiantes en disposición de aprender contenidos, les induzcan a construir significativamente sus conocimientos utilizando la información a que acceden mediante el uso de mapas conceptuales.

Por último, la difusión social del conocimiento tecnocientífico, en su sentido amplio, debería estar sistematizada para poder desarrollar acciones no esporádicas que permitieran a los ciudadanos no expertos la actualización y comprensión del conocimiento científico y de sus aplicaciones. Las tecnologías de la información y comunicación, en este sentido, pueden constituir una herramienta muy poderosa si se opta por revisar el modo en que se utilizan. Así, se deberían proponer procesos de comunicación social (y no sólo acciones puntuales) que se desarrollaran gradual y permanentemente con el objetivo de ofrecer áreas de comunicación mediante las que se comprendiera la evolución y situación actual de la ciencia y los desarrollos tecnológicos, constituyendo un instrumento de actualización permanente de los conocimientos que los ciudadanos poseen.

Conclusión

En la actualidad, la nanociencia y la nanotecnología constituyen ámbitos de gran interés tanto para la industria como para abordar la solución de graves problemas a que se enfrenta la humanidad del siglo XXI. La cada vez más escasa disponibilidad de agua potable, la necesidad de energía para mantener los procesos de desarrollo inducidos por el modelo del primer mundo y la posibilidad de abordar terapias no intrusivas para la solución de algunas patologías son algunos de los posibles ámbitos de desarrollo de la nanociencia aplicada.

Si bien ya existen algunos productos en el mercado que incorporan componentes nanotecnológicos, el ámbito más interesante (desde el punto de vista de la resolución de los problemas antes citados) de aplicación de los conocimientos de la nanociencia aún tiene mucho camino por recorrer. Esta situación nos permite afrontar este ámbito de conocimientos y desarrollo intentando evitar los problemas que hemos detectado en el caso de la ingeniería genética. Para ello, hemos de abordar qué puede hacer posible una gobernanza social no directamente dependiente de los intereses económicos de las industrias.

El requisito para que los ciudadanos puedan opinar sobre cualquier producto científico es la comprensión de la ciencia que lo ha hecho posible. Si la formación básica en las ciencias que componen el espectro de la nanociencia no se actualiza, de nada va a servir para fundamentar la comprensión de este nuevo ámbito. Si se continúa en la dirección de enseñar ciencia y no impulsar la comprensión de la ciencia, estos aprendizajes básicos serán ineficaces para la formación de una ciudadanía que disponga de las herramientas cognoscitivas que permitan un análisis social de la nanociencia y sus productos.

La sociedad debería estar preparada para evaluar los productos nanotecnológicos, comprendiendo cuáles de sus productos son imprescindibles para abordar la solución a problemas de interés general, qué productos serán necesarios y cuáles son accesorios. Esto requiere de procesos de difusión social de conocimiento científico contrastado y de la capacidad de evaluar las posibles aplicaciones del mismo.

En este cometido han de estar comprometidos todos los procesos que hagan posiblela construcción de significados sobre los procesos y productos científicos, es decir, la formación básica y la difusión social de conocimientos científicos. La formación básica no ha de entenderse en sentido finalista como la adquisición de determinadas informaciones o conocimientos; más allá de esto, ha de favorecer el desarrollo de competencias cognitivas que permitan y estimulen la continua actualización en la comprensión de los conocimientos científicos.

Por su parte, la divulgación científica debe entenderse como el instrumento de actualización y fortalecimiento de dicha compresión. En este sentido debería orientarse por la difusión de los conocimientos, más allá de la difusión de expectativas más o menos interesadas, y debería plantearse como un proceso permanente más que como un sumativo de acciones descoordinadas.

La nanociencia y la nanotecnología tienen, aún, la oportunidad de afrontar (con mejores objetivos y resultados que campos previos de desarrollo tecnocientífico) este cometido. Todavía estamos a tiempo de iniciar una nueva trayectoria que pueda servir para involucrar a una ciudadanía preparada en la discusión social de los proyectos científicos y de intervención práctica de la nanotecnología, evaluando sus posibles beneficios y riesgos. Olvidar este cometido puede reproducir el rechazo social originado en campos con menos potencial para solucionar problemas.

Si no existe un compromiso con otras formas de abordar el conocimiento y divulgación de la ciencia y la tecnología, los discursos sobre gobernanza y participación social en la discusión sobre la ciencia seguirán siendo acotaciones marginales de la propia producción científica.

Notas

* La investigación que se recoge en este texto ha sido apoyada por la Agencia Canaria de Investigación, Innovación y Sociedad de la Información y el Fondo Europeo de Desarrollo Regional (FEDER) mediante el proyecto "Evaluación del proceso de transferencia de nuevos materiales nanotecnológicos en equipos de diagnóstico y tratamiento médico", Evalnanomed (C200801000076).

1 En inglés, "public understanding of science" y "scientific understanding of public".

2 Esta característica es especialmente relevante en el caso de la nanotecnología ya que opera con objetos de dimensiones (nanómetros) que exceden por abajo, evidentemente, el rango de tamaño que los humanos podemos percibir sensorialmente.

3 A estos recursos, aceptados convencionalmente por la comunidad científica, habría que añadir las representaciones que, desde el mundo de la ficción, se proponen (en ocasiones cercanas a la realidad científica y en muchas más ocasiones alejadas de la misma). Todo ello formará parte de la imaginería cotidiana de la ciencia.

4 "In short, we now have the elements of a theory of heuristic (as contrasted with algorithmic) problem solving; and we can use this theory both to understand human heuristic processes and to simulate such processes with digital computers. Intuition, insight, and learning are no longer exclusive possessions of humans: any large hig-speed computer cam be programmed to exhibit them also."

5 Intervención en la Conferencia Inaugural de "Europe Innova 2006". Cita referenciada por Alejandro Jadad y Julio Lorca (2007).

6 "Five years ago, the editorial in the first issue of Nature Nanotechnology started as follows: 'Depending on who you ask, nanotechnology started in 1981, 1974, 1959 or the Bronze Age'. That is still true. 'And depending on who you believe, and the definitions they use', the article went on, 'the world market for nanotechnology products will be worth $2600 billion in 2014, or $1000 billion in 2015." "The story so far", (Editorial) (2011), Nature Nanotechnology, vol. 6.

7 "The development of technological applications based on nanoscale science is now increasingly seen as a potential test case for new models of regulation based on futureoriented responsibility, lifecycle risk management, and upstream public engagement."

8 "Many teachers in the education system completed their training over 10 years earlier. As a result, their science knowledge and acquaintance with important developments in science teaching is limited".

Bibliografía

1 BLONDER, R. (2011): "The Story of Nanomaterials in Modern Technology: An Advanced Course for Chemistry Teachers", Journal of Chemical Education, vol. 88 no 1, pp. 49-52        [ Links ]

2 BRUNER, J. (1991): Actos de significado. Más allá de la revolución cognitive, Madrid, Alianza Editorial.         [ Links ]

4 De MELO, I. (2003): "Clonar o no clonar seres humanos: he ahí el dilema", Revista Iberoamericana de Ciencia, Tecnología, Sociedad e Innovación, no 5.         [ Links ]

5 DEWEY, J. (2007): Cómo pensamos, Barcelona, Paidós.         [ Links ]

6 EUROPEAN COMMISSION - EUR 24055 COMMUNICATION PLAN ON NANOTECHNOLOGIES (2010): Communicating Nanotechnology. Why, to whom, saying waht and how?, Luxenburgo, Publication Office of the European Union, en cordis.europa.eu/nanotechnology/src/publication_events.htm, consultado el 1o de marzo de 2012.         [ Links ]

7 GROVES, C., FRATER, L., LEE, R. y STOKES, E. (2011): "Is There Room at the Bottom for CSR? Corporate Social Responsibility and Nanotechnology in the UK" Journal of Business Ethics, no 101, pp. 525-552.         [ Links ]

8 JADAD, A. y LORCA, J. (2007): "Innovación no es lo mismo que novedad", Andalucía Investiga, no 38.         [ Links ]

9 SIMON, H. y NEWELL, A. (1958): "Heuristic Problem Solving: The Next Advance in OperationsResearch", Operations Research. vol. 6, no 1, pp 1-10.         [ Links ]

10 ZIMAN, J. (1985): Enseñanza y aprendizaje sobre la ciencia y la sociedad, México D.F., Fondo  de Cultura Económica.         [ Links ]

^rND^sBLONDER^nR.^rND^sDe MELO^nI.^rND^sGROVES^nC.^rND^sFRATER^nL.^rND^sLEE^nR.^rND^sSTOKES^nE.^rND^sJADAD^nA.^rND^sLORCA^nJ.^rND^sSIMON^nH.^rND^sNEWELL^nA.^rND^nGuillermo^sBoido^rND^nCelia T.^sBaldatti^rND^nGuillermo^sBoido^rND^nCelia T.^sBaldatti^rND^nGuillermo^sBoido^rND^nCelia T^sBaldatti

ARTÍCULOS

Nuevas tecnologías: ¿para quiénes? El caso de la nanotecnología *

New technologies: for whom? The case of nanotechnology

 

Guillermo Boido ** y Celia T. Baldatti ***

** Profesor Titular de la Facultad de Ciencias Exactas y Naturales de la Universidad de Buenos Aires, Argentina. Asociación de Filosofía e Historia de la Ciencia del Cono Sur (AFHIC). Correo electrónico: gboido@retina.ar.

***Profesora Adjunta de la Facultad de Ciencias Exactas y Naturales de la Universidad de Buenos Aires,  Argentina. Asociación de Filosofía e Historia de la Ciencia del Cono Sur (AFHIC). Correo electrónico:  c.baldatti@gmail.com

 


Resumen: Este trabajo propone algunas reflexiones en torno a los alcances y consecuencias del creciente protagonismo de las actividades que genéricamente conocemos como "tecnociencia", y que contribuyen en gran medida a consolidar un modelo de organización económica y social que segrega de sus beneficios a amplios sectores de la población y pone en riesgo la sustentabilidad del  laneta. Los puntos que nos interesa examinar son: a) la difusión y accesibilidad de las tecnologías por distintos sectores sociales; b) las bases de legitimación que sostienen las posiciones de  aceptación  acrítica de los avances científico-técnicos; y c) el papel que debería cumplir el mundo institucional de las prácticas científicas y técnicas para que éstas sean puestas al servicio de una sociedad auténticamente democrática. Analizamos el caso de los desarrollos actuales en el campo de la nanotecnología a propósito de estos diferentes aspectos. Si bien existe hoy un gran consenso entre los especialistas en que la nanotecnología será un factor crucial para solucionar los graves  problemas originados por  la exclusión social que afecta a gran parte del planeta, a este mundo de promesas debemos ponerlo en correspondencia con otro, que genéricamente se refiere a la posibilidad de que esta nueva tecnología sea destinada a fines menos altruistas.

Palabras clave: Tecnociencia; Accesibilidad de la tecnología; Exclusión social; Principio de  precaución; Nanotecnología

Abstract: The article presents some reflections about the implications and consequences of the growing  relevance of the activities known generally as "technoscience". Such activities contribute substantially to the solidification of a model of social and economic organization that segregates wide sectors of the population from its benefits, and at the same time endangers the sustainability of the planet. The items that we examine are: a) the diffusion and accessibility of these technologies among diverse social sectors: b) the bases for legitimacy alleged by those who favor the uncritical acceptation of the scientific and technical advances; and c) the role that scientific and technical institutions should play so that the practices serve a genuinely democratic society. This article analyzes the case of the present developments in the field of nanotechnology in the aforementioned aspects. Although there is at present an important consensus among specialists that nanotechnology will be a crucial factor for the solution of the serious problems originated by the social exclusion affecting a great part of the planet, this world of promises must be set beside another world, one that refers to the possibility that this new technology be employed toward less altruistic ends.

Key words: Technoscience; Accessibility of technology; Social exclusion; Precautionaryprinciple;Nanotechnology


 

1. El acceso a las nuevas tecnologías

Son conocidas las posturas ambivalentes referidas a los beneficios derivados de las aplicaciones  tecnocientíficas: las hay optimistas y entusiastas acerca de la potencialidad de las nuevas  tecnologías, mediadas especialmente a través de las tecnologías informáticas y de comunicación,  que ven en estas últimas el instrumento de emancipación de la pobreza y sus efectos. Otras señalan diferentes grados de preocupación por la activa participación de las nuevas tecnologías en la  aceleración de cambios negativos en un amplio margen de dominios (inequidad social, destrucción de identidades, brecha digital ascendente y mayor control de la ciudadanía, entre otros). Nuestro interés se centra en un hecho poco analizado y, en cierta medida, naturalizado: el del acceso universal a gran parte de los beneficios indiscutibles generados por muchas innovaciones científicas y tecnológicas, en la medida en que la historia reciente parece señalar que su alcance estaría restringido a una fracción minoritaria de la humanidad, mientras que algunos efectos no deseados castigan a amplias mayorías y nada parece indicar que en el futuro haya cambios en esa tendencia. Y esto implicaría una discusión acerca de la contribución de la ciencia y la tecnología actuales al bienestar general.

Nos preguntamos qué sucede con la mayoría de los países que están fuera de la incorporación de las innovaciones de la tecnociencia, y que, por ejemplo, en el caso de la producción agrícola, sus pequeños productores pierden competitividad y se arruinan económicamente al no poder adquirir los costosos insumos de los nuevos paquetes tecnológicos que incrementan la productividad de los cultivos. Comprobamos además que los nuevos materiales, los medicamentos, los tratamientos médicos y las tecnologías digitales, entre otros, están cada vez en menor medida al alcance de los  sectores sociales más desfavorecidos dentro de los países industrializados y, muchomenos, a esos mismos sectores al interior de los subdesarrollados.

Citemos algunos ejemplos. En septiembre de 2000 fue aprobada por 189 países y firmada por 147 jefes de Estado la llamada Declaración del Milenio, promovida por las Naciones Unidas, cuyos objetivos, destinados al mejoramiento de las condiciones de vida de los sectores más desposeídos del planeta y a garantizar la calidad medioambiental, se intentarían alcanzar en 2015 (UNESCO, 2000).1Sin embargo, como lo señalaba cinco años después el Informe sobre Desarrollo Humano del Programa de las Naciones Unidas para el Desarrollo (PNUD), más de 1000 millones de  personas carecían en 2005 de acceso al agua potable y 2600 millones a servicios elementales de saneamiento. En estas condiciones, la pregunta acerca de la accesibilidad parece adquirir cada vez más una mayor entidad (PNUD, 2005: 48).2Y sobre todo cuando, como es sabido, este conjunto de carencias se resolverían, por ejemplo, con alrededor de 7000 millones de dólares anuales a lo largo de un decenio (cifra menor de la que gastan sólo los europeos en perfumes o los estadounidenses en cosméticos y cirugías plásticas) y sin considerar los gastos de los complejos militares industriales. El Informe Anual 2008 de Naciones Unidas sobre los Objetivos del Milenio no era más alentador. Se señalaba allí que hacia fines de 2006 tenían conexión a Internet sólo 1200 millones de personas, poco más del 18% de la población mundial; y que, en cuanto a su utilización, en los países  desarrollados empleaba Internet el 58% de la población, mientras que en los países en desarrollo lo hacía el 11% y sólo el 1% en los países subdesarrollados (Naciones Unidas, Informe 2008). Esta falta de equidad e irracionalidad en la distribución planetaria de los recursos genera un creciente abismo social mundial con graves consecuencias sobre el futuro mediato de nuestro hábitat.

Nos preguntamos, entonces: a) ¿todas las tecnologías han seguido históricamente  las mismas trayectorias en términos de su accesibilidad a la mayor parte de los  habitantes del globo?; b) ¿todas señalan tiempos similares en el proceso de  apropiación colectiva de sus efectos?; c) los desarrollos recientes alcanzados en el  campo de la salud y los traducidos en notables aumentos de la  productividad en  materia de alimentos, ¿se han reflejado acaso en un aumento significativo de su  consumo en las poblaciones de excluidos?

Al parecer, no. El diario argentino La Nación del 16 del septiembre de 2009  reproduce algunos datos brindados en un comunicado por el Programa Alimentario  Mundial de Naciones Unidas (PMA): "La ayuda mundial en alimentos está en su nivel  más bajo en 20 años, a pesar de que la cantidad de personas en estado crítico está  aumentando a su punto más alto en la historia. El  número de personas con hambre  superará este año [2009] los 1000 millones por primera vez en la historia". Según la  misma fuente, hasta esa fecha el PMA confirmó apenas US$ 2600 millones de fondos  para su presupuesto del 2009 de los US$ 6700 millones que necesita para alimentar a 108 millones de personas en 74 países. Y agrega el comunicado: "Esto ocurre en un  momento de gran vulnerabilidad para las personas con hambre. Millones han sido  sacudidos por la caída financiera global, su habilidad para comprar alimentos está  limitada por precios obstinadamente altos. Además, patrones de clima impredecibles  están causando más hambre vinculado al clima".3

Muchos indicadores sociales muestran que, a pesar del crecimiento del comercio  internacional y de la acelerada mejoría en las condiciones de vida de algunos países,  la brecha entre los beneficiados y los que no lo han sido sigue en aumento. En el  citado Informe del PNUD (2005) se insiste dramáticamente en la falta de cumplimiento  de las metas propuestas por los países miembros de las Naciones Unidas en los  Objetivos de desarrollo del Milenio. En particular, como señalamos  anteriormente, ellas  estaban dirigidas a que a fines del 2015 se viese reducida a la mitad la indigencia y a  disminuir la cantidad de muertes infantiles y las enfermedades infecciosas para "liberar  a nuestros semejantes de las condiciones abyectas y deshumanizadoras de la pobreza extrema" mediante la cooperación internacional dirigida a esos objetivos. Sin  embargo, el mencionado Informe del PNUD planteaba que hasta ese momento no se  habían cumplido tales objetivos y todo indicaba que, de no mediar cambios profundos  en las políticas públicas de los países ricos, no se concretaría el compromiso asumido.  Señalaba que, en lo que constituye un retroceso sin precedentes, 18 países que  totalizan una población de 460 millones de personas habían bajado su puntuación en  el Índice de Desarrollo Humano desde 1990 al 2003. Este mundo dividido ha sido  caracterizado claramente por Nelson Mandela, citado en el mencionado informe: "La   inmensa pobreza y la obscena desigualdad son flagelos tan espantosos de esta época  -en la que nos jactamos de impresionantes avances en ciencia y tecnología, industrias  y acumulación de riquezas- que deben clasificarse como males sociales tan graves  como la esclavitud y el apartheid" (PNUD, 2005: 4).

 Ilustrando la importancia fundamental de la desigualdad en la distribución de la  riqueza, señala el informe que "el ingreso total de los 500 individuos más ricos del  mundo es superior al ingreso de los 416 millones más pobres". Más allá de estos  extremos, los 2500 millones de personas que viven con menos de dos dólares al día -  y que representan el 40% de la población mundial- obtienen sólo el 5% del ingreso  mundial. El 10% más rico, casi todos ellos habitantes de los países de ingresos altos,  consigue el 54%" (PNUD, 2005, pp. 4-5). Sin embargo no parece ser una misión  imposible disminuir esta brecha de inequidad planetaria, ya que de acuerdo a una  base de datos sobre el ingreso global que se menciona en el Informe, se concluye que  "el monto necesario para llevar a mil millones de personas a superar el umbral de  pobreza extrema de un dólar al día es de US$ 300.000 millones, cifra que representa  el 1,6% del ingreso del 10% más rico de la población mundial" (PNUD, 2005: 43).

Ante estos señalamientos, las propuestas que históricamente atribuyen a diferentes  tecnologías "salvadoras" la capacidad de eliminar los problemas más acuciantes de la  humanidad deberían debatirse con menos ingenuidad, adoptando una actitud de  prudente atención hacia los reales alcances que pueden esperarse de sus  aplicaciones. Sin negar la importancia de los espectaculares avances logrados por la  tecnociencia en la multiplicación de la productividad de los cultivos, queremos señalar  la promesa incumplida de la llamada "revolución verde", originada a mediados del siglo  pasado y profusamente promocionada como el instrumento que habría de derrotar el  hambre en el mundo. Si bien incrementó la productividad de los cultivos, no sólo no  acabó con el hambre sino que ésta fue en aumento junto con la degradación de los  suelos. El hambre, como sabemos, no se debe a la escasez de alimentos, sino a la  falta del dinero necesario para adquirirlos.

El término "exclusión social" indica una posición que señala la relación del sujeto con  el resto de la sociedad, definida no por lo que el sujeto es (identidad) sino por lo que  no tiene. Así, la situación de exclusión denota todo aquello de lo que está excluido,  fundamentalmente su libre acceso a los bienes del mercado, soslayando que la  condición inicial para ejercer esa libertad es disponer de los ingresos necesarios. En  este sentido, el deslizamiento operado en el uso cada vez más frecuente del concepto  de "consumidor" que, con mayor o menor sutileza, ha reemplazado al tradicional de   "ciudadano", cuestiona esta ficción de democracia que propone una falsa igualdad en  la "libertad" de todos los "consumidores". Sin embargo, se insiste sistemáticamente en  las mismas argumentaciones cuando, por ejemplo, un grupo de trabajo de las  Naciones Unidas encargado de anticipar el futuro en ciencia y tecnología, sostiene en  uno de sus informes que "la nanotecnología vendrá a solucionar los problemas de  pobreza en el mundo".4Nuevamente, se postulan soluciones técnicas para resolver los  problemas de la desigualdad, por ejemplo los referidos al hambre. A pesar de los  crecientes avances en el aumento de la productividad agrícola, no cesa el encarecimiento de los alimentos, lo que agobia cada vez más a las poblaciones de  excluidos, y, como afirma el economista argentino Claudio Katz, "lo que en realidad  destruye la seguridad alimentaria de los países más relegados es el avance del agro-  capitalismo y la especialización exportadora" (Katz, 2009).

 

2. Repensando el papel a cumplir por el mundo institucional de las prácticas científicas y tecnológicas  

Entendemos que son los fines los que dotan de sentido a la ciencia; ésta, además de  sus fundamentos cognitivos, como toda actividad humana, está atravesada por una  pluralidad de valores que orientan su praxis. Ni la ciencia ni la tecnología pueden  reducirse a los criterios de una racionalidad instrumental, formal, matematizable, sino  que su comprensión exige colocar la discusión en la racionalidad de los fines de la  investigación científico-técnica como un camino a recorrer para lograr cambios. La  libertad de investigar hoy está reducida a la elección de los medios para alcanzar  fines, y estos vienen prefijados. Es una libertad magra, condicionada, que no permite la imprescindible redefinición de las prácticas científico-técnicas.

Dado que la tecnología no se limita a un control racional sobre la naturaleza sino que  su accionar tiene un fuerte impacto en lo social, no puede reducirse su evaluación y  control al único requisito de eficiencia. Lo que aparentemente son meras elecciones  instrumentales (elección de técnicas), con el correr del tiempo se revelan como  opciones hacia formas específicas de vida social y política, lo que obliga a un análisis  axiológico y reflexivo. Ello ha sido planteado con mucha claridad por los investigadores  reunidos en Budapest en 1999 en la Conferencia Mundial sobre la Ciencia para el siglo  XXI (con los auspicios de UNESCO) cuando afirman:

"La mayor parte de los beneficios derivados de la ciencia están desigualmente distribuidos a causa de las asimetrías estructurales existentes entre los países, las regiones y los grupos sociales, así como entre los sexos. Conforme el saber científico se ha transformado en un factor decisivo de la producción de riquezas, su distribución se ha vuelto más desigual. Lo que distingue a los pobres (sean personas o países) de los ricos no es sólo que poseen menos  bienes, sino que la gran mayoría de ellos está excluida de la creación y de los beneficios del saber científico" (UNESCO, 1999).

Por otra parte, las cada vez más frecuentes experiencias negativas provocadas por  algunos desarrollos de la tecnociencia llevaron en el pasado reciente a la búsqueda de  regulaciones en la aplicación de determinadas tecnologías portadoras de situaciones  de riesgo. Así, el "principio de precaución" designa el conjunto de medidas destinadas  tanto a impedir amenazas precisas al medio ambiente como a prevenir su estado  futuro, reduciendo y limitando los riesgos para el mismo, previniendo la futura situación  medioambiental, y mejorar las condiciones de vida naturales, considerando ambos  objetivos como mutuamente implicados.5

El principio obedece a la necesidad de reconfigurar las prácticas científicas y  tecnológicas actuales, de tal modo que conlleven a una nueva relación responsable  del hombre con la naturaleza. Esto no implica una evaluación negativa de la  tecnociencia ni se trata de imponer restricciones a la investigación; hacemos nuestras  las propuestas de científicos franceses que en 1988 expresaban en un manifiesto:

"Creemos que la reflexión debe preceder al proyecto científico mas que suceder a la innovación. Creemos que esta reflexión es de índole filosófica antes que técnica y debe llevarse a cabo en un contexto interdisciplinario y de apertura a todos los ciudadanos" (Testart y  Godin, 2001: 114).

En consecuencia, es imprescindible discutir los límites de estas prácticas y cuestionar  los dogmas tecnocientíficos hábilmente manipulados para la legitimación de los  intereses del mundo corporativo. En El reto de la racionalidad, el filósofo belga  Jean Ladrière lo expresa con claridad:

"En suma, lo que se le pide a la ciencia y a la tecnología es que vayan hasta el fondo en su propia crítica, hasta que se pongan de manifiesto y se comprendan verdaderamente los límites. No se trata  de juzgarlas desde el exterior, sino de invitarlas a radicalizar el control que pretenden imponerse de sus propios procesos y a convertirse en jueces de sus propias creaciones" (Ladrière,1978: 184).

 

3. El caso de la nanotecnología

En un artículo sugestivamente llamado "Hay muchísimo espacio en el fondo", el físico  Richard Feynman decía: "Los principios de la física, hasta donde puedo ver, no se  contradicen con la posibilidad de manipular la materia átomo por átomo" (Feynman,  1960). La afirmación de Feynman se concretó efectivamente con la aparición y el  desarrollo de la nanotecnología. El término remite a la investigación acerca de  materiales, sistemas y procesos que existen o que acontecen a una escala  llamativamente pequeña: unos pocos cientos de nanómetros (nm) o menos. Un  nanómetro equivale a la milmillonésima parte de un metro, es decir 10-9 m. Para citar ejemplos, el radio de un átomo de hidrógeno es igual a 10 nm, mientras que un cabello  humano tiene unos 20.000 nm de diámetro.6La investigación en nanotecnología, que  ha experimentado un notable incremento a partir de 2006, recurre a disciplinas como  la física, la química, la bioquímica, la biotecnología y la informática, pero también a los  estudios biomédicos. Incluso, hasta las ciencias sociales y humanas han  experimentado un aumento de proyectos de investigación, en ámbitos tales como la ética y la política (UNESCO , 2007).

Las llamadas "nanopartículas" forman parte en la actualidad de centenares de  productos tales como alimentos, protectores solares, cosméticos, prendas de vestir,  desinfectantes, agroquímicos, pinturas, envases, revestimientos, aparatos médicos,  electrodomésticos, plásticos, vestimenta y aditivos para combustibles. Las  estimaciones en términos económicos de las investigaciones nanotecnológicas son  notoriamente elevadas. Un informe de 2009 del Strategic Approach to  International  Chemicals Management (SAICM) señala que las inversiones en el área de la nanoelectrónica alcanzará un valor de alrededor de 450.000 millones de dólares en 2015, mientras que en el caso de la fabricación de nanomateriales se ha calculado un  valor análogo de 450.000 millones de dólares para 2010 (SAICM, 2009).

Tal como ha venido sucediendo en las últimas décadas a propósito de los usos de la  energía nuclear o de la manipulación genética, existe hoy un gran consenso en que la  nanotecnología nos llevará a una nueva revolución industrial en el siglo XXI y que ésta  será un factor crucial para solucionar las graves problemas originados por la exclusión  social que afecta a gran parte del planeta. Desgraciadamente, a este mundo de  promesas deberíamos ponerlo en correspondencia con otro, que genéricamente se  refiere a la posibilidad de que esta nueva tecnología (y muchas otras) sea destinada a  fines menos altruistas. La nanotecnología supone desafíos éticos y económicos y a la vez lleva a preguntarse acerca de los beneficios y perjuicios que pueden derivarse de  sus aplicaciones, particularmente en lo que respecta a la salud de la población y al  equilibrio medioambiental. Basta señalar, como ejemplo, el de las expectativas que la  nanotecnología ha despertado en los ámbitos de desarrollo de nuevos armamentos.   Por caso, la Oficina de Investigación Básica de la Secretaria de Defensa de los  Estados Unidos ha señalado explícitamente que: "[...] dado el gran potencial para  incrementar las capacidades de combate en la guerra, la nanotecnología sigue siendo  una de las prioridades más altas en los programas de investigación del Departamento  de Defensa" (Delgado Ramos, 2004).

Se desconoce el eventual impacto de los materiales nanotecnológicos sobre la  salud, si bien no hay dudas de que las nanopartículas podrían producir efectos tóxicos  (nanotoxicidad) sobre los seres vivos, incluyendo patologías tales como la aparición de  lesiones sanguíneas e incluso cáncer. Se ha comprobado que ciertas nanopartículas  pueden traspasar la placenta y afectar así a los embriones en gestación (IPEN, 2010).7   La incertidumbre aumenta porque muchas empresas que fabrican nanomateriales no  evalúan la posibilidad de que tales materiales provoquen efectos nocivos. Como señala el mencionado informe del SAICM: 

"Antes de desarrollar o utilizar cualquier aplicación de la nanotecnología, se debería formular la pregunta de si tiene alguna utilidad social. Para responder a esta pregunta se debería conocer la posible contribución de las aplicaciones específicas de la nanotecnología, las tecnologías alternativas o las opciones no tecnológicas a la resolución de un problema particular socialmente relevante, como el cambio climático, la escasez de agua o el hambre.

 

Se deben tomar en cuenta los riesgos para la salud y el  medioambiente y las consecuencias para la sociedad y la economía, además de la existencia de las mencionadas soluciones alternativas"  (SAICM, 2009).

Las evaluaciones de seguridad son primordiales para la protección del público ante la  eventual presencia de riesgos derivados de la aplicación de nuevas tecnologías; pero,  en el caso de la gran mayoría de los nanomateriales, ello no ocurre y muchos  productos son comercializados sin haberse realizado los controles necesarios.  

La UNESCO lanzó en 1998 el Programa de Ética del Conocimiento Científico y la  Tecnología con el establecimiento de una Comisión Mundial de Ética del Conocimiento  Científico y la Tecnología (COMEST) para la reflexión ética sobre la ciencia, la  tecnología y sus aplicaciones e invitó a reconocidos expertos en nanotecnología para  analizar los eventuales riesgos de las aplicaciones nanotecnológicas. Se recomendaba  allí la aplicación del principio de precaución (COMEST, 1998).8También otras  instituciones, como la Royal Society, exhortaron a la aplicación del  principio de  precaución en materia de investigaciones vinculadas con esta novísima tecnología. El  estudio realizado por esta prestigiosa sociedad científica analiza los posibles perjuicios  provocados por los nanomateriales para la salud y el medio ambiente, destacando la  dimensión ético-social de la investigación en dicha materia, la necesidad de una  regulación adecuada, del diálogo entre las partes interesadas (productores y  consumidores) y el importante papel que se atribuye a los gobiernos en la gestación  de dicho diálogo (The Royal Society and the Royal Academy of Engineering, 2004). Una actitud similar adoptó en 2008 el Intergovernmental Forum for Chemical Safety  (IFCS) a propósito de la necesidad de aplicar el principio de precaución en las investigaciones nanotecnológicas (IFCS, 2008).9

Como ya ha sucedido con desarrollos tecnológicos anteriores, lejos de combatir las  raíces de la

pobreza o la desnutrición, o bien reducir la contaminación ambiental, la  nanotecnología acentuará la inequidad social, cultural y económica, y su desarrollo  difícilmente contribuirá a alcanzar los ya citados Objetivos de Desarrollo del Milenio  propuestos por las Naciones Unidas. Pese a esta sombría perspectiva, un grupo  creciente de organizaciones alertan sobre los riesgos vinculados con las aplicaciones  de la nanotecnología y ponen el énfasis en la necesidad de que se informe  masivamente al público acerca de tales riesgos. Exhortan a gobiernos e industriales a  que adopten el principio de precaución a la hora de autorizar la producción de  nanomateriales y durante el proceso de fabricación y comercialización de los mismos.  Insisten también en que las empresas comprometidas con la fabricación de  nanoproductos deben proporcionar la información necesaria a los gobiernos para que  sea posible detectar la presencia de nanopartículas en los productos que se lanzan al  mercado. En particular, destacan que el problema afecta a los trabajadores que  manipulan nanomateriales, razón por la cual el mismo se convierte en un inquietante  asunto de inseguridad ocupacional (IPEN, 2010). Así lo entiende el economista  mexicano Gian Carlo Delgado Ramos cuando señala: "No se trata de ser más o  menos radical, sino solamente de medir el desarrollo tecnológico desde la perspectiva  de la vida, no únicamente humana y no sólo en beneficio de algunos" (Delgado  Ramos, 2004).

Notas

*Una primera versión de este trabajo fue expuesto en el VII Encuentro de Filosofía e Historia de la Ciencia  del Cono Sur, organizado por la Asociación de Filosofía e Historia de la Ciencia del Cono Sur (AFHIC) y realizado en Canela, RS, Brasil, entre el 3 y el 6 de mayo de 2010.

1  Los Objetivos del Milenio son los siguientes: 1) erradicar la pobreza extrema y el hambre; 2) lograr la enseñanza primaria universal; 3) promover la igualdad entre los géneros y la autonomía de la mujer; 4)  reducir la mortalidad infantil; 5) mejorar la salud materna; 6) combatir el VIH/SIDA, el paludismo y otras enfermedades; 7) garantizar el sustento del medio ambiente; 8) fomentar una asociación mundial para el  desarrollo. En América latina, sólo Chile ha cumplido las metas para el Milenio. El documento fue firmado  el 13 de septiembre de 2000.

2  Más adelante señala el Informe: "Todavía 37 millones de niños del mundo no están inmunizados con la  vacuna triple y los avances en la cobertura de las inmunizaciones se han detenido en gran parte del mundo en desarrollo, particularmente entre los pobres. Hoy, dicha cobertura es inferior al 50% para los niños que viven en hogares cuyos ingresos están bajo el umbral de pobreza internacional de un dólar al día. Tan sólo en África mueren tres niños cada dos minutos debido al paludismo. Muchas de estas  muertes se deben a la falta de un simple mosquitero tratado con insecticida y menos de 2% de los niños  que residen en zonas infectadas con paludismo duerme debajo de uno de estos implementos que los protegen de los insectos" (PNUD, 2005: 36).

3  Fuentes: EFE y Reuters. El artículo fue publicado con el título: "Advierten que este año la pobreza será  la más alta de la historia". Está disponible en: www.lanacion.com.ar/nota.asp?nota_id=1175256

4  También se mencionan hoy las promesas que ofrecerían los estudios de "geoingeniería", acerca de los cuales ya hay llamados de atención por parte de organizaciones no gubernamentales. Esta novísima disciplina se refiere a la investigación y desarrollo de proyectos a gran escala para ajustar los sistemas planetarios al cambio climático. Incluye, por ejemplo, propuestas para bombear sulfatos en la estratósfera, bloquear la luz del sol o arrojar sales hacia las nubes para incrementar su reflectividad, así como  transformar enormes áreas en la tierra o en el mar con el fin de secuestrar el exceso de gases del efecto invernadero. Estos proyectos no cuentan hasta ahora con las regulaciones y controles necesarios.

5 Sobre las controversias suscitadas por el principio de precaución véase: Lacey, H. (2006): "O princípio  de precaução e a autonomia da ciencia", Scientiae Studia, vol. 4, no 3, pp. 373-392.

6  Las definiciones de "nanotecnología" son múltiples. Véase el documento de la UNESCO "Ética y política  de la nanotecnología": unesdoc.unesco.org/images/0014/001459/145951s.pdf. Se trata de un notable intento de exponer los orígenes y principios de la nanotecnología en términos accesibles, y derivar de allí los problemas ético-sociales que suscita esta nueva tecnología.

7  El International Pops Elimination Network (IPEN, en castellano: Red Internacional de Eliminación de  Contaminantes Orgánicos Persistentes) es una red global de más de 700 organizaciones no  gubernamentales sin fines de lucro que trabajan en más de 80 países por un futuro libre de tóxicos. La  reunión del IPEN que dio lugar al informe fue realizada en Kingston los días 8 y 9 de marzo de 2010.

8  La versión del principio de precaución empleada por la COMEST se expone en Lacey, H., Op. Cit., p. 374.

9 El Intergovernmental Forum for Chemical Safety (IFCS, en castellano: Foro Internacional de Seguridad  Química) tiene por objetivo "promover la seguridad química, tanto a corto como a largo plazo, para las personas y el medio ambiente de la producción, almacenamiento, transporte, utilización y eliminación de  productos químicos". La mencionada resolución fue firmada por 71 gobiernos, 12 organizaciones  internacionales y 39 organizaciones no gubernamentales.

 

Bibliografía

1 CEZAR, F. G. y ABRANTES, P. C. (2003): "Princípio da precaução: considerações  epistemológicas sobre o princípio e sua relação com o processo de análise de risco",  Cadernos de Ciência & Tecnologia, no 20, pp. 225-262.         [ Links ]

2 COMEST (World Commission on the Ethics of Science and Technology) (2005): The precautionary principle, París, UNESCO.         [ Links ]

3 DELGADO RAMOS, G. C. (2004): "Promesas y peligros de la Nanotecnología",  Nómadas: revista crítica de ciencias sociales y jurídicas, Universidad Complutense de  Madrid. Disponible en: www.ucm.es/info/nomadas/9/giandelgado.htm         [ Links ]

4 FEYNMAN, R. (1960): "There's plenty of room at the bottom", Engineering and  Science, vol. 23, no 5, febrero, pp. 22-36.         [ Links ]

5 IFCS (Intergovernmental Forum for Chemical Safety) (2008): Final Report. Sixth  Session of the Intergovernmental Forum on Chemical Safety, Dakar, Senegal. Disponible en: www.who.int/ifcs/documents/forums/forum6/f6_finalreport_en.doc        [ Links ] Helvetica, sans-serif">6 IPEN (International Pops Elimination Network) (2010): Breves antecedentes sobre nanotecnología y nanomateriales. Disponible en:  www.ipen.org/ipenweb/work/nano/ipennano_%2520kingston_background_spanish.pdf         [ Links ]

7 KATZ, C. (2009): "Crisis global II: Las tendencias de la etapa", La página de Claudio  Katz, 2 de diciembre. Disponible en: lahaine.org/katz/index.php?p=183&c=1.         [ Links ]

8 LADRIÈRE, J. (1978): El reto de la racionalidad, Salamanca, Sígueme/UNESCO.         [ Links ]

9 NACIONES UNIDAS: Informe Anual del año 2008 de Naciones Unidas sobre los  Objetivos  del  Milenio. Disponible  en:  www.un.org/spanish/millenniumgoals/pdf/MDG_Report_2008_SPANISH.pdf        [ Links ]

10 PROGRAMA DE LAS NACIONES UNIDAS PARA EL DESARROLLO (PNUD) (2005):  Informe sobre  Desarrollo  Humano  2005.  Disponible  en hdr.undp.org/en/media/HDR05_sp_complete.pdf.         [ Links ]

11 STRATEGIC APPROACH TO INTERNATIONAL CHEMICALS MANAGEMENT  (SAICM) (2009): Información básica sobre las nuevas cuestiones normativas en  relación con la  nanotecnología y los nanomateriales manufacturados, 25 de marzo.  Disponible en: www.saicm.org/documents/iccm/ICCM2/meeting%20documents/ICCM2%20INF34%20nano%20background%20S.pdf.         [ Links ]

12 TESTART, J. & GODIN, C. (2001): El racismo del gen, Buenos Aires, Fondo de  Cultura  económica.         [ Links ]

13 THE ROYAL SOCIETY AND THE ROYAL ACADEMY OF ENGINEERING (2004):  Nanoscience and nanotechnologies. Disponible en: royalsociety.org/Nanoscience-and-nanotechnologies-opportunities-and-uncertainties-/.         [ Links ]

14 UNESCO (1999): Declaración sobre la ciencia y el uso del saber científico, World  Conference on  Science,  Budapest.  Disponible  en:  unesdoc.unesco.org/images/0011/001163/116341So.pdf.         [ Links ]

15 UNESCO  (2000):  Declaración Del  Milenio. Disponible: www.un.org/spanish/milenio/arwes552.pdf.         [ Links ]

16 UNESCO (2007): Ética y política de la nanotecnología.  Disponible en: unesdoc.unesco.org/images/0014/001459/145951s.pdf.         [ Links ]

^rND^sCEZAR^nF. G.^rND^sABRANTES^nP. C.^rND^sDELGADO RAMOS^nG. C.^rND^sFEYNMAN^nR.^rND^sKATZ^nC.^rND^nRaúl^sDomínguez Martínez^rND^nRaúl^sDomínguez Martínez^rND^nRaúl^sDomínguez Martínez

DOSSIER-ARTÍCULOS

Los orígenes de la física nuclear en México

The origins of nuclear physics in Mexico

 

Raúl Domínguez Martínez *


Resumen: Partiendo de la idea de que el desarrollo científico y tecnológico en un país como México con frecuencia se encuentra supeditado a dinámicas exógenas que no se corresponden  cabalmente con las condiciones de la actividad científica y tecnológica local ni con necesidades internas de la planta productiva, el siguiente estudio describe y analiza las formas de articulación que se dieron lugar en una coyuntura específica para relacionar imperativos internacionales, perspectiva política y formas institucionales de trabajo académico y de investigación, con el objetivo de incorporar a México a la era nuclear por medio de la puesta en marcha de programas de investigación en ese campo, adquisición de equipos tecnológicos sofisticados y creación de entidades institucionales correlativas al campo (entre ellas la Comisión Nacional de Energía Nuclear). Se trata, visto desde otra perspectiva, de la imposición de un paradigma ocurrido en el contexto de la Guerra Fría y matizado por diversos convenios de cooperación e intercambio, impulsando de esa manera un avance de la física que no tuvo un desarrollo concomitante en otros campos, así como tampoco en otras áreas de investigación científica y tecnológica. Las condiciones locales de este proceso determinaron que fuese la UNAM la protagonista principal.

Palabras clave: Física nuclear; Universidad Nacional Autónoma de México; Comisión Nacional de Energía Nuclear; Política científica y tecnológica

Abstract: Based on the premise that the scientific and technological development in a country like  Mexico is frequently conditioned to external dynamics that do not correspond precisely with the situation of the local activity nor with the internal necessities of the productive plant, this study describes and analyzes the articulation that originated in an specific juncture in which international imperatives, political perspectives and institutional modalities of investigation and academic work sought to incorporate Mexico to the nuclear era by developing programs of investigation in that field, by the acquisition of technologically sophisticated equipment and by the creation of institutional entities related to the field (the National Commission of Nuclear Energy is one of them). From another perspective, this paper also debates about the imposition of a paradigm during the Cold War, toned down by agreements of cooperation and interchange, that resulted in the stimulation for the development of physics in that field which was neither concomitant with the development in other fields nor with the scientific and technological research in other areas. The local conditions of this process determined that the National Autonomous University of Mexico (UNAM) would be its main protagonist.

Key words: Nuclear physics; National Autonomous University of Mexico; National Commission of Nuclear Energy; Science and technology policy


 

Introducción

Como en muchos otros casos del acontecer científico y tecnológico que tiene lugar en países como México -ubicados en posiciones de marginalidad en el esquema de la división internacional del trabajo- la puesta en marcha de programas de investigación dentro del campo de la física nuclear estuvo determinada por una dinámica exógena. Este fenómeno no fue el resultado de un desarrollo especializado dentro de los trabajos de investigación locales en la rama de la física, ni la respuesta a demandas estratégicas en los programas nacionales de desarrollo científico y tecnológico, y mucho menos la consecuencia de una decisión en el sentido de incorporar los trabajos de investigación realizados en México a estándares internacionales de frontera. Fue, en cambio, la reacción a una mecánica de reacomodo de un paradigma científico que había alcanzado un elevado nivel de sofisticación en su expresión tecnológica a consecuencia de imperativos militares.

En efecto, el enorme desarrollo logrado por los Estados Unidos en el campo de la física nuclear tuvo lugar a partir del así denominado Proyecto Manhattan, puesto en marcha como dispositivo estratégico para la participación de ese país en la guerra mundial. Este proyecto reunió a una verdadera pléyade de científicos, no sólo especialistas en los campos de frontera de la física, sino de otros como la química y las ingenierías; nombres como los de Böhr, Fermi, Chadwick, von Neumann y muchos otros de primera línea se congregaron bajo la dirección de Robert Oppenheimer en un lugar secreto de Nuevo México (Kunetka, 1978). Los recursos financieros que absorbió fueron cuantiosos, constituyendo un caso de excepción que de otra forma no se explicaría con la lógica de la inversión que practican los norteamericanos. El resultado fue la instauración de un paradigma científico acompañado de una aplicación tecnológica altamente sofisticada, con un ritmo de innovación sostenido, lo que supuso no sólo la necesidad regular y ampliada de recursos sino también la justificación económica, política y científica de semejante gasto una vez que fue superado el conflicto bélico con la brutal demostración de fuerza sobre Japón. Poco menos de un mes antes de los sucesos de Hiroshima y Nagasaky, el equipo reunido en Alamogordo realizó con fines experimentales la primer detonación nuclear en la historia de la humanidad, bajo estrictas medidas de seguridad para evitar que el acontecimiento se hiciese público, pero después de los días 5 y 9 de agosto de 1945, el mundo entero conoció bajo una mezcla de fascinación y terror el flamante dispositivo científico-tecnológico: la era atómica había comenzado.

Resulta evidente que el móvil principal del programa norteamericano para dar continuidad y desarrollo a la investigación en física nuclear después de la guerra estuvo constituido por la pretensión de afianzar una posición hegemónica, valiéndose de este recurso de "disuasión". Para tales efectos se diseñó una estrategia política con miras a la creación de condiciones que permitiesen la formación de un virtual monopolio. Los orgullosos poseedores de "la bomba" contaban con que el reconocimiento generalizado de su supremacía habría de traducirse de manera más o menos automática en una práctica también generalizada de subordinación. De hecho, las iniciativas en este sentido por parte de los Estados Unidos comenzaron apenas terminada la guerra, ya en el contexto de lo que sería conocido como la Guerra Fría, consecuencia de una bipolaridad visible desde las negociaciones, y en particular después de la Conferencia de Yalta. En noviembre de 1945 el "know how" de la fisión nuclear fue compartido con las potencias vencedoras, pero únicamente con las angloparlantes (Canadá e Inglaterra), dejando al margen a la Unión Soviética, respecto de la cual se acordó de forma explícita no compartir la información.

Los pasos consecuentes que dieron los estadounidenses para consolidar la ventaja nuclear no se hicieron esperar. Poco más de un año después de la creación oficial de la Organización de las Naciones Unidas (ONU), el 14 de junio de 1946, se celebró la primera reunión de la Comisión sobre Energía Nuclear. En este foro se presentó lo que se conocería como Plan Baruch, debido al nombre del representante oficial de los Estados Unidos, por medio del cual pretendían establecer un procedimiento de control de la proliferación y empleo de arsenales nucleares bajo supervisión de ellos mismos. El plan suponía la inspección de fuerzas y recursos militares de las otras potencias y la destrucción de los arsenales nucleares propios una vez que quedase demostrada la inexistencia de cualquier tentativa en ese sentido.1

El siguiente episodio fue montado por los Estados Unidos unas semanas más tarde, en el atolón de Bikini, a donde fueron convocados científicos de doce países para atestiguar un par de detonaciones nucleares entre el 1 y el 25 de julio. La impresión provocada por el siniestro espectáculo aglutinó a la mayoría de las representaciones en torno a la idea del uso pacífico de la energía nuclear, reconociendo a la hasta entonces única potencia atómica como garante de ese propósito. La Unión Soviética, sin embargo, no pudo coincidir en ese acto de fe y en un contexto de rivalidades exacerbadas dio inicio a sus propias investigaciones para equilibrar la ventaja estratégica. En septiembre de 1949, la agencia TASS informó de una prueba nuclear en territorio soviético, teniendo inicio así la carrera armamentista.

Resulta bastante fácil inferir el peso específico que lograron esa clase de argumentos en el proceso de instauración de un paradigma científico, dando lugar a un rápido consenso de la comunidad científica internacional. Numerosos países que apenas habían incursionado en el campo de la física atómica, incorporando no más que alguna asignatura especializada en los planes de estudio de sus instituciones educativas, se sintieron apremiados por una participación mucho más activa. El atraso relativo tendría que ser subsanado con programas urgentes de formación de cuadros profesionales, puesta en marcha de programas de investigación, obtención de equipos, canalización de financiamiento y, por supuesto, establecimiento de convenios de intercambio y colaboración.

A manera de corolario de la ruta seguida por los Estados Unidos, el entonces presidente Eisenhower presentó ante la Asamblea General de la ONU el proyecto denominado Atoms for Peace el 8 de diciembre de 1953. La inequívoca tendencia de los norteamericanos a favor del lucro determinó el paso de la masacre de Hiroshima a la venta de tecnología nuclear con fachada pacifista. En esa oportunidad, el funcionario ofreció someter al congreso una iniciativa para apoyar cualquier plan de investigación en todo el mundo para los usos pacíficos más eficaces del material fisionable. Esta alternativa, diseñada por los norteamericanos cuando estos ya contabilizaban 43 explosiones nucleares, terminó por convencer a las naciones de la conveniencia de explorar e incorporarse a la tecnología nuclear para la producción de energía. Este último eslabón de la cadena, al conferir un cierto grado de viabilidad a las naciones subdesarrolladas, consumó un proceso mediante el cual se impuso una actividad científica-tecnológica de alto grado de sofisticación y de elevados costos, a países que, como México, apenas contaban con un infraestructura científica incipiente y una escala de necesidades dentro de las cuales, naturalmente, no se encontraba la creación de centrales nucleares. Tal dinámica se antoja como una evidencia de la ley del desarrollo desigual y combinado.

El proceso descrito conformó desde luego un patrón de imposición de amplia cobertura, en donde los niveles diferenciados de asimilación y de incorporación al nuevo paradigma estuvieron determinados por contextos particulares. En el caso de México, dos circunstancias se articularon para definir las modalidades de la puesta en marcha de los programas de investigación en física nuclear: 1) la red de relaciones de dependencia respecto de los Estados Unidos, las cuales han operado desde una perspectiva histórica en niveles que van de la economía a la política, pero también incluyen la ciencia; y 2) la coyuntura local abierta precisamente al impacto de la Segunda Guerra Mundial, mediante la cual los mexicanos dieron inicio a un proyecto de industrialización en la versión de la sustitución de importaciones. Se trató, para decirlo de otra manera, de una situación en donde el prurito de una modernización que llamaremos "refleja" -por la ausencia de condiciones autónomas de gestación- facilitó en gran medida la introducción de una actividad científica considerada moderna por antonomasia.

Entendida la ciencia como producto social, con las características que le son correlativas y que la ubican en un plano de correspondencia funcional respecto a la circunstancia que le dio origen, las formas concretas de articulación con las cuales se realiza una transferencia hacia realidades sociales que en principio le son ajenas, constituyen un proceso que en varios de sus rasgos esenciales reproduce el fenómeno de la dependencia. No se trata únicamente de la imposición de un
paradigma, o de patrones de investigación y de campos y objetos de estudio bien delimitados, sino de manera principal, de una dinámica según la cual el desarrollo científico de la nación receptora se encuentra supeditado a las formas, a los contenidos, a la cobertura y a los objetivos que se encuentran vigentes en el país de origen. Desde luego esta faceta de la dependencia tiende a reproducir y a reforzar desde su especificidad los mecanismos de base de la dependencia en un ámbito más general.

Se trata, para expresarlo de otra manera, de una variante específica de la lógica de la dependencia, en donde, a través de la asesoría y la colaboración en áreas científicas de punta, ofrecida y concedida por los países de mayor desarrollo, se incide en la gestación de una doble demanda, de bienes culturales y de bienes económicos de sustrato tecnológico. Lo anterior se refiere naturalmente a mecanismos estructurales no sujetos a acciones de voluntad personalizadas, que producen el efecto, en el ámbito del desarrollo científico del país receptor. Este tipo de estimulación se verifica, de manera general, en condiciones de ausencia de una tradición científica local y de una incapacidad relativa para asegurar la continuidad de un determinado programa de investigación en términos de calidad y de cantidad, lo cual se puede constatar a través de la observación de distintas variables, como las que se refieren a: infraestructura de investigación disponible, financiamiento, recursos humanos especializados, condiciones de articulación con el aparato productivo, correspondencia con otras áreas de investigación científica de punta locales, y otras de menor peso específico relativo como: marcos jurídicos, reconocimiento social y gestión política.

Es evidente que la mencionada transferencia se suele llevar a efecto sobre la condición de dispositivos institucionales. En el caso particular de México habría que mencionar, de manera muy destacada, la existencia de convenios de cooperación y asistencia científico-tecnológica, entre los cuales cobró una importancia fundamental la recepción de alumnos mexicanos en universidades extranjeras. El antecedente directo de este tipo de mecanismos de colaboración en los que México estuvo involucrado fue el Convenio de Buenos Aires, celebrado en la capital argentina en diciembre de 1936 y ratificado por México en febrero de 1941. El documento, cuya denominación formal es la de "Convención para el fomento de las Relaciones Culturales Interamericanas," establecía la obligación de conceder anualmente dos becas a estudiantes graduados o maestros de cada uno de los países signatarios.2En este sentido podemos asentar que la plataforma sobre la cual se desplegó la incorporación a los programas de investigación en física nuclear estuvo constituida por las primeras generaciones de científicos mexicanos egresados de instituciones norteamericanas.

En efecto, los promotores principales que hicieron factible la incorporación de México a la física nuclear fueron en su momento estudiantes del Massachussets Institute of Technology (MIT), de Harvard o de John Hopkins, todos ellos becarios de la Fundación Guggenheim. Estos cuadros especializados debieron desempeñarse en su oportunidad como funcionarios dentro de la administración pública federal, dado el muy escaso número de científicos de que disponía el país hasta la primera mitad del siglo XX. Sin embargo, este doble papel de académicos y de funcionarios permitió cierta fluidez al fomento de una ciencia local que de otra manera se habría tenido que enfrentar a la negligencia característica de la burocracia. Se trata de los doctores en ciencias Manuel Sandoval Vallarta, Alfredo Baños, Carlos Graef Fernández y Nabor Carrillo, especializados en física con excepción del último, quien se dedicó a la mecánica de suelos.

Resulta evidente que, por el solo hecho de haber realizado su formación científica en los Estados Unidos, el desempeño profesional de estos personajes quedó permeado y comprometido de lo que podríamos llamar "el estilo norteamericano de hacer ciencia". Pero no se trata sólo de este aspecto de lógica reproducción de estándares académicos lo que explica el fenómeno de la dependencia, sino, de manera importante, de los nexos establecidos con las instituciones y con sus miembros prominentes. Así observamos que todas las ramas científicas que se iban abriendo en México en el espectro de la física y de la matemática durante la primera mitad del siglo, se encuentran relacionada de manera íntima a celebridades de la ciencia norteamericana y a sus respectivas instituciones, como Harlow Shapley en astronomía o Salomón Lefshetz en matemáticas. Desde luego esta dinámica tuvo como eje principal a Sandoval Vallarta, el más destacado de los científicos mexicanos de la época, profesor del MIT, discípulo de Einstein y de Plank y creador de la teoría Lemaître-Vallarta sobre rayos cósmicos. La intensa actividad de este experto en física teórica estuvo combinada con sus tareas como funcionario, presidiendo diversos organismos, de tal suerte que su prestigio académico, por un lado, y la capacidad ejecutiva de la que estuvo investido, por el otro, lo llevaron a desempeñar un papel decisivo en el desarrollo de la ciencia en general y de la física nuclear en particular. 100

La situación de la física nuclear en México previa a la gentil invitación norteamericana era, por decir lo menos, precaria. De hecho se reduce a dos antecedentes: 1) la llegada al país de la doctora Marieta Blau, quien escapaba de la persecución nazi y fue invitada precisamente por Sandoval Vallarta para impartir cursos en una universidad michoacana; y 2) la introducción de una asignatura sobre física atómica en 1939 para el Plan de Estudios de la recién creada Facultad de Ciencias de la Universidad Nacional a iniciativa de Alfredo Baños, fundador del Instituto de Física de esa misma institución. Ninguno de estos dos antecedentes logró trascender; la Dra. Blau emigró a los Estados Unidos ante el riesgo de parálisis intelectual que la amenazaba, terminando los aparatos de gabinete diseñados por ella en un remate de objetos raros. La cátedra propuesta por Baños continuó, en tanto, en los cursos de maestría, pero sin ninguna conexión con la investigación.

Fue, como ya se mencionó, el acontecimiento de las detonaciones nucleares sobre las cabezas de los japoneses y la demostración en los mares del Pacifico sur lo que convenció a las autoridades mexicanas y a esta comunidad de científicos de la urgencia de incorporar a la física nuclear. Fue Nabor Carrillo, junto con un representante militar del Estado Mayor, quien fuera seleccionado para presenciar la prueba en el Atolón de Bikini. En esos momentos, el Dr. Carrillo era coordinador de la Investigación Científica de la Universidad Nacional, jefe de la sección de Investigaciones Mecánicas de la Comisión Impulsora y Coordinadora de la Investigación Científica en México y, desde luego, hombre de toda la confianza del presidente de la República. La reacción fue inmediata. "La necesidad de proceder con máxima rapidez en relación con las labores de esta Comisión nos parece de importancia primordial", manifestó el delegado en el informe que se rindió a la  presidencia.3

México contaba entonces con dos instituciones de educación superior de cobertura nacional en las que se concentraba el mayor acopio de recursos, no sólo financieros -entre ambas absorbían más de las dos terceras partes del presupuesto federal destinado a educación superior-, sino en todos los demás órdenes, en donde se incluía desde luego las matrículas más altas del país. En el terreno de la investigación, estas instituciones -Universidad Nacional e Instituto Politécnico Nacional- eran responsables de casi la totalidad de la investigación científica realizada en el territorio y concentraban, por lo mismo, a la inmensa mayoría de los científicos en activo. En 1938, cuando a nivel internacional se descubrió la fisión nuclear, habían tenido lugar dos acontecimientos de primer orden en lo que al asunto de la física se refiere: la creación del Instituto de Física y la de la Facultad de Ciencias, en la Universidad Nacional. El Instituto fue asignado a la dirección del Dr. Alfredo Baños, de hecho el primer doctor en física residente en México, ya que Sandoval Vallarta se encontraba entonces en el extranjero. En 1939 apareció también el primer trabajo desarrollado no en el Instituto, pero sí en contacto directo con él, en una publicación internacional especializada, la Journal of Mathematics and Physics, editada en los Estados Unidos. Se trató de una obra conjunta de Graef y Kusaka - ambos discípulos de Sandoval Vallarta- titulada "On periodic orbits in the equatorial plane of magnetic dipole". De esta manera, cuando emergió la invitación para que México se sumara a la investigación en física nuclear, el depositario del programa sería naturalmente el Instituto de Física de la propia Universidad Nacional, si bien hasta ese momento no había emprendido ninguna investigación relativa a tales materias.

Así, llegado el momento, las autoridades académicas debieron contagiar su entusiasmo a las autoridades federales, dado que en México ninguna entidad era realmente autónoma y todo movimiento importante debía pasar por la aprobación de la presidencia de la República. No fue difícil. El clima que imperaba entonces era de mucha cordialidad entre los países vecinos y las relaciones diplomáticas entre México y los Estados Unidos se hallaban en un punto óptimo. La guerra, que había obligado a los norteamericanos a una rápida reconversión industrial para orientar su producción hacia la campaña bélica, dio la oportunidad a los mexicanos de poner en marcha un programa de industrialización según el recurso de la sustitución de importaciones de bienes de consumo e intermedios. La confianza en el porvenir era patente y las autoridades se apresuraron a apoyar todas las medidas encauzadas a ese fin.

En este marco cobró nuevo impulso la educación superior y con ella la Universidad Nacional, que seguía siendo la institución por antonomasia. Desde luego debemos aclarar que esta proyección universitaria se redujo a la formación de cuadros profesionales que demandaba de forma potencial la naciente industria local, así como el sector de servicios y que, por lo tanto, no incluía a la investigación, la cual siguió desarrollándose ex-oficio por los propios universitarios. Esta consideración resulta importante para precisar y acotar el caso de la física nuclear: el interés mostrado por el gobierno federal en torno a este asunto, que desde luego coincidía con el de los científicos sólo en algunos puntos, se perfilaba con entera claridad hacia un posible aprovechamiento futuro de la energía y, de manera más general, hacia sus empleos pacíficos. México era ya un importante productor de petróleo y la conveniencia de adelantarse a una fuente alternativa que aparecía entonces como inevitable e indefectible, resultaba contundente. Por esas razones el gobierno federal se decidió al apoyo de la investigación universitaria, procedimiento ciertamente inusual. Y fue, de nuevo, la Universidad Nacional la elegida para tales efectos, ya que la total inexistencia de expertos en esa materia en México obligaría a recurrir a esa instancia para formar los cuadros necesarios, con miras en el mediano y largo plazo, a la creación de una Comisión de Energía Nuclear de carácter Nacional y bajo control directo de las autoridades centrales.

El paso decisivo se logró gracias a las gestiones emprendidas por autoridades universitarias, en particular por la intervención del entonces rector Luis Garrido y del coordinador de la Investigación Científica, Nabor Carrillo, a quienes se debe la llegada del acelerador de partículas Van de Graaff. Donado por el mismo presidente de la República y con un costo superior a siete veces el presupuesto anual del Instituto de Física, el acelerador de 2 millones 200 mil MeVolts fue construido por la High Voltage Engineering Corporation, con sede en Cambridge, Massachusetts, a donde el Dr. Carrillo fue invitado a conocer los equipos y los trabajos realizados por el Dr. William Buechner, por iniciativa de Arturo Casagrande, ex profesor suyo en la Universidad de Harvard. Es obvio que en semejantes circunstancias la investigación nuclear en México quedó desde su nacimiento, comprometida y supeditada a la realizada en los Estados Unidos. La siguiente medida se consumó cuando empezaron a ser enviados jóvenes de la nueva generación de científicos mexicanos para ser adiestrados en el manejo de los sofisticados equipos.

Este mecanismo de intercambio devino en una constante durante los años que siguieron a la guerra, ampliando el radio de acción a prácticamente todas las esferas de la actividad científica en México. Las invitaciones a personas en el extranjero fueron recurrentes en algunos casos y no se limitaron a su papel como asistentes científicos, sino que fungieron de mediadores para ampliar la red de cooperación institucional. Así, por ejemplo, uno de los invitados de honor en las ceremonias de 1952 con las que se conmemoró el 400° aniversario de la fundación de la Universidad Nacional, el prof. Carl Djerasi -destacado colaborador de los trabajos en el Instituto de Química- elaboró y remitió al ahora ya rector Carrillo una lista de posibilidades de apoyo a la ciencia universitaria por parte de instituciones norteamericanas: "Yo creo - afirma en su documento el prof. Djerasi- que la UNAM no ha hecho ningún contacto con excepción de la Rockefeller Foundation, la que es internacional en su carácter," para enlistar después una serie de alternativas "for financial support" entre las que se encontraba la Ford Foundation, el National Research Council y la U. S. Atomic Energy Commission.4 Muchas de estas recomendaciones no fueron atendidas en ese tiempo por diversos motivos, entre los que se encuentra el acatamiento de las políticas oficiales en materia de diplomacia exterior, pero lo que aquí importa destacar es el hecho de la existencia de un determinado y reducido grupo de colaboradores cuya participación en los programas de investigación emprendidos por la UNAM iba más allá de la asesoría meramente científica.

En el campo de la física nuclear experimental, ese fue el caso de William Buechner, diseñador y constructor del Van de Graaff en la High Voltage Engineering Corporation, en donde laboraba en compañía del inventor mismo del aparato, Robert Van de Graaff. "Es el instrumento más adecuado para formar en México a los técnicos del mañana", dijo durante una de sus primeras estadías en nuestro país.5Así la relación se tornó permanente, apareciendo Buechner en las listas de invitados de la UNAM año con año. A finales de 1954, cuando este tipo de intercambios se encontraba en plena consolidación, el Committee on International Exchange of Persons de la Conference Board of Associated Research Councils, organismo encargado del tramite en el vecino país, envió una carta al Dr. Carrillo solicitando referencias a este tenor: "¿Posee el Profesor Buechner suficiente experiencia para tomar responsabilidades en una universidad extranjera y para representar decorosamente a sus colegas (norte)americanos? ¿Cómo será vista su candidatura por sus colegas en función de su estancia profesional? ¿Podrá él y los miembros de su familia que lo acompañarán adaptarse a una cultura extranjera y a sus condiciones de vida?" eran las preguntas formuladas por el Committee para presentar la candidatura al Departament of State en los terminos del acta Smith-Mundt.6 La respuesta del Dr. Carrillo fue lacónica: "Debido a su integridad, su buen juicio, la reputación que se ha ganado en su campo y su contagioso amor por su trabajo, yo recomiendo con gran entusiasmo el apoyo del Committee para el lectorado en física del dr. Buechner".7

No fue Buechner, desde luego, el único. En 1954, la lista de candidatos para el intercambio del año siguiente en el Instituto de Física incluyó, además de él, a W. F. Libby, de la Universidad de Chicago y de la Comisión de Energía Atómica de los Estados Unidos; a H. P. Robertson, del Instituto Tecnológico de California; a Ray Pepinsky, del Pennsylvania State College; y a Garret Birkhoff Jr., de Harvard. Ese año, el prof. Bonner se integró a los trabajos en el Laboratorio durante agosto. Al año siguiente, diversos acontecimientos que tuvieron lugar repercutieron en un incremento del intercambio: se creó en la universidad la Oficina de Intercambio Cultural, encomendada de "aprovechar al máximo y de una manera racional las oportunidades que países extranjeros ofrecen para que profesores y estudiantes mexicanos vayan a seguir cursos superiores y de especialización; fomentar entre los industriales, comerciantes y banqueros nacionales un espíritu de interés por la formación de profesionales que se traduzca en la donación de becas, ya sea para complementar las ofrecidas en el extranjero, ya para dar bolsas de viaje".8Aquí valdría la pena mencionar que, no obstante contar con posibilidades previas, no sería sino hasta 1969 cuando entraría en vigor el primer convenio de intercambio cultural y científico con la Unión Soviética.

Los lazos con los Estados Unidos en el campo de la física nuclear continuaron afianzándose. En 1954 se celebró un evento de gran trascendencia para las relaciones de los físicos mexicanos con sus colegas norteamericanos: el Congreso de Física de la Sociedad Mexicana de Física y de la American Physical Society, fundada en 1899 y que participaba entonces en su reunión n° 336 (para la Sociedad Mexicana de Física fue apenas la tercera).

El optimismo que permeó el evento fue general y se hizo patente en el discurso de bienvenida que pronunció Nabor Carrillo en la ceremonia de inauguración: "Pueden estar seguros nuestros huéspedes de que los recibimos con la mayor cordialidad y simpatía, los recibimos con el respeto que merecen las personalidades que aquí se congregan, confiados en que en esta nueva reunión de hombres de ciencia se fortalecerá la simpatía que recupera constantemente el hombre de ciencia en el mundo, esa simpatía que bruscamente parecía haber perdido".9

Casi 400 asistentes de ambos países y del Canadá se reunieron a partir del 29 de agosto en la flamante Ciudad Universitaria de la Ciudad de México para participar en 40 conferencias sobre las diversas disciplinas de la física. El mismo día de la inauguración dictaron conferencias, entre otros, Buechner; Hudspeth, de la Universidad de Texas; y J. M. Walsh, del Laboratorio Científico de Los Alamos. Los mexicanos que presentaron trabajos en conferencia fueron: Graef, Moshinsky, Alba, Carrillo, Sandoval Vallarta, Alejandro Medina y Salvador Mosqueira. "Para muchas Universidades (norte)americanas", dijo el Dr. Raymond T. Birge, presidente de la APS, "México y el Canadá no se consideran como naciones extranjeras desde el punto de vista de los presupuestos para viajes".10

Pero regresando un poco en el tiempo, a fin de atender a lo que estaba sucediendo mientras tanto en el campo de la investigación académica en la UNAM, que -como ya se mencionó- sería el semillero original para la formación de masa crítica en el campo de la física nuclear, habría que señalar que en 1950 se dio inicio a la construcción de la Ciudad Universitaria, construcción emblemática del impulso modernizador que se experimentaba en el país. Precisamente, la primera piedra que se colocó fue en el sitio en donde se erguiría la Facultad de Ciencias, que era el plantel de menormatrícula en la universidad. Para entonces, el Instituto de Física de la UNAM contaba con una planta de dos investigadores de carrera (Graef y Sandoval Vallarta); nueve investigadores (Fernando Alba, Octavio Cano, Juan de Oyarzábal, Fernando Prieto, Héctor Uribe, Leopoldo Nieto, Manuel Perusquía, Díaz Lozada y Enriqueta González); dos ayudantes de investigación (Juan Manuel Lozano Mejía y Francisco Medina) y tres auxiliares (Luis Soto, Teodoro Trejo e Indalecio Gómez).

Ese año, en muchos sentidos crucial para el desarrollo del Instituto, se llevó a efecto una promoción académica que habría de consolidar su planta en doble sentido cualitativo y cuantitativo. En lo que respecta a otro de los factores determinantes -el financiamiento- podemos señalar que si bien su presupuesto ascendió a 141.870 pesos, doblando casi el monto ejercido en 1945, en términos relativos mantuvo una participación equivalente al 0.7% del total universitario. De estas cantidades, únicamente se destinaron 1000 pesos para la adquisición de instrumentos, aparatos y maquinaria y tres mil para el acervo de la biblioteca.

El inminente arribo del aparato Van de Graaff exigió una serie de arreglos en el instituto que, debiendo efectuarse con celeridad, le reportaron un importante impulso en su capacidad de investigación. Los de mayor trascendencia fueron los relativos a la calificación de personal para la operación del aparato y a la adquisición y construcción de los instrumentos complementarios. Ya en junio de 1950 Graef propuso al rector el envío de tres físicos a los Estados Unidos para ser preparados en la investigación relacionada con el nuevo equipo. Dos de los convocados rehusaron la invitación, y sólo uno de ellos, el maestro en ciencias Fernando Alba Andrade, asistió a Massachusetts para ser adiestrado bajo la dirección de Buechner, siendo designado, poco después, jefe del laboratorio. Otro de los miembros del instituto que se sometió a cursos especializados fue Eduardo Díaz Lozada. Egresado de la ESIME del Instituto Politécnico Nacional como ingeniero mecánico electricista, Díaz Lozada había sustituido a Manuel Perusquía como jefe de expertos del instituto en diciembre de 1946, a propuesta de Graef, y para entonces ya había participado en la creación de instrumentos de apoyo a la investigación como el del sistema eléctrico de la Gran Cámara Astrográfica de Tonanzintla y el dispositivo fotoeléctrico para transmitir el tiempo sidérico del péndulo de control de los telescopios del Observatorio Astrofísico, siendo enviado, en ocasión de la adquisición del Van de Graaff, a los talleres de la compañía constructora, adonde fue asesorado para convertirse en el responsable del funcionamiento técnico y la conservación del acelerador. A esta sección se incorporaron tres mecánicos especialistas en instrumentos científicos: Indalecio Gómez, Teodoro Trejo y Luis Soto, así como los electricistas Luis y Juan Velázquez.

En igual sentido, el desarrollo del instituto se vio incrementado desde el punto de vista de su infraestructura técnica y de los aparatos e insumos necesarios para el cabal aprovechamiento del acelerador, que para entonces era el único en todos los países de habla hispana. El inmueble para albergarlo requería de especificaciones sofisticadas para proteger una posible fuga de radiación. De ello se encargaría el Arq. Jorge González Reyna, con la asesoría de Sandoval Vallarta y el propio Graef, quién se dio a la tarea de diseñar un edificio de basalto, aluminio, vidrio y ladrillo vidriado en una zona de acceso restringido al oriente de la Ciudad Universitaria. Más adelante, la universidad habría de celebrar convenios para proveerse de agua pesada -con el gobierno de Noruega- y de nitrógeno líquido -con PEMEX- e iniciaría el diseño y fabricación de algunos instrumentos adicionales, entre ellos el espectrógrafo. Las condiciones para poner en marcha los programas de investigación en física nuclear estaban listas. Las expectativas de aprovechamiento del Laboratorio Van de Graaff eran, para entonces, las de participar en un proyecto internacional de estudio de los niveles de energía de los núcleos atómicos, y en una aplicación para el mejoramiento del cultivo del maíz, bombardeando semillas para producir alteraciones genéticas.

Tales preparativos dentro de la UNAM empezaron a tener efecto reflejo hacia el exterior, como ocurrió en el caso del acuerdo de asesoría establecido con la Secretaría de la Defensa Nacional en enero de 1950. "Me complace expresar a usted", dice la nota enviada con ese motivo al rector, firmada por el secretario General de División Gilberto R. Limón, "mi agradecimiento por la valiosa cooperación que ha brindado a esta Secretaría, al autorizar la creación de los cursos de Física Nuclear e Ingeniería Nuclear para ingenieros militares, en la Facultad de Ciencias dependiente de esa Universidad a su muy digno cargo, los cuales empezarán a impartirse desde el presente año".11Es interesante destacar que a pesar de las expectativas generadas en torno a la física nuclear, las variantes y posibles aplicaciones de carácter militar se mantuvieron dentro de un bajo perfil de incuestionables rasgos académicos.

Parece claro que tales expectativas en torno a la apertura de investigaciones en física nuclear se centraron antes que nada en el desarrollo de la propia Institución universitaria. Para ilustrar a este respecto, se transcribe parte del texto de un documento enviado por el rector Luis Garrido en noviembre de 1950 a la Coordinación de la Investigación Científica, en el que se hace patente la postura de la universidad al respecto: "Considerando que el Laboratorio de Física Nuclear que nuestra Casa de Estudios establecerá en la Ciudad Universitaria en los primeros meses del año próximo, constituye un paso trascendental para la Ciencia no sólo dentro de la Universidad sino del país, estimo indispensable que se realicen los estudios preliminares necesarios para que se puedan abordar los problemas que implica la energía atómica en toda su integridad".12

En el mes de abril de 1951, en el Salón de Actos del Palacio de Minería, tomó posesión la primera mesa directiva de la naciente Sociedad Mexicana de Física, habiendo sido invitado el presidente de la República, Lic. Miguel Alemán, en calidad de socio patrocinador. La mesa directiva fue integrada en su mayoría por académicos de la UNAM, quedando el Dr. Carlos Graef como presidente y el M. en C. Fernando Alba Andrade como vicepresidente. No fue, sin embargo, sino hasta septiembre de 1954 cuando se logró la celebración del Primer Congreso Nacional de Física, en la Ciudad de Guadalajara, evento que habría de sentar las bases para una estrecha relación de los miembros de la American Physical Society con sus homólogos mexicanos.

En 1952 se pusieron realmente en marcha los programas de investigación en física nuclear de carácter experimental (poco antes había incursionado Moshinsky en la física teórica) en México, y ellos estuvieron supeditados a la adquisición y entrada en funcionamiento del acelerador Van de Graaff. "Ya se iniciaron en México investigaciones de física nuclear", señaló el Dr. Graef en noviembre de ese año, en el contexto de un reporte acerca de la ciencia en la universidad. "Nuestro país ya no está al margen de esta disciplina científica que caracteriza a la era que ahora se inicia".13

No está por demás mencionar que justo en esas fechas los Estados Unidos detonaron la primer bomba termonuclear y que en el mes de junio fue botado el primer submarino impulsado con energía atómica, suceso que fue considerado por el presidente de la Atomic Energy Commission de ese país, el Sr. Gordon Dean, como "la primera utilización práctica de la energía atómica, empleada hasta entonces sólo como explosivo".14

La vida del Instituto de Física continuaría desarrollándose en forma muy condicionada por el referente de la física nuclear. En 1954 se fundó la Sección de Radioquímica, que tenía por objeto la investigación de las aplicaciones de la física nuclear a la química; las dos secciones inaugurales fueron la de Carbono Catorce y la de Tritio. Cabe destacar el hecho de que en este paso, con la creación del laboratorio de Carbono Catorce, se estaban derivando las investigaciones hacia aplicaciones más comprometidas con el entorno nacional, dado que ahí podrían determinarse las edades de las muestras arqueológicas orgánicas por el método de Libby; se fijarán las fechas de los estratos geológicos recientes y se estudiará el metabolismo dentro de los organismos de sustancias orgánicas marcadas. México es uno de los países que tienen mayor interés en la determinación de la edad de las muestras arqueológicas. Hasta ese momento se remitían todas las muestras al extranjero para la investigación de su antigüedad.

Hacia el exterior, las iniciativas de la UNAM empezaron a dejar sentir su influencia. Así, a comienzos de abril de 1955, durante la Asamblea de la Asociación Nacional de Universidades e Institutos de Educación Superior ocurrida en Jalapa, Estado de Veracruz, el rector de la universidad anfitriona -la veracruzana - abrió las sesiones con una ponencia en la que propuso que todas las universidades mexicanas enviaran becarios a los Estados Unidos, Canadá, Francia Inglaterra y Alemania para el estudio de la energía atómica. En un principio, la intervención de este rector solicitaba que los mencionados becarios fuesen enviados "exclusivamente" a los Estados Unidos, "país que primero ha hecho declaraciones en favor del empleo de la energía atómica en favor de la paz", pero esta parte fue modificada gracias a la intervención de otros delegados.15 El caso, en fin, es que en ese tiempo cobró verdadero auge el interés por desarrollarse en física nuclear y, con él, el de acudir a apoyos internacionales. A tal respecto habló el jefe de la delegación mexicana ante la ONU durante una comparecencia ante la Comisión de Asuntos Políticos, en octubre de 1955: "México comparte la esperanza de que la fuerza industrial que se derive del átomo, se emplee para acortar las distancias que, en el orden económico, separan a las naciones, pues si con justicia se ha dicho que la paz es indivisible, otro tanto se puede decir de la prosperidad," dijo. Y agregó: "La investigación científica y en especial la relativa a la fuerza derivada del átomo, nació de la cooperación supra-nacional; es indispensable, por tanto, evitar que, como ocurrió durante varias décadas, los obstáculos políticos hagan de nuevo imposible la cooperación".16

Ese año, 1955, crucial para el desarrollo a escala mundial de la física nuclear y en particular de la energía derivada de ella, se verificaron otros acontecimientos de gran importancia. Uno de ellos fundamental en lo que al presente tema se refiere, dado que en torno a éste se definieron las maneras en las que México quedaría ubicado en el ámbito de la colaboración internacional en materia de física nuclear, específicamente en las aplicaciones energéticas de ésta. Nos referimos a la Conferencia Internacional sobre utilización de la Energía Nuclear con fines pacíficos, convocada por la ONU del 8 al 20 de agosto en Ginebra, a resultas del discurso de Eisenhower conocido como Atoms for Peace. A esta conferencia asistieron representantes de 73 naciones y 8 organismos especializados, con un total de 1428 delegados, 1334 observadores y 1132 escritos científicos provenientes de 32 países. De esta conferencia derivó una solicitud de la Asamblea General -en su junta plenaria n° 550- tendiente a crear una nueva agencia de la ONU con el nombre de Organismo Internacional de Energía Atómica, que fungiría en un sentido equivalente al de la UNESCO para la cultura o la FAO para la agricultura. El Prof. Walter Whitman, del MIT, declaró al respecto de los trabajos presentados, que se trataba "del material más abundante jamás presentado ante una conferencia científica".17

Por su lado, Nabor Carrillo, a la cabeza de la Delegación mexicana (integrada, además, por Sandoval Vallarta, Carlos Graef, Tomás Gurza y Rodrigo Vázquez), pronunció un discurso durante la sesión de clausura, en la que dijo: "Nos vamos con una profunda satisfacción. En México, por el grado de desarrollo de nuestra economía y de nuestra industria y la naturaleza del problema de investigación nuclear, nuestros trabajos se han limitado a estudios esencialmente científicos, investigación básica". Más adelante, aludiendo a un asunto de especial interés para los representantes mexicanos, señaló: "Creemos que ahora como nunca existe una brillante oportunidad para la humanidad de establecer por primera vez, y gracias a la ciencia, un arreglo de tipo internacional basado en los valores morales y no en los simples valores materiales".

A partir de aquí, los intereses oficiales de México en materia de física nuclear se deslindaron, bifurcándose la faceta de interés meramente científica que conservó la UNAM, y la pragmática, que se canalizaría hacia la creación de una Comisión Nacional de Energía Nuclear promovida por el gobierno federal. Obviamente, la masa crítica -en ambos casos- fueron los académicos especialistas de la Universidad Nacional. Una vez consumado este proceso, al darse nacimiento a la Comisión Nacional de Energía Nuclear, la dinámica de la vida académica universitaria regresó a la normalidad, es decir: a depender de sus propias y limitadas posibilidades de desarrollo, con presupuestos muy restringidos y ya sin el concurso de apoyos extraordinarios.

Al quedar preparado el camino para la creación de un organismo nacional de energía nuclear, las relaciones de dependencia se profundizaron. El 25 de octubre de 1955 fue presentada la Iniciativa de Ley que creó la Comisión Nacional de Energía Nuclear a los secretarios de la Cámara de Diputados de la XLIII Legislatura, para ser turnada al dictamen previo a su discusión en el pleno.18 El documento había sido redactado y remitido por el Ejecutivo Federal. Para entonces siete eran los países latinoamericanos que tenían suscritos tratados bilaterales de cooperación en energía nuclear con los Estados Unidos: Brasil, Venezuela, Chile, Argentina, Colombia, Uruguay y Perú. El gobierno mexicano procedió entonces a efectuar los trámites correspondientes con el vecino país del norte, aunque formalmente mantenía abiertas las posibilidades de establecer acuerdos de cooperación con otras naciones. Ello, desde luego, no pasó, en la práctica, de meros forcejeos diplomáticos, avanzando en firme hacia una nueva faceta de la dependencia con los Estados Unidos, quienes -por supuesto- contaban ya con afinados dispositivos de "cooperación".

Así lo señaló el Sr. Clark D. Goodman, director del Departamento de Reactores de la Comisión de Energía Atómica de ese país, al sustentar una conferencia, en octubre de 1956, sobre el tema "La energía nuclear y la América Latina".19 Las líneas por él mencionadas fueron tres: educación, intercambio de información y ofrecimiento de combustible. Para ese momento, según estimaciones de Goodman, 35 estudiantes y hombres de ciencia de 11 países hispanoamericanos estudiaban radioisótopos en el Instituto de Oak Ridge, otros20 tecnología de reactores en Argonne y 30 científicos norteamericanos visitarían diversos países de América Latina en el curso del año.

Los planes para el caso concreto de México se estaban configurando. A principios de 1956, el general William H. Draper, chairman de la Mexican Light & Power Company Ltd., se encontraba preparando un estudio para ser presentado en una conferencia sobre Atoms in Business, patrocinada por el Atomic Industrial Forum, con sede en Nueva York, con el título de "The Future Role of Atomic Energy in México and Latin America", en el que ya se vislumbra la instalación de reactores para la producción de electricidad.Es interesante señalar al respecto que a juicio del presidente del Consejo Nacional de Energía Atómica del Brasil, almirante Octacilio Cunha, "los reactores atómicos todavía no se pueden emplear en los países hispanoamericanos" debido principalmente a sus costos.21 La alternativa real para un país como el nuestro sería, como quedaría demostrado en el futuro próximo, la compra por la vía del endeudamiento.

La materialización del proyecto habría de dilatarse aún unos años más, tiempo en el que la creación de la infraestructura necesaria se iría desarrollando de manera paralela a la adquisición de equipos. Hasta agosto de 1963 fue elaborado un calendario preliminar para el proyecto, el que tuvo que ser reprogramado para diciembre de 1964 como resultado de consultas con los subcontratistas arquitectos e ingenieros de la General Atomic, con los fabricantes del tanque, las compañías transportadoras y la manufactura de la grúa. En el curso de ese calendario, la Comisión Nacional de Energía Nuclear gestionó la adquisición de otros equipos, entre los que destaca un acelerador Van de Graaff modelo EN two-stage, de 12 millones de voltios, con un costo de 916 mil dólares. "It is the objetive of this letter that the parties execute a definitive contract at the earliest possible date", afirma la carta de intención dirigida con tal motivo a la High Voltage Engineering Co. en agosto de 1963.

El programa para la entrada en funciones del Centro Nuclear quedó completo con el Acuerdo de Suministro de uranio: "Considerando que el Organismo (Internacional de Energía Atómica) y el Gobierno de los Estados Unidos de América concertaron el 11 de mayo de 1959 un Acuerdo de Cooperación en virtud del cual los Estados Unidos se comprometen a proporcionar al Organismo, en conformidad con el Estatuto de éste, determinadas cantidades de material fisionable especial. Considerando que México ha concertado con un fabricante de los Estados Unidos de América la transformación de uranio enriquecido en elementos combustibles para el reactor y el suministro de contadores de fisión, que contengan uranio enriquecido, destinados a dicho reactor, el Organismo, México y la Comisión de Energía Atómica de los Estados Unidos, acuerdan lo siguiente: i) Alrededor de 20 000 gramos de uranio enriquecido al 20 por ciento, aproximadamente, en peso en el isótopo 235U, (cantidades) contenidas en cien elementos combustibles destinados a un reactor de investigación Triga Mark III de 1 MW". El propio contrato estableció las salvaguardas, los precios (isótopo 235U, al 20%: 2252 dólares gramo; al 25%: 2853 dólares gramo; al 90%, 10.808; al 92%, 11.061; y al 93%, 11.188 dólares gramo) y las condiciones, entre las que se menciona la inspección: "No se efectuará ninguna inspección ordinaria, pero podrán realizarse las inspecciones especiales que se estimen necesarias".22 No está de más mencionar aquí que el costo del reactor Triga Mark III, construido por la General Atomic para los trabajos de investigación de la CNEN en sus instalaciones de Salazar, Estado de México, fue ligeramente menor que el presupuesto total para la investigación en Ciencias y Humanidades en la UNAM durante el año 1960.

Al optar por este tipo de convenios, a través de organismos internacionales, México desechó alternativas de convenios bilaterales que, eventualmente, le redituarían mejores condiciones económicas y de di Informe presentado por el señor Perrin, jefe de la misma, a la Presidencia de la República: "Francia estaría dispuesta a surtir esta Planta (de Concentración de Minerales de Uranio) y a comprar mineral concentrado al 60%, con el compromiso de su Gobierno de utilizar dicho mineral únicamente para fines pacíficos. La realización más económica para México consiste en un trueque de Mineral por Refinería, lo que evitaría salida de dólares. De no ser posible ese trueque, se podría realizar la compra directa, aprovechando las facilidades de crédito que se podría otorgar para tal equipo, ó sea un plazo de 5 a 7 años".

Al desestimar esta clase de posibilidades, las autoridades del país procuraban evitar una relación con implicaciones políticas, optando así por un mecanismo que aun cuando por su propia estructura haría derivar hacia una relación bilateral de dependencia, serviría como filtro para esquivar presiones de otra índole. No está por demás mencionar aquí que en los abstracts preparados para la Conferencia de Ginebra de junio de 1955, Brasil participó con 21 publicaciones y Argentina con 37, y que la Unión Soviética -entre muchos otros documentos- presentó uno titulado "Assistance of the Soviet Union to other countries in peaceful application of atomic energy".23

En todo caso, parece que ya pronto se percataba México de cuál sería en el terreno de lo concreto la clase de "cooperación" que recibiría por parte de los Estados Unidos, como se desprende de la misiva enviada al secretario de Relaciones Exteriores, Lic. Luis Padilla Nervo, por el presidente de la Comisión Nacional de Energía Nuclear, José M. Ortiz Tirado, en ocasión de la fundación del Organismo Internacional de Energía Atómica, en donde externa el voto aprobatorio de su representación: "Los miembros de esta Comisión (...) estimamos conveniente que México suscriba el estatuto del referido Organismo Internacional, por tratarse de una institución creada para proporcionar a los Estados que la integren, elementos de diverso orden para el desarrollo de los estudios y usos pacíficos de la energía nuclear".24

Acatando las recomendaciones de la Comisión -que estaba integrada, además de por Ortiz Tirado, por Nabor Carrillo y Sandoval Vallarta- el 7 de diciembre de 1956, el representante permanente de México ante la ONU, Rafael de la Colina, y Luciano Loublanc, representante alterno, suscribieron a nombre del país el Estatuto del Organismo, con sede en Viena. Y el gobierno mexicano suscribió a la iniciativa, no obstante de que antes, durante los preparativos, en un comunicado fechado el 31 de julio de 1956 y clasificado como confidencial, el embajador de la Colina le informó al secretario de Relaciones Exteriores lo siguiente: "No se alcanzaron los objetivos principales que perseguíamos, debido a la insistencia de las potencias más adelantadas en la tecnología de la energía atómica, de guardar para sí una situación privilegiada, análoga en algunos aspectos a la que tienen los Miembros Permanentes del Consejo de Seguridad. De hecho, es fácil observar hasta qué grado se repitieron en Washington las maniobras realizadas en San Francisco para restar fuerza y autoridad al Órgano plenamente representativo de la nueva entidad. Las consabidas frases [igualdad soberana de todos los miembros], [debido respeto a los derechos soberanos de los Estados], etc. no alcanzan a disfrazar el verdadero sentido del proyectado convenio, o sea, el de robustecer el dominio de las llamadas potencias atómicas".25

Estas fueron, en conclusión, las causas y las maneras en las que México se incorporó a la era de la física nuclear y, en particular, a la investigación científica especializada en ese campo. La historia posterior demostraría que por diversas razones -entre las que destacan los volúmenes de inversión en equipos para la investigación y las desventajas de la investigación original frente a la facilidad de importación de paquetes tecnológicos- el vigor original en esta materia se fue estancando.

Para concluir, mencionaremos que el programa maestro para construcción de plantas nucleares generadoras de energía eléctrica contemplaba, en su versión inicial, la creación de siete de ellas. A la postre sólo una -localizada en Laguna Verde, Veracruz- entró en funcionamiento.

Notas

* Doctor en Historia, investigador titular "A" de tiempo completo en el Instituto de Estudios sobre Universidad y Educación y profesor de asignatura en la Facultad de Filosofía y Letras, Universidad Nacional Autónoma de México (UNAM). Correo electrónico: josedm@unam.mx.

1. Baruch, B. (1981): "United States proposals for the control of atomic energy", Apud. Brian Easlea: La liberación social y los objetivos de la ciencia, p. 399.

2. "Convenio para el fomento de las Relaciones Culturales Interamericanas", Diario Oficial. México, 3 de abril 1941, p. 3.

3. AHUNAM. F: Nabor Carrillo. Sección: Desarrollo Profesional. Caja 3, exp. 16, doc. 577. Carrillo, Nabor. "Las Pruebas de Bikini", p. 109.

4. AHUNAM. F: Universidad Nacional. R: Rectoría. Caja 44. exp. 423. "Carta al Dr. Nabor Carrillo, por el Prof. Carl Djerassi", 1 de junio 1953, p. 3.

5. "México adelanta en investigación de energía atómica", Excelsior, México, 3 de agosto de 1952, p. 1.

6. AHUNAM. F: Universidad Nacional. R: Rectoría. Caja 54. exp. 528. "Carta al Dr. Nabor Carrillo, por Theodore T. Dombras", 8 de diciembre de 1954.

7. AHUNAM. F: Universidad Nacional. R: Rectoría. Caja 54. exp. 528. "Carta del Dr. Nabor Carrillo al Dr. Dombras", 14 de febrero de 1955.

8. "Intercambio Cultural", Gaceta de la Universidad, vol. 2, n° (21) 40, 23 de mayo de 1955, p. 1.

9. AHUNAM. F: Nabor Carrillo. Serie: Desarrollo Profesional. Caja 3. exp. 14. Doc. 552. "Discurso del Señor Rector de la UNAM en la Ceremonia de inauguración del Congreso Americano de Física", 29 de agosto de 1955, p. 2.

10. "Inauguración del Congreso de Física", Gaceta de la Universidad, vol. 2, n° (36) 55. 5 de septiembre de 1955, p. 3.

11. AHUNAM. F: Universidad Nacional. R: Rectoría. Caja 76; exp. 868. "Al Sr. Dr. Carlos Graef Fernández", 31 de enero de 1950.

12. AHUNAM. F: Universidad Nacional. R: Rectoría. s/c "Al Sr. Dr. Nabor Carrillo", 17 de noviembre de 1950.

13. Carlos Graef Fernandez, "La Ciencia en la Ciudad Universitaria", Universidad de México. México, vol. 6, , n° 71, noviembre de 1952, p. 14.

14. Buck, A. L. (1982): "A History of the Atomic Energy Commission", U.S. Departament of Energy, p. 3.

15. Gustavo Duran de Huerta: "Las universidades mexicanas enviarán expertos al exterior", Excelsior, México, 3 de abril de 1955, p. 1.

16. "Ofreció la ONU cabal cooperación", Excelsior. México, 21 de octubre de 1955, p. 1

17. "Dos toneladas de documentos del átomo se examinarán en Ginebra", Excelsior. México, 7 de agosto de 1955, 1.

18. AC ININ. s/c Folio: 000008. "Iniciativa de Ley que crea la Comisión Nacional de Energía Nuclear", 25 de octubre de 1955.

19. "Latinoamérica, mediante acuerdos con los Estados Unidos puede obtener combustible atómico", Excelsior, México, 11 de octubre de 1956, p. 1.

20. AHUNAM. F: Universidad Nacional. R: Rectoría. Caja 34. exp. 362. "Atomic Industrial Forum, inc. Expositure by Charles Robbins", 5 de abril de 1956.

21. "Iberoamérica no puede tener aún reactores", Excelsior, México, 5 de junio de 1957, p. 1.

22. AC ININ. s / c. Departamento Confidencial. "Contrato relativo a la transferencia de uranio enriquecido para un reactor de investigación en México", 18 de diciembre de 1963, p. 1.

23. AREM. XII-1014-1. 1° Parte. "International Conference on the peaceful uses of Atomic Energy. Abstracts published", 28 de junio de 1955.

24. AREM XII-1015-1. 5° Parte. "Memorandum al Lic. Luis Padilla Nervo, por José M. Ortiz Tirado", 4 de diciembre de 1956.

25. AREM. XII-1014-1. 2° Parte. "Del Embajador Rafael de la Colina, al C. Secretario de Relaciones

Bibliografía

1 EASLEA, B. (1981): La liberación social y los objetivos de la ciencia, Siglo XXI.         [ Links ]

2 KUNETKA, J. W. (1978): City of Fire. Los Alamos and the birth of the atomic age 1943- 1945, Prentice-Hall.         [ Links ]

3 BUCK, A. L. (1982): A History of the Atomic Energy Commission, U.S. Departament of Energy.         [ Links ]

Archivos citados

Archivo Histórico "Genaro Estrada" de la Secretaría de Relaciones Exteriores-México (AREM)

Archivo Histórico de la Universidad Nacional Autónoma de México (AHUNAM)

Archivo Central del Instituto Nacional de Investigaciones Nucleares (AC ININ)

Hemerografía

Revista Universidad de México

Gaceta de la Universidad

Diario Oficial de la Federación

Periódico Excelsior

^rND^nAna Maria^sRibeiro de Andrade^rND^nAna Maria^sRibeiro de Andrade^rND^nAna Maria^sRibeiro de Andrade

DOSSIER-ARTICULOS

Átomos na política internacional

Atoms in international politics

 

Ana Maria Ribeiro de Andrade *


Resumen: Este trabalho examina três temas da história da energia nuclear no Brasil de  fundamental importância para a realização de estudos comparados e compreensão da  dinâmica das relações políticas entre o Norte e Sul. O primeiro tema, a compra e  construção de reatores de pesquisa, inclui a análise do programa Átomos para a Paz e  a Guerra Fria; a criação dos institutos de pesquisa do setor; e os acordos de cooperação  para uso civil da energia nuclear firmados com os Estados Unidos. O segundo, os  reatores de potência, aborda a controvérsia sobre a escolha do tipo de reator e a  aquisição de um reator PWR da Westinghouse; a interrupção do fornecimento de urânio enriquecido pelos Estados Unidos; e o pragmatismo político que resultou no acordo  nuclear teuto-brasileiro e construção de usinas nucleares em Angra dos Reis. O último  tema, o desenvolvimento das tecnologias do ciclo do combustível, sintetiza as  estratégias e realizações que resultaram na autonomia nuclear do país; as pressões  internacionais; as alianças entre os países do continente e os acordos de não  proliferação nuclear dos países desenvolvidos. Mostra que o estudo da cooperação tecnocientífica é essencial para entender as políticas externa e comercial dos países.

Palavras-chave: Átomos para a Paz; Tecnologia nuclear; Acordo de cooperação técnico-científica; Relações internacionais

Abstract: This work examines three points of the history of nuclear energy in Brazil which are fundamental for comparative studies and for the understanding of the dynamics of the political relations between the North and South. The first point, the acquisition and the construction of research reactors, includes an analysis of the program Atoms for Peace and the Cold War, the creation of research institutes and the cooperation agreements for the civilian use of nuclear energy signed with the United States. The second point, focused on power reactors, discusses the conflicts in the choice of the kind of reactor and the acquisition of a PWR from the Westinghouse Electric Company, the interruption of supply of enriched uranium by the United States, the political pragmatism that led to the German-Brazilian agreement and the building of the Angra dos Reis nuclear plants. This last point, the development of the fuel cycle technologies, synthesizes the strategies and achievements that led to the nuclear autonomy, the international pressures, the alliances between the countries of the continent and the non-proliferation agreements of the developed countries. This work concludes that the study of technoscientific cooperation is essential to understand the foreign and commercial politics between countries.

Key words: Atoms for Peace, nuclear technology; Scientific and technical cooperation agreements: International relationships


Introdução

Tornou-se emblemático na história da energia nuclear do Brasil o princípio das "compensações específicas", conjetura defendida pelo representante da Marinha nas reuniões da Comissão de Energia Atômica, realizadas no âmbito do Conselho de Segurança das Nações Unidas, entre 1946 e 1948. O autor dessa tese, o futuro almirante Álvaro Alberto da Motta e Silva, valia-se da retórica para jogar com as remotas possibilidades de os Estados Unidos e o Brasil atuarem de forma complementar no comércio de tecnologias e minerais utilizados na produção de energia nuclear. Em linhas gerais, ele propunha que os países exportadores de minerais físseis e férteis, além de venderem a matéria-prima pelo valor intrínseco, deveriam ser compensados por meio de transferência da tecnologia nuclear. O Brasil era um fiel aliado dos Estados Unidos, no entanto, como seu representante naquele fórum defendia a gestão internacional das reservas de tório e urânio -para dificultar o desenvolvimento do ciclo do combustível nuclear em outros países-, Álvaro Alberto registrou que o Plano Baruch significava restrição à soberania nacional.

O antagonismo entre grupos e instituições do Estado marcou o início da história da energia nuclear no país, mas foi a aliança entre militares e cientistas que garantiu o sucesso da criação do Conselho Nacional de Pesquisas (CNPq), em 1951, e de outras instituições que protagonizaram o desenvolvimento da tecnologia do ciclo do combustível.1

A articulação vitoriosa para criar o CNPq ocorreu no governo do general Eurico Dutra (1946-1951) devido ao papel aglutinador e à obstinação do almirante Álvaro Alberto pela energia nuclear (Andrade, 2001). Além dos cientistas estarem empenhados em fazer ciência para superar o atraso crônico da nação, os militares brasileiros atribuíam um papel estratégico à energia nuclear na guerra, defesa e segurança nacional. Por isso, além da desproporcional presença de militares na direção do CNPq, a maior parte dos investimentos se concentrou na montagem da infraestrutura para o setor nuclear, na época estreitamente mesclado ao campo da física, razão pela qual um cíclotron tinha muita importância (Andrade & Muniz, 2006).

Com desmesurado otimismo, os generais do CNPq desprezavam os custos financeiros e entreviam a possibilidade de rápida e fácil aplicação, isto é, do país produzir radioisótopos, possuir reatores de pesquisa e centrais nucleares. Levantavam as bandeiras, desabonavam os céticos e protestavam nos fóruns nacionais, mas se rendiam diante das exigências dos Estados Unidos em troca de qualquer promessa de transferência de tecnologia. Dominar a tecnologia nuclear era prioridade da política brasileira, desde o começo da Guerra Fria.

A opção relegou o financiamento da ciência ao segundo plano, intensificando as disputas internas no CNPq, o parlamento dos cientistas, onde os representantes das disciplinas tinham poder para distribuir os recursos financeiros até mesmo entre grupos e colegas concorrentes (Andrade, 1999: 107-142). As divergências entre os cientistas, somadas às pressões externas contra a resistência do CNPq à exportação de monazita aos Estados Unidos durante o governo de Getúlio Vargas (1951-1954), levaram Álvaro Alberto a criar a Comissão de Energia Atômica (CEA) dentro da estrutura do CNPq (Andrade, 2010: 136-142). Embora sem o estatuto de uma comissão deliberativa, a CEA foi responsável pela criação do Instituto de Energia Atômica (IEA) -hoje, Instituto de Pesquisas Energéticas e Nucleares (IPEN)-, por meio de um convênio entre o CNPq e a Universidade de São Paulo (USP), a fim de viabilizar a compra de um reator de pesquisa pelo programa Átomos para a Paz.

A criação da Comissão Nacional de Energia Nuclear (CNEN), em 1956, decorreu de uma estratégia envolvendo o presidente da República Juscelino Kubitschek (1956- 1961) e um grupo de militares interessados em controlar o setor. Aproveitaram-se da crise no CNPq que deu origem a numerosas denúncias na imprensa e no Congresso Nacional, minando as relações pessoais e interinstitucionais, e que estava polarizada, de um lado, entre o Conselho de Segurança Nacional (CSN), Estado-Maior das Forças Armadas (EMFA) e CNPq e, do outro lado, o Ministério das Relações Exteriores (Andrade & Santos, 2010).

A CNEN absorveu a Comissão de Exportação de Materiais Estratégicos (CEME), do Ministério das Relações Exteriores, e a Comissão de Energia Atômica do CNPq, onde provisoriamente se instalou. Os acordos de cooperação técnica -e.g., o Programa Conjunto de Cooperação para o Reconhecimento dos Recursos de Urânio, firmado com os Estados Unidos em 1955, e a construção de usina de beneficiamento de urânio com a Societé des Produits Chimiques des Terres Rares-, processos administrativos e projetos em andamento no CNPq para o setor foram transferidos para a CNEN. Depois disso, acabaram as denúncias na imprensa. Nem o criticado programa de prospecção assinado entre o CNPq e o US Geological Survey, renovado com a CNEN em 1957, foi mais noticiado. Os resultados também não foram cobrados; nenhuma grande jazida de urânio ou tório teve a descoberta confirmada antes da criação da Nuclebrás, empresa que atuou entre 1974 e 1988.

A CNEN se manteve discreta no cenário político e longe da sociedade, exceto durante o período de reestruturação, que correspondeu ao governo João Goulart; nas polêmicas em torno do funcionamento e depósito do lixo radiativo das usinas de Angra 1 e 2, e construção de Angra 3; nos períodos de crise com os Estados Unidos; e, notadamente, após o acidente com o césio-137 em Goiânia e a revelação dos programas militares secretos para enriquecimento de urânio.

No plano da cooperação internacional a dependência dos Estados Unidos se manteve firme até 1961, quando foi trocado pela França via o Commissariat à l'Énergie Atomique. Assistiu-se o breve retorno Estados Unidos em 1965, que surpreendentemente não chancelaram dois acordos de cooperação para uso civil da energia nuclear, que propuseram em 1965 e 1972. A aproximação da República Federal da Alemanha, desde 1969, refletiu o pragmatismo da política externa brasileira e alimentou as duras pressões norte-americanas.

Este trabalho se concentra na análise de três temas fundamentais da história da energia nuclear no Brasil, cujos atores principais foram o CNPq, a CNEN e suas empresas subsidiárias, os institutos de pesquisa do setor, o Ministério das Relações Exteriores, a Marinha e os Estados Unidos. Sem pretender reconstruir todos os eixos sobre os quais giraram a política nuclear brasileira, tais como as atividades dos  institutos de pesquisa, a prospecção mineral e a formação dos especialistas, busca- se na História os elementos para analisar os temas eleitos na dinâmica da política relações internacionais.

Assim, aborda a montagem de reatores de pesquisa, as controvérsias sobre o tipo de reator de potência, a construção e desempenho das usinas nucleares instaladas em Angra dos Reis, e remete ao desenvolvimento das tecnologias sensíveis e consequentes questões internacionais envolvendo a Agência Internacional de Energia Atômica e, notadamente, o protagonismo dos Estados Unidos. Muitos aspectos são inexplicáveis pelo sigilo que envolve as informações sobre energia nuclear e política exterior; outros são repletos de mistérios, porque o processo de desenvolvimento da tecnologia de enriquecimento do urânio traduziu interesses de militares, cientistas, tecnocratas e políticos por caminhos não revelados.

1. Os reatores da Guerra Fria

O presidente Dwight Eisenhower anunciou à Assembleia Geral das Nações Unidas, de 1953, a realização de um programa dos Estados Unidos para o uso pacífico da energia nuclear e propôs a criação de um organismo internacional encarregado das questões correlatas a ser administrado pela ONU. Evidente oportunismo político, o programa objetivava desviar a atenção da opinião pública americana e internacional do uso militar do átomo e, em particular, do crescimento deliberado do arsenal de armas nucleares dos Estados Unidos. Assim, o programa Átomos para a Paz foi concebido como um instrumento de propaganda e de política externa, ao forjar uma imagem não belicosa da nação hegemônica no mundo ocidental (CNEN, 1959). A estratégia consistia na assinatura de acordos bilaterais de cooperação científica para venda de reator de pesquisa e combustível para o seu funcionamento, sob o mais rígido controle da US Atomic Energy Commission (AEC).

Mudava-se de tática na Guerra Fria, depois que os Estados Unidos perderam o  monopólio das armas nucleares e a supremacia tecnológica para a União Soviética, que testou primeiro a bomba de hidrogênio. A estratégia consistia na banalização das armas nucleares e na popularização dos benefícios da energia nuclear para a agricultura, saúde e bem-estar social. Ao estimular a pesquisa em física e engenharia nuclear nos países signatários, os Estados Unidos também poderiam controlar o desenvolvimento das áreas. Tratava-se de uma arma na guerra contra os comunistas na disputa pela liderança mundial (Ordonez & Sánchez-Ron, 1996: 195) 2 O risco político era pequeno e o empreendimento era atraente para as empresa privadas americanas.

Partia-se de dois pressupostos. Primeiro, não havia mais segredo sobre o conhecimento científico que levou à fissão nuclear e as pesquisas aplicadas nesse  campo se encontravam em estágio avançado no Reino Unido e na União Soviética, e intermediário no Canadá, Noruega e França. Segundo, os Estados Unidos não mais detinham o monopólio da tecnologia da bomba e, o pior, estavam perdendo a batalha da supremacia tecnológica para a União Soviética. Embora poucos países dominassem a tecnologia de enriquecimento de urânio ou a produção de plutônio, era preciso impedir a ampliação desse número e o crescimento do bloco comunista. Logo, o monitoramento dos países possuidores de minerais radioativos era crucial retardar a conquista da autonomia.

A outra forma de coerção consistia em promover (leia, controlar) as investigações no campo das aplicações pacíficas da energia nuclear na chamada periferia da ciência, visto que ainda renderiam vantagens no comércio internacional. Esta prática assegurava o mercado para os reatores de pesquisa fabricados nos Estados Unidos, minando a capacidade de negociação dos compradores com a União Soviética e Grã-Bretanha.

Uma vez que os Estados Unidos investiam maciçamente em pesquisas militares, e. g., na construção de reatores a urânio enriquecido para submarino nuclear, poderiam vender o mesmo tipo de reator para as centrais nucleares de geração de energia elétrica. Por esta razão, Eisenhower sinalizou na ONU que ocorreriam modificações na Lei McMahon (Andrade, 1999: 48) para diminuir as restrições políticas, acelerar a inovação tecnológica e aumentar a competitividade, i.e., ganhar mercados. Um bom pretexto para um real motivo: atender aos interesses das indústrias fornecedoras de insumos e materiais para o setor, e controlar os próprios aliados, através da rigorosa fiscalização das atividades pela Atomic Energy Commission.

Para o físico Isidor Rabi -presidente do General Advisory Commitee da AEC- uma pré-condição para o êxito do programa Átomos para a Paz era a realização de um congresso científico internacional, sob os auspícios da ONU. Assim, ele e o físico inglês John Cockroft elegeram os "reatores nucleares e suas aplicações" tema central do evento realizado em Genebra, em 1955 (Silva, 2010; Andrade, 2006: 77-80). Uma maneira dos países hegemônicos no mundo da ciência demonstrarem sua superioridade, conhecerem o estágio das pesquisas em outros e se apropriarem de resultados inéditos. Afinal, o desenvolvimento científico noutros países era crucial para o progresso da ciência norte-americana.3

A 1a Conferência para Uso Pacífico da Energia Atômica realizada em Genebra foi essencial para o programa Átomos para a Paz ao impedir que países ingressassem na chamada "era atômica" de maneira independente ou através da União Soviética. O clima de otimismo, a troca de informações entre os participantes e a presença de representantes de todos os países signatários de acordo bilateral de cooperação técnico-científica em 1955 resultaram da habilidade da diplomacia americana. Eram vinte países potenciais compradores de reator de pesquisa, mas nem todos tiveram o mesmo tratamento.

Canadá, Reino Unido, Suíça e Bélgica foram privilegiados. Os dois primeiros, parceiros no Projeto Manhattan, assinaram acordos semelhantes sobre o uso civil da energia nuclear em 15 de junho, e o Reino Unido assinou um segundo acordo para a "cooperation regarding atomic information for mutual defense purposes" (Ordonez & Sánchez-Ron, 1996: 198-199). A cooperação com o Canadá estava alicerçada no interesse americano pelas reservas de urânio sob o controle do governo. A Bélgica tinha grandes reservas em colônia na África, no Congo, que fornecia urânio ao Reino Unido e aos Estados Unidos desde 1940. Pela fidelidade durante a Segunda Guerra Mundial e o posterior suprimento de grandes quantidades de urânio, ambos se prontificaram a auxiliar o programa de pesquisa e desenvolvimento nuclear belga, conforme registrado no Art. 1o do acordo bilateral ajustado em julho de 1955 (Ordonez & Sánchez-Ron, 1996: 197). Na prática, a Bélgica poderia receber informações sobre a tecnologia de reatores de potência se quisesse construí-los em seu território e em colônias, Congo Belga e Ruanda-Urundi. Diferente dos termos dos acordos assinados com o bloco dos outros dezesseis países, o documento assegurava à Bélgica: assistência técnica da AEC sobre componentes, materiais, engenharia e física de reatores, e a respeito de segurança no ambiente; autorização para técnicos belgas, depois de rigorosamente selecionados, acompanharem a construção e operação do primeiro reator PWR (na fábrica da Westinghouse Electric Company); e a obrigação da AEC transferir informações sobre projeto, construção e operação de reatores pressurizados a água leve ou pesada para fins industriais ou comerciais. Em contrapartida, a Bélgica se obrigava a não fornecer para nenhum outro país urânio que pudesse ser usado para fins militares, exceto aos Estados Unidos e Reino Unido, que também deveriam ser comunicados sobre qualquer transação envolvendo tório, urânio e outros materiais fissionáveis.

O acordo com a Suíça teve uma vantagem extra para os Estados Unidos, que lhe venderam um reator usado, em troca de 180 mil dólares e da neutralidade política, cuja posição geográfica fazia daquele país o lugar ideal para encontros internacionais nos conturbados anos da Guerra Fria. Ou seja, venderam o equipamento exibido durante a 1a Conferência de Genebra para fazer autopromoção, eficiente marketing político e que tantas atenções despertara.

Os termos e as condições do Acordo de Cooperação para Uso Civil da Energia Atômica assinado entre o Brasil e os Estados Unidos, em 3 de agosto de 1955, eram idênticos aos quinze outros documentos firmados entre 10 de junho e 11 de agosto do mesmo ano, na seguinte sequência: Turquia, Israel, China, Líbano, Colômbia, Espanha, Portugal, Venezuela, Dinamarca, Filipinas, Itália, Argentina, Brasil, Grécia, Chile e Paquistão. Todos enviaram representante a Genebra, no entanto, não há registro de trabalho do Líbano, Chile, Colômbia, Turquia e Venezuela (Andrade & Silva, 2010). A venda de pequenos reatores e o fornecimento de urânio enriquecido em até 20% (sem exceder a 6 kg de urânio contendo U235 que, depois de usados, tinham de retornar para a AEC de forma inalterada) teve resultados diferentes e não se concretizou em alguns casos.

Sem as barreiras originais da Lei McMahon, havia expectativas no meio empresarial americano de ampliação dos acordos de 1955 para possibilitar a venda de projeto e de reatores de potência no mercado internacional. Na visão de um Revista contemporâneo, não podiam perder tempo: "depois da Guerra, com o aparecimento da bomba atômica, que veio mostrar de maneira dramática a importância da energia na fissão nuclear, todos os países se interessavam pelo desenvolvimento da energia nuclear" (Cadernos, 2006: v. 16, 7). Um dos delegados da União Soviética afirmou na Conferência de Genebra que o custo de produção do kWh em usina nuclear de 100.000 kW poderia vir a se equiparar ao custo do kWh de uma usina termelétrica a carvão com igual capacidade. Outros soviéticos, sem embargo, não esconderam que o preço de venda do kWh de sua primeira usina nuclear de 5.000 kW era superior aos preços médios do kWh de energia elétrica produzida em grandes termelétricas a carvão (Guilherme, 1957: 214).

Para fazer propaganda da contribuição do programa Átomos para a Paz e dos benefícios da energia nuclear, uma exposição itinerante patrocinada pela AEC correu o mundo: Japão, Paquistão, Líbano, Grécia, Tailândia, Iugoslávia, Espanha e outros países. No Brasil, a Comissão Nacional de Energia Nuclear (CNEN) promoveu o evento nas cidades do Rio de Janeiro, São Paulo e em outras capitais, em 1961. A exposição "Átomos em Ação" promovia a imagem dos Estados Unidos associada às vantagens da nova fonte de energia, ao divulgar informações sobre suas aplicações na pesquisa científica, indústria e saúde. O evento foi um sucesso de público e para a popularização da ciência (Manchete, 1961: 23).

A exposição recorreu a imagens e argumentos para distanciar a ciência da guerra. Ciência e cientistas eram apresentados como internacionalistas, universais e promotores da paz. A energia nuclear era a porta de entrada para o mundo da abundância. A ciência para a paz construída em 1955 idealizava a atividade científica e seu papel na sociedade, assim como a importância de uma ciência direcionada do centro produtor para os países da periferia científica e política.

1.a. O Brasil na era atômica

O programa Átomos para a Paz foi oferecido pessoalmente por Eisenhower ao embaixador brasileiro em Washington, em 31 de maio de 1955, conforme registros fotográficos. Em meados de julho, foram firmados dois acordos bilaterais: o Programa Conjunto para o Reconhecimento dos Recursos de Urânio no Brasil e o Acordo de Cooperação para Usos Civis da Energia Atômica. A discussão de ambos envolveu uma delegação de especialistas americanos, majoritariamente constituída por membros da AEC, e, do lado brasileiro, uma Comissão Especial nomeada pelo presidente da República Café Filho, constituída por membros da Comissão de Energia Atômica do CNPq (CNPq, 1956: 7 e 28). Posteriormente, o Estado-Maior das Forças Armadas considerou os acordos de 1955 desastrosos para a política nuclear brasileira, lesivos aos interesses nacionais e reflexo da parcialidade do Ministério das Relações Exteriores (Guilherme, 1957: 195).

Durante o Simpósio sobre a Utilização da Energia Atômica para Fins Pacíficos no Brasil, em 1956, o físico Mario Schenberg fez contundentes críticas a seus colegas Marcello Damy de Souza Santos e Joaquim Costa Ribeiro, ambos integrantes da Comissão Especial. Argumentou que os acordos sobre prospecção de urânio e compra de um reator experimental criaram desconfianças: a versão firmada e discutida pela Comissão Especial foi redigida nos Estados Unidos, não sofreu alterações e já havia sido divulgada na imprensa; os Estados Unidos exigiriam contrapartidas ao governo brasileiro por outras vias e a qualquer tempo; os Estados Unidos estavam atrasados no campo dos reatores; e a Inglaterra e a União Soviética não foram consultadas para cotação de preço de reator e obtenção de outras informações técnicas (Cadernos, 2006: v. 15, 32-45; Guilherme,1957: 172-188).

Schenberg estava certo. O acordo para a venda do reator e arrendamento do combustível era idêntico ao firmado com outros quinze países; em 1956, a Comissão de Exportação de Matérias Estratégicos do Ministério das Relações Exteriores (CEME) firmou o 4o Acordo Atômico Brasil-Estados Unidos e um contrato secreto para venda de 300 toneladas de óxido de tório, alegando necessidade de salvar da falência a Orquima S.A. (Cadernos, 2006: v. 15, 70); contrariando a proposta da Comissão de Energia Atômica do CNPq, o Ministério das Relações Exteriores foi contra a rescisão do 3o Acordo Atômico Brasil-Estados Unidos por temer uma interferência negativa na negociação do programa Átomos para a Paz; e a União Soviética e a Inglaterra começaram a operar as usinas nucleares antes dos Estados Unidos.4 Os dois acordos de cooperação 1955 levantaram tantas suspeitas que foram discutidos na Comissão de Inquérito Parlamentar do Congresso Nacional de 1956. A polêmica sobre a exportação dos chamados minerais radioativos atingiu o ápice.

Como a participação do Brasil no programa Átomos para a Paz foi formalizada antes da Conferência de Genebra, a delegação brasileira fez escala nos Estados Unidos para visitar centros de pesquisa e empresas interessadas em vender um reator de pesquisa, Vitro Corporation e General Electric. Na Universidade de Illinois, foram aconselhados por Donald Kerst a formular uma política de energia nuclear. Nada foi decidido sobre o tipo do reator a ser adquirido antes de Genebra.5 Mas depois de discutir o assunto com os especialistas presentes no evento, Marcello Damy decidiu pelo reator do tipo piscina. Na volta ao Brasil pelos Estados Unidos, depois do evento científico, com a finalidade de examinar os detalhes do reator a ser adquirido pelo CNPq (Mattos Netto, 1955; Cadernos, 2006: v. 17, 12).

Os potenciais candidatos para receber o reator do tipo piscina eram a Universidade de São Paulo (USP) e a Universidade do Brasil, nas quais eram professores físicos com reconhecimento.6A única instituição existente e que foi criada exclusivamente para desenvolver pesquisas na área da física e engenharia nuclear, o Instituto de Pesquisas Radioativas, ainda não tinha tradição de pesquisa. Em contrapartida, o Departamento de Física da USP tinha reconhecimento internacional e era chefiado por Marcello Damy, que acabara de instalar um bétraton e ocupava postos-chaves no CNPq.

1.b. Sucesso na periferia

Em janeiro de 1956, o CNPq e a USP assinaram um convênio de cooperação; e, em agosto, fundaram o Instituto de Energia Atômica (IEA), sob a direção de Marcelo Damy, para ser instalado o reator do tipo piscina comprado da empresa americana Babcock & Wicox, pelo programa Átomos para a Paz.7Na época, considerava-se que esse tipo de reator tinha capacidade de produzir alto fluxo de nêutrons com baixo consumo de combustível, urânio enriquecido a 20% arrendado da AEC.

Os dois primeiros anos do Instituto de Energia Atômica foram marcados pela determinação de Marcello Damy: construir o prédio para abrigar o reator em tempo recorde; e investir na formação em física experimental e teórica de um pequeno grupo de professores da USP e de mais uma dezena de jovens magnetizados pelas perspectivas que a energia nuclear abria ao país. Foram eles os responsáveis pela instalação do reator IEA-R1 e por todos os testes do equipamento. As obras civis foram realizadas em ritmo acelerado diante do estímulo de um prêmio, anunciado pelo governo americano para a instituição estrangeira que concluísse em primeiro lugar a instalação de um reator experimental (CNEN, 1959). Em 1957, o reator IEA-R1 atingiu a criticalidade.

No dia das comemorações de 1958 do aniversário da cidade de São Paulo, o presidente da República Juscelino Kubitschek e o governador do estado Jânio Quadros inauguraram o reator adquirido pelo programa Eisenhower. Diante de dezessete delegações estrangeiras, professores, cientistas e políticos, Kubitschek recebeu o cheque-prêmio das mãos do embaixador americano.8 O reator IEA-R1 foi apresentado como o mais importante equipamento para a medicina nuclear no país e imprescindível para os progressos tecnológicos do país.

Desde o início, o reator foi utilizado para formação de especialistas da Escola de Engenharia da Universidade de Minas Gerais, Escola Técnica do Exército, Escola Nacional de Engenharia e a Universidade do Rio Grande do Sul. A 2a Conferência de Genebra, realizada em 1958, não teve o mesmo impacto do acontecimento de 1955, mas os 23 trabalhos espelharam o crescente grau de especialização da delegação brasileira.

Marcello Damy de Souza Santos assumiu a presidência da Comissão Nacional de Energia Nuclear em 1961, quando Jânio Quadros foi empossado presidente da República. O afastamento dos Estados Unidos tinha início, confirmando a mudança de orientação da política externa brasileira e de orientação da CNEN. Mesmo com a renúncia de Jânio, após sete meses de governo, e a posse de João Goulart, Damy permaneceu no cargo e implementou importantes modificações estruturais na CNEN.

A história do Instituto de Energia Atômica e do Instituto de Engenharia Nuclear tem um ponto em comum: ambos foram criados para instalar um reator. Mas o Instituto de Engenharia Nuclear (IEN) resultou dos esforços dos primeiros engenheiros bolsistas do programa Átomos para a Paz, brasileiros enviados aos Estados Unidos para estágio no Argonne National Laboratory. Ao retornarem à Escola Nacional de Engenharia da Universidade do Brasil, o grupo apresentou a proposta de construção de um reator experimental. O projeto foi viabilizado por meio de convênio entre a CNEN e a Universidade do Brasil, atual UFRJ, que resultou na fundação do IEN, em maio de 1962, no campus da Ilha do Fundão (Instituto, 2012).

O processo de decisão da construção do reator do IEN acentuou as diferenças entre os institutos de pesquisa associados à CNEN. Refletindo a orientação da política nuclear do governo João Goulart e a gestão de Marcello Damy na CNEN, caracterizadas pela busca da autonomia tecnológica, não mais se importou um reator fechado. O reator foi desenvolvido segundo projeto do laboratório americano de Argonne, que foi redesenhado no Brasil e construído com 93% de componentes nacionais, pela empresa CBV Ltda, no Rio de Janeiro. Batizado com o nome de Argonauta, utiliza urânio enriquecido a 20% e se tornou crítico em fevereiro de 1965. Desde então, o reator do IEN é utilizado para produzir radioisótopos utilizados como traçadores em pesquisas nas áreas do meio ambiente e industrial, e formação de pessoal.

Na direção oposta à mobilização de engenheiros e físicos em busca da autonomia nuclear, o marechal Castello Branco assinou, em 1965, o Acordo de Cooperação Referente aos Usos Civis da Energia Atômica com os Estados Unidos. Previa-se a troca de informações projeto, construção e operação de reatores de potência e de pesquisa, além do fornecimento de urânio enriquecido e plutônio.9 Embora coerente com a política de reaproximação dos dois países, os Estados Unidos não o chancelaram.

1.c. Depois da Guerra Fria

Era impensável considerar a possibilidade de que algum dia a rota Norte-Sul seria usada no contrafluxo e que pesquisas dos Estados Unidos e da Europa seriam realizadas no IPEN, por meio de acordos de cooperação. Tal fato se deu pelas características do primeiro reator nuclear genuinamente nacional, o IPEN/MB-01, que entrou em operação em novembro de 1988. Desenvolvido por pesquisadores do IPEN, em parceria com a Marinha, o reator de 100 W foi construído para dar subsídios científicos ao projeto do submarino de propulsão nuclear fabricado no Brasil, mas foi disponibilizado as necessidades de outros projetos.

O reator Triga foi desativado e o Argonauta cumpriu sua missão, mas o IEA-R1 passou por várias reformas, inclusive com a ajuda de especialistas da Argentina. A  grande reforma de 1996/1997 aumentou a potência do reator de 2 MW para 5 MW, e passou a se chamar IEA-R1m. Para a medicina nuclear no Brasil essa mudança trouxe uma grande contribuição: a produção local de radioisótopos de última geração, o que gerou uma economia de divisas.

Com a expectativa de ser inaugurado em 2017, seis instituições de ciência e tecnologia participam do projeto do Reator Multipropósito Brasileiro, um reator de 20 MW planejado para produzir radioisótopos para uso médico, testar combustível nuclear e materiais estruturais de reatores de potência e realizar pesquisas com feixes de nêutrons.

O reator será construído no município paulista de Iperó, junto ao Centro Experimental de Aramar da Marinha, onde é desenvolvido o protótipo do submarino nuclear brasileiro. Além do apoio de instituições de fomento brasileiras, há um acordo de cooperação com a Comissão Nacional de Energia Atômica da Argentina (CNEA) para o desenvolvimento de projeto básico comum dos reatores multipropósitos do Brasil (RMB) e da Argentina (RA-10). A empresa argentina INVAP foi responsável pelo projeto do reator de pesquisas australiano OPAL, inaugurado em 2007, que servirá de referência para o RMB e o novo reator argentino.

2. A controvérsia sobre os reatores e os problemas das usinas

Todos os presidentes da República falaram à nação sobre a importância de se construir usina nuclear para complementar a produção das hidrelétricas.10Juscelino Kubitschek considerou a possibilidade de se associar à American & Foreign Power Company.11Nem as negociações evoluíram, como o desenvolvimento da ciência e tecnologia foi relegado no seu governo. As iniciativas da direção da CNEN para construir uma usina na baía de Angra dos Reis também fracassaram, mas inauguraram a controvérsia sobre o tipo do reator de potência. Diferente das conclusões dos estudos preliminares contratados em Londres, o grupo de trabalho do Instituto de Energia Atômica (IEA) e Furnas recomendou um reator de urânio natural e, para o futuro, o reator de tório.

O programa de governo de Jânio Quadros (1961) incluía a construção de reatores de urânio natural ou de urânio enriquecido no país. A opção refletia a orientação do físico Marcello Damy de Souza Santos, presidente da CNEN que permaneceu no cargo durante o governo de João Goulart (1961-1964), imprimindo na instituição a marca de uma independente política externa. Goulart foi contrário à transferência da CNEN para o Ministério de Minas e Energia e a transformou em autarquia federal, subordinada à Presidência; alterou a política nacional de energia nuclear; e decretou o monopólio da União dos minérios e materiais nucleares.

O Plano Trienal de Desenvolvimento Econômico e Social (1963-1965) do economista Celso Furtado, política de longo prazo para vencer o ciclo do subdesenvolvimento, exaltava o emprego da energia nuclear para produção de energia elétrica. Também mencionava a decisão de se construir um reator de potência a urânio natural e de aproveitamento do plutônio em uma segunda linha de reatores, funcionando no ciclo tório-plutônio e tório-urânio233. A orientação técnica partiu do Grupo de Trabalho de Reator de Potência (GTRP), constituído por Marcello Damy com especialistas do IEA, CNEN, IPR e Commissariat de l'Énergie Atomique.12 O relatório do GTRP foi entregue às vésperas do golpe militar de 1964 e recomendava: reator da linha urânio natural, moderado a grafite ou a água pesada, criação de subsidiária da Eletrobrás para construir e operar futura usina e de empresa estatal para cuidar da mineração, beneficiamento e comércio de minerais radioativos. Essas conclusões certamente desagradaram os Estados Unidos, diante da perda de um potencial mercado para os reatores PWR e do controle exercido através do monopólio de fornecimento do urânio enriquecido.

No início da ditadura militar houve queda nas expectativas de produção de energia nuclear e de incremento da pesquisa na CNEN. A prioridade era a reestruturação do setor elétrico a cargo da Eletrobrás, holding estatal responsável pelo processo de encampação das concessionárias estrangeiras de energia elétrica, iniciado no governo Goulart. No entanto, em 1965, o Comitê de Estudos do Reator de Potência (constituído por engenheiros e físicos da CNEN e dos três institutos de pesquisa do setor) deu parecer favorável à utilização da energia nuclear para produção de energia elétrica na região Centro-Sul, avaliou o estágio da prospecção mineral e as possibilidades de fornecimento da matéria-prima para o combustível, apontou as dificuldades tecnológicas dos reatores rápidos, concluindo que o tório era uma boa alternativa. Nascia o famoso Grupo do Tório do Instituto de Pesquisas Radioativas, cujas raízes remontam ao Grupo de Trabalho do Reator de Potência.

O Grupo do Tório investiu na engenharia de reatores em parceria com o Commissariat de l'Énergie Atomique, onde seus membros estagiaram e com o qual a CNEN mantinha convênio. Na primeira etapa das atividades, avaliaram a possibilidade de desenvolvimento da tecnologia de reatores a tório (Projeto Instinto), considerando potenciais reservas do minério em Minas Gerais e o desconhecimento sobre as reservas de urânio. A análise da utilização do tório foi baseada em um conceito definido de reator, que pudesse ser desenvolvido pela indústria brasileira em dez ou quinze anos. O reator seria resfriado e moderado por água pesada sob pressão, contido em um vaso de concreto-protendido. Semelhante tecnologia estava sendo desenvolvida na França, Alemanha e Suécia, i.e., o Brasil não estava sozinho nessa linha de investigação.

Como o tório não é fissionável, o Grupo ponderou que a opção pela mescla com urânio enriquecido, embora mais fácil, dependia dos Estados Unidos e que o uso do plutônio só seria exequível a longo prazo, ou após produzi-lo com urânio natural. O Grupo do Tório tinha a expectativa da linha de reatores nacionais ser viável nas décadas de 1980 e 1990. Se o Grupo do Tório fez história, dois protagonistas registraram que a experiência produziu um resultado inesperado: "a conscientização da extrema dificuldade de se realizar a sua ambição inicial" (Lepecki & Syllus, 1996: 3).

2.a. Pragmatismo político

O ano 1967 marca o início da ruptura da concepção de poder dos governos militares, que passaram a vincular o desenvolvimento econômico ao conceito de segurança nacional e aspirar ao status de grande potência. No plano da política externa, atuaram no sentido de reduzir a dependência dos Estados Unidos e de valorizar os vínculos com pequenas e médias potências no eixo Norte-Sul, diante da percepção de que o antagonismo Leste-Oeste da Guerra Fria se deslocara para a polarização entre os países do centro e da periferia política (Cervo & Bueno, 2002: 397-406). Diante disso, priorizou-se os convênios de cooperação técnica e científica para formação de especialistas em energia nuclear na França e República Federal da Alemanha.

Em diferentes situações, o general e presidente Costa e Silva (1967-1969)  reafirmou que a energia nuclear era "o mais poderoso recurso a ser colocado ao alcance dos países em desenvolvimento para reduzir a distância que os separa das nações industrializadas" (Bandeira, 1989: 169) e que era propósito do governo construir uma usina nuclear. Na justificativa de criação do Grupo de Trabalho Especial no Ministério de Minas e Energia para esse fim enfatizou que "(...) tudo que diga respeito ao campo da energia nuclear, interessa à Segurança Nacional" (Decreto n. 60.890, 22 jun. 1967). Somente o general Dutra, presidente da República no imediato pós-guerra, dera tanta ênfase. A clareza das intenções se revelou quando Dutra justificou ao Congresso Nacional a necessidade de criação do Conselho Nacional de Pesquisas (CNPq, 1952: 72).

No final dos anos 1960, o Grupo de Trabalho Especial do Ministério de Minas e Energia recomendou a construção de uma usina nuclear de 500 MW em 1976/1977, o Grupo do Tório entregou o relatório do Projeto Instinto, e técnicos da Divisão de Engenharia de Reatores do IPR concluíram ser viável construir usinas nucleares no estado do Pará, em plena Amazônia (Lepecki & Syllus,1996: 4; CNEN, 1967: 30).

2.b. Angra 1

Após o lançamento das Diretrizes da Política Nacional de Energia em janeiro de 1968, a CNEN transferiu para Eletrobrás a responsabilidade do processo decisório da primeira usina nuclear. A Agência Internacional de Energia Atômica (AIEA) enviou uma comissão técnica, liderada por James Lane, para trabalhar em parceria com técnicos da CNEN, Eletrobrás e dos institutos de pesquisa nuclear, IEA, IEN e IPR, inclusive com o Grupo do Tório. O relatório do Grupo Lane, confirmou a recomendação do Grupo de Trabalho Especial do Ministério de Minas e Energia, qual seja, a instalação de uma usina nuclear de 500 MW e estimou que, até o ano 2000, as necessidades brasileiras de energia nuclear seriam de cerca de 50.000 MW instalados. Mencionou que qualquer tipo de reator comercial seria adequado. Revista CTS, no 21, vol. 7, Agosto de 2012 (pág. 113-140)

A preferência dos presidentes da CNEN e da Eletrobrás recaía sobre um reator de urânio natural e água pesada. A equipe do IPR concordou e ainda sugeriu a construção simultânea de um protótipo. Uma grande polêmica tomou conta da CNEN, sobretudo entre os que defendiam a alternativa de reator a água pesada e aqueles que propunham reatores a água leve, como o presidente empossado em 1969, Hervásio de Carvalho. As manifestações se tornaram públicas. Vários cientistas se colocaram contra a compra de reator a urânio enriquecido, por estabelecer dependência dos Estados Unidos, até serem silenciados pela força do AI-5, ato institucional de dezembro de 1968 que cassou dezenas de pesquisadores e induziu outros a viver no exterior.

Quando a CNEN foi transferida para o Ministério de Minas e Energia (Decreto n. 63.951, 31 dez. 1968), ficou claro que sua missão na ditadura militar era produzir energia nuclear para geração de energia elétrica. A Eletrobrás, por sua vez, delegou a tarefa de construir usinas nucleares para Furnas Centrais Elétricas S.A., onde o Departamento de Engenharia Nuclear se encarregou de Angra 1. Para facilitar o contato com Furnas, a CNEN criou o Departamento de Reatores e fixou normas de segurança. A praia de Itaorna, município de Angra dos Reis, foi escolhida para a instalação da usina, após a consultoria de empresas americanas, Universidade de Cornell e da Tecnosolo. Os critérios considerados foram: topografia, população, utilização das cercanias, hidrologia, meteorologia, sismologia, geologia, fundações da usina, acesso ao local, integração ao sistema de transmissão de energia elétrica e o destino a ser dado aos rejeitos radioativos.

Em meio às previsões alarmistas sobre futuros blecautes na região Sudeste, Angra 1 foi lançada hasteada na bandeira do Brasil Grande. Contratou-se consultoria da NUS Corporation e da brasileira SELTEC, e enviou-se engenheiros aos Estados Unidos, Canadá e Europa para avaliar os diferentes tipos de reator, assim como para aprender a organizar uma concorrência internacional.

Nenhuma empresa fabricante de reator a urânio natural se credenciou. Das seis empresas candidatas para a venda e montagem dos equipamentos, a vencedora foi a Westinghouse Electric Company (CNEN, 1970: 45). A americana Gibbs & Hill e a brasileira Promon Engenharia desenvolveram o projeto técnico, cuja concorrência para as obras civis foi vencida pela Construtora Norberto Odebrecht em 1972. O combustível para a primeira unidade da Central Nuclear Almirante Álvaro Alberto seria fabricado da seguinte maneira: o yellowcake seria comprado na África do Sul, a conversão em hexafluoreto realizada na Inglaterra e o enriquecimento feito nos Estados Unidos. Diversificou-se os parceiros, por orientação do Ministério das Relações Exteriores, mas continuava a dependência dos Estados Unidos, que detinham o monopólio do suprimento de urânio enriquecido no mundo Ocidental (Andrade, 2006: 133-136).

A participação da indústria nacional na fabricação dos equipamentos para Angra 1 foi pífia, já que o Eximbank exigia a realização de concorrência internacional. Na realidade, a Westinghouse vendeu uma caixa-preta lacrada e com inúmeros problemas técnicos, contendo um reator PWR -urânio enriquecido e água leve pressurizada (Bandeira, 1989: 224).

A solução foi considerada incompatível com os interesses nacionais por uma ala de militares, repudiada por parlamentares filiados ao partido de oposição e muito criticada nas universidades. Os últimos defendiam a compra de um reator do tipo CANDU (urânio natural e água pesada), argumentando que se tratava de uma tecnologia mais simples e fácil de ser transferida, além do país não ficar refém dos Estados Unidos. Foi a vitória do presidente da CNEN, o físico Hervásio de Carvalho, que defendia a alternativa de curto prazo, em detrimento da continuidade de investimento em pesquisa para a fabricação de reatores nacionais. Cálculos e experiências importantes para a continuidade do projeto de engenharia de reatores nacionais se perderam; o Grupo do Tório se extinguiu diante da opção pelos reatores PWR (CNEN, 1970: 60).

2.c. Angra 2

A fase empresarial do setor nuclear brasileiro foi inaugurada com a Companhia Brasileira de Tecnologia Nuclear (CBTN), empresa de economia mista subsidiária da CNEN de 1971. A despeito do início de Angra 1, os estudos de viabilidade econômica conduzidos na CBTN recomendavam outra estratégia: transferência de tecnologia com participação crescente da engenharia e indústria nacionais; implantação gradativa das indústrias do ciclo do combustível; escolha de tecnologia adequada aos interesses nacionais a médio e longo prazos; padronização tecnológica de quatro usinas nucleares a serem construídas; negociação conjunta da importação dos equipamentos para as usinas, em contrapartida à transferência de tecnologia de reator e do ciclo do combustível, sobretudo as tecnologias sensíveis (enriquecimento e reprocessamento); e criação de empresas mistas, em parceria com o país fornecedor da tecnologia, para aperfeiçoar o processo (Lepecki & Syllus, 1996: 6, 12). Eram os fundamentos do futuro Acordo Nuclear Brasil-República Federal da Alemanha.

O presidente da República empossado em 1974, o general Ernesto Geisel, reorientou a política energética com empréstimos bancários internacionais, quando as contas do petróleo desequilibravam a balança comercial e a dívida externa era crescente. No mesmo ano, firmou-se o chamado Protocolo de Brasília com a Alemanha, para acelerar o ritmo da indústria do ciclo do combustível, substituiu a CBTN pela Empresas Nucleares Brasileiras S.A. (Nuclebrás) e reorganizou a estrutura dos institutos de pesquisa. Holding de várias empresas subsidiárias binacionais e subordinada ao Ministério de Minas e Energia, coube à Nuclebrás a execução do Programa Nuclear Brasileiro sob a presidência do embaixador Paulo Nogueira Batista.

Em junho de 1975, os ministros das Relações Exteriores do Brasil e da Alemanha assinaram, em Bonn, o Acordo sobre Cooperação no Campo dos Usos Pacíficos da Energia Nuclear e, em seguida, o Protocolo de Bonn, no qual foram ajustados os procedimentos comerciais, societários e contratuais. As negociações rápidas e secretas envolveram autoridades alemãs, o presidente da CNEN, o ministro de Minas e Energia e o presidente da Nuclebrás, caracterizando a supremacia da política sobre qualquer consideração de ordem técnica.

 

Geisel manteve os militares afastados, assim como Nogueira Batista ignorou os adidos militares da embaixada brasileira de Bonn (Gaspari, 2004: 131). Os acertos finais foram relativamente fáceis, pois o Acordo Nuclear Brasil-Alemanha estava alicerçado em acordos anteriores: o Acordo de Cooperação sobre as Utilizações Pacíficas da Energia Atômica entre o Brasil e a Euratom (1961), o Acordo de Cooperação Científica e Tecnológica entre o Brasil e a Alemanha (1969) e as Diretrizes para a Cooperação Industrial entre o Brasil e a Alemanha (1974), conhecidas como Protocolo de Brasília (Andrade, 2006: 139-143). O draconiano acordo de salvaguardas entre o Brasil, a Alemanha e a AIEA de 1976 incluía material e equipamento específicos, assim como informações tecnológicas relevantes (Marzo & Almeida, 2006: 198-199).

A Alemanha foi escolhida em detrimento dos Estados Unidos e da França, pelas seguintes promessas: transferência de tecnologia e implantação de todas as etapas do ciclo do combustível; capacidade de fabricação de reatores de grande porte; e identificação de reservas de urânio e tório. As vantagens para a Alemanha eram de âmbito comercial: utilização da capacidade ociosa da indústria nuclear; incremento das exportações; possibilidade de enriquecer urânio, pois era impedida pelo Euratom; e interesse nas reservas brasileiras de urânio.

O Acordo de 1975 previa a construção de oito usinas nucleares no Brasil, a capacitação de pessoal -cerca de dez mil técnicos de nível médio e superior, a participação da empresa Urangesellschaft na prospecção e mineração de urânio, em cooperação com a Nuclam, subsidiária da Nuclebrás (Medeiros, 2005: 72). Por se tratar de um negócio da ordem de dez bilhões de dólares e com duplas vantagens (para o capital industrial e também para o capital financeiro, que financiou a venda dos equipamentos), ficou conhecido internacionalmente como o acordo do século.

A censura à imprensa dispensou Geisel das explicações à sociedade sobre o Acordo teuto-brasileiro, limitando-se as justificativas às necessidades futuras de energia elétrica e à crise do petróleo de 1973. O cancelamento unilateral pelos Estados Unidos do fornecimento de urânio enriquecido para Angra 1 e para os três reatores de pesquisa existentes no Brasil, em 1977, foi usado a favor do Acordo (Bandeira, 1989: 224).

O conflito com os Estados Unidos estavam evidentes desde a insubmissão da política externa brasileira ao Tratado de Não Proliferação Nuclear de 1968. Agravaram-se na gestão de Jimmy Carter, após a inclusão da transferência de tecnologia de enriquecimento e reprocessamento de urânio no acordo com a Alemanha. Como o Brasil e a Alemanha não cederam às pressões, Carter contra- atacou denunciando o desrespeito aos direitos humanos pelas autoridades brasileiras. A questão ecoou entre os militares, levando o Brasil a denunciar o acordo militar com os Estados Unidos, que vigorava desde 1952.

A possibilidade de transferência da tecnologia para o reprocessamento reascendeu a crise com o governo Carter, que desdobrou suas ações diplomáticas em gestões multilaterais e bilaterais mais complexas. As pressões se estenderam aos demais países envolvidos no comércio internacional de tecnologia nuclear, por meio de diferentes estratégias. Até a pretensa rivalidade entre a Argentina e o Brasil foi usada pelo secretário de Estado Cyrus Vance, insinuando que ambos deveriam renunciar ao reprocessamento.13

Em 1978, as pressões americanas foram duplamente amparadas. Primeiro, pelo Nuclear Non-proliferation Act, que permitia ao governo americano suspender os contratos de fornecimento de urânio enriquecido. Foi o que Carter fez unilateralmente, a despeito da inspeção internacional, existência de contratos comerciais e do acordo de cooperação de 1955 para fornecimento de combustível aos reatores de pesquisa.  O Projeto Cobra (Coopéracion Brésil Rapide), firmado entre a CNEN e França em 1975 para a construção de um reator de pesquisa térmico-rápido, foi interrompido em 1979 por esse motivo (Instituto, 2012: 15). Posteriormente, as pressões aumentaram com a reformulação do Clube de Londres e as medidas para a plena vigência do Tratado de Tlatelolco, que, embora não lhes dissesse respeito, era uma forma de criar obstáculos para os países latino-americanos não signatários do TNP.

A Nuclebrás ficou encarregada da execução do Acordo, desde as atividades de pesquisa e prospecção de minerais nucleares, desenvolvimento do ciclo do combustível, construção das usinas, montagem de parque industrial destinado à fabricação de equipamentos e componentes para as usinas. Copiando o modelo adotado na época por empresas de capital privado nacional, constituiu subsidiárias sob a forma de joint ventures: a Nuclebrás Auxiliar de Mineração (Nuclam), com participação da Urangesellschaft (UG), para atuar na prospecção, pesquisa, mineração e beneficiamento de urânio; a Nuclebrás Engenharia (Nuclen), em associação com a Kraftwerk Union (KWU), grupo Siemens, para realizar serviços de engenharia; a Nuclebrás Equipamentos Pesados (Nuclep), em acordo com a KWU, a Gute Hoffnungs Hütte (GHH) e a austríaca Voest, para a fabricação de reatores, geradores de vapor, componentes pesados e protótipos de carros blindados; a Nuclebrás Enriquecimento Isotópico (Nuclei), em associação com a Steag e a Interatom, para a produção de urânio enriquecido; e a Nuclebrás-Steag Companhia de Exploração de Patentes de Enriquecimento por Jato-Centrífugo (Nustep), a única com sede na Alemanha e associada à Trenndüsen Entwicklungs Patentverwertung GmbH & Co. KG, criada para o desenvolvimento do método de enriquecimento por jato centrífugo. A Nuclebrás tinha participação majoritária no capital da Nuclam (51%), Nuclen e Nuclei (75%), e Nuclep (98,2%).

Furnas, responsável pela construção de Angra 2 e 3, assinou os contratos de compra de equipamentos com a KWU; a Nuclen ficou encarregada da parte de engenharia dos demais projetos. As obras de construção civil de Angra 2 foram iniciadas em 1977 e os primeiros problemas apareceram ainda na etapa da fundação, atrasando de forma irrecuperável o cronograma.

A exigência de reforço das fundações partiu da CNEN -órgão fiscalizador- e coincidiu com as primeiras críticas da Sociedade Brasileira de Física, que denunciou 13. Informação disponível no documento EG pr. 1974.0318 rolo 3. f. 4055 microfilme (Arquivo E rnesto Geisel). que o Acordo não garantiria o domínio das tecnologias sensíveis. A comunidade científica, excluída do processo de decisão, questionava a necessidade de o Brasil adotar a energia nuclear em larga escala, contestando o argumento de crescimento da demanda de energia elétrica e escassez de recursos hidrelétricos. Havia também os defensores de opções brasileiras, como o aproveitamento do potencial hídrico da Amazônia, no lugar do emprego de tecnologia com risco de graves acidentes. Aos opositores do meio acadêmico, juntaram-se os ambientalistas, preocupados com o rejeito e lixo radioativos (Barros, 2006; CNEN, 1977, anexo: 6; Rosa, 2006: 44).

Se no plano internacional as relações estavam tensas, diante das pressões do governo americano contra a transferência de tecnologias sensíveis, nos canteiros de obras de Angra dos Reis a situação era complicada. Os problemas surgiram do erro estratégico de forçar a convivência diária das equipes ligadas à Westinghouse e à KWU, que tinha melhores instalações. A questão provocou ásperos diálogos entre o presidente da Nuclebrás Nogueira Batista, o ministro de Minas e Energia, o presidente Geisel e Hervásio de Carvalho, da CNEN, quem denunciou as péssimas condições de trabalho dos operários de Angra 1 e era contra acelerar o ritmo das obras em detrimento da segurança. Por detrás dos atritos entre o embaixador e o físico, estava o fato de que eles estavam em arenas opostas: o primeiro, defensor da autonomia tecnológica; o outro, um fiel aliado dos Estados Unidos.

O Acordo Brasil-Alemanha foi sobre-estimado: o Brasil pagou caro pelos equipamentos e não ocorreu a prometida transferência de tecnologia. O acidente de Three Mile Island foi um golpe na credibilidade internacional, mas não interferiu no Programa Nuclear Brasileiro; afinal, era uma questão de segurança nacional!

As obras civis de Angra 2 foram aceleradas, quando se observava a recessão econômica, espiral inflacionária e dificuldades correlacionadas com o segundo choque do petróleo. O último presidente militar, o general Figueiredo, ainda deu exclusividade para a Nuclebrás Construtora de Centrais Nucleares (Nucon) construir outras usinas. Mas era impossível dar prosseguimento ao Acordo devido à elevação dos custos financeiros. Assim, assistiu-se a sucessivos atrasos, depois à paralisação das obras de Angra 2; à ociosidade da fábrica de equipamentos pesados da Nuclep; ao insucesso da unidade de enriquecimento isotópico da Nuclei, devido à tecnologia alemã; à desativação da Nucon em 1984; e, por fim, ocorreu a redução geral das atividades da Nuclebrás e evasão do pessoal qualificado.

O Acordo não atingiu as metas: apenas a primeira etapa da Fábrica de Elemento Combustível foi inaugurada; as obras de Angra 2 se estenderam de 1976 a 2000; a transferência da tecnologia para enriquecimento do urânio nunca se materializou; e a construção de Angra 3 se arrasta. A exceção foi a prospecção mineral: as reservas de urânio identificadas ultrapassaram 300 mil toneladas, mesmo que apenas 25% do território nacional tenha sido prospectado.

A sociedade brasileira só tomou conhecimento do Programa Nuclear com o retorno à democracia, na década de 1980. A imprensa divulgava informações sobre os sucessivos defeitos do equipamento vendido pela Westinghouse, no Congresso Nacional uma comissão de inquérito examinou o Acordo Nuclear Brasil-Alemanha, ocorreram diversas manifestações populares e ações judiciais contra o funcionamento de Angra 1, especialmente por falta de plano de emergência e contínuos defeitos. Finalmente a utilização da energia nuclear para a produção de energia elétrica deixou de ser um assunto de segurança nacional.

O Programa Nuclear foi revisto por uma comissão nomeada em 1985. Mesmo reconhecendo o fracasso e o alto custo do acordo com os alemães, a comissão recomendou a conclusão de Angra 2 e Angra 3, cujos equipamentos já haviam sido pagos, e a redução da Nuclebrás a uma empresa especializada nas atividades do ciclo do combustível e fabricação de equipamentos para reatores. Como os problemas do setor nuclear pareciam ter solução com a mudança de nome das instituições, a Nuclebrás foi transformada na Indústrias Nucleares do Brasil S.A. (INB), subsidiária da CNEN; a Nuclen em subsidiária da Eletrobrás, que devolveu a Furnas o gerenciamento da construção e operação das usinas nucleares (Decreto-Lei n. 2.464).

A construção de Angra 2 ficou paralisada de 1983 a 1994; em 2001 teve início a operação comercial com potência média de 1.300 MW sob a responsabilidade de empresa exclusiva, a Eletrobrás Termonuclear S.A (Eletronuclear) criada em 1997. Persistem as polêmicas sobre o depósito provisório de resíduos e muita preocupação em esconder os incidentes da sociedade.

A construção de Angra 3 foi autorizada no governo de Fernando Henrique, iniciada no governo de Luiz Inácio Lula da Silva e calcula-se que serão necessários 1,7 bilhão de dólares. Há setores da sociedade céticos quanto à conclusão de Angra 3 e outros permanecem radicalmente contra a usina. Em 2004, a Alemanha rompeu o acordo nuclear com o Brasil, sem causar danos nas relações políticas e comerciais. Para diplomatas brasileiros, o acordo de 1975 cumpriu seus objetivos centrais; para o historiador, o país hegemônico troca de estratégia em busca de vantagens comparativas, sejam no plano político ou no mercado internacional para seus novos produtos, serviços e tecnologias.

3. Tecnologias estratégicas e acordos sensíveis

Na esfera das relações internacionais, a cooperação técnica e científica não se limita a simples permuta de informações, conhecimentos e métodos, ou venda, empréstimo e doação de equipamentos, insumos e outros bens. A cooperação é um instrumento de política e, muitas vezes, de propaganda política do país que se encontra em patamar superior em determinadas áreas do conhecimento ou que é hegemônico em dado contexto, para facilitar negociações futuras, abrir mercado, formar opinião, ganhar aliados, etc. Bons exemplos são o Acordo de Cooperação para Uso Civil da Energia Atômica assinado entre o Brasil e os Estados Unidos em 1955, que viabilizou o programa Átomos para a Paz, e o Acordo Geral sobre Cooperação nos Setores de Pesquisa Científica e do Desenvolvimento Tecnológico firmado entre o Brasil e a República Federal da Alemanha em 1969, que abriu as portas para acordo nuclear de 1975 em troca da capacitação de centenas de engenheiros, físicos, químicos para a área nuclear, como de biólogos e matemáticos, naquele país.

Os acordos de cooperação também devem ser examinados como uma estratégia dos países técnico e cientificamente periféricos para alavancar uma área do conhecimento. Foi o caso do Instituto de Energia Atômica (IEA), atual Instituto de Pesquisas Energéticas e Nucleares (IPEN), cuja criação decorreu de convênio entre o CNPq e a USP para instalar um reator experimental previsto no acordo de cooperação com os Estados Unidos, de 1955. Embora a política dos Átomos para a
Paz tivesse a real intenção de restringir as iniciativas voltadas para o desenvolvimento autônomo de tecnologia, direcionando a investigação e práticas nesse campo para a dependência de conhecimento, materiais e insumos (inclusive refém do urânio enriquecido para o reator), técnicos e cientistas aproveitaram as vantagens relativas de um acordo político de mais alto nível do qual não participaram.  O reator IEA-R1 teve efeito multiplicador na formação de equipes para outros institutos e universidades, além de ter permitido a realização de vários experimentos e projetos de engenharia.

A busca da autonomia nuclear consumiu muitos investimentos, foi marcada pela descontinuidade da política para o setor e, principalmente, agregou décadas de trabalho de investigação no IEA/IPEN, IPR/CDTN e IEN, e em outras instituições pesquisa financiadas pelo CNPq e CNEN, tal como no Instituto de Pesquisas Tecnológicas (IPT), Instituto Militar de Engenharia -para o Grupo de Trabalho da Água Pesada- Unicamp, USP, dentre outras (CNEN, 1967: 47-49; CNEN, 1970: 120). Apesar de o empenho das equipes dos institutos, lutando contra uma série de adversidades, só a partir de 1967 que a política de ciência e tecnologia emergiu como uma alternativa de ação coordenada e o pragmatismo passou a orientar a política exterior brasileira. Rejeitava-se o poder associado à potência hegemônica ocidental, os Estados Unidos, que impediam a importação de tecnologias avançadas para o setor nuclear pela via da cooperação científica. Como a conquista da tecnologia nuclear tinha raízes no nacionalismo dos anos de 1950, que se fortalecia ao ser associado ao desenvolvimento econômico, os instrumentos de política foram articulados em vários níveis. Ou seja, a estratégia estava alicerçada na possibilidade de se conjugar dois níveis da política, a interna e a externa, para alcançar o desenvolvimento econômico autossustentado, não importa com quais parceiros, e, ao mesmo tempo, redefinindo a relação com os Estados Unidos, para limitar o grau de dependência financeira, tecnológica e cultural. A engenhosidade política causou impacto positivo em grupos de influência e a ambiguidade caracterizou as ações da política externa no período da ditadura militar (Cervo & Bueno, 2002: 398).

Como mencionado, a Companhia Brasileira de Tecnologia Nuclear (CBTN), empresa de economia mista subsidiária da CNEN de 1971, inaugurou a fase empresarial do setor nuclear. No marco do Acordo de Cooperação Científica e Tecnológica entre o Brasil e a Alemanha de 1969, redistribuiu as pesquisas relacionadas ao ciclo do combustível entre os três institutos que passou a coordenar.

O Projeto Hexafluoreto de Urânio (UF6) foi conduzido pelo IEA. O Projeto de Reprocessamento, a fim de extrair do combustível utilizado nos reatores o material físsil nele ainda contido (U235 e plutônio), foi implantado no IEN, com assessoria de especialistas alemães. O Projeto Tratamento de Rejeitos foi sediado no IPR, também teve assessoria de alemães. O Projeto Elemento Combustível foi subdivido: a fabricação de pastilhas ficou a cargo do IEA; a fabricação de varetas, do IPR; a fabricação de componentes estruturais e a montagem do elemento combustível, do IEN; e o projeto da fábrica de elemento combustível se concentrou no IEN. Para o desenvolvimento do Projeto Enriquecimento, a mais complexa da etapa, a CBTN tornou-se membro da Association for Centrifuge Enrichement, formada pela Inglaterra, Holanda e Alemanha, que tinha por objetivo comercializar o processo de enriquecimento por ultracentrifugação. A CBTN ainda contratou a NUS Coorporation (EUA) para dar consultoria sobre o assunto.

Em 1973, foi inaugurada no IPEN a planta piloto para produção de UF6. As atividades lá realizadas foram fundamentais para o domínio do processo de enriquecimento de urânio por ultracentrifugação, posteriormente desenvolvido em colaboração com o Centro Tecnológico da Marinha de São Paulo (CTMSP).

3.a. O programa da autonomia

A pressão dos Estados Unidos em torno da transferência da tecnologia de enriquecimento de urânio prevista no Acordo Nuclear Brasil-Alemanha terminou, após a avaliação do erro estratégico em 1977, da constatação de que o processo de jato centrífugo (jet nozzle) não representava nenhuma ameaça (Marques, 1992: 76) e que a tecnologia do processo por ultracentrifugação era de propriedade da Alemanha e de empresas da Inglaterra e da Holanda, que formaram o consórcio Urenco. Os holandeses foram contra transferência, em aliança com os Estados Unidos, com os quais tinham um acordo bilateral que permitia a esses estacionar armas nucleares na Europa.

Essas certezas eram compartilhadas entre militares das três armas envolvidos em pesquisas básicas e aplicadas na área nuclear, no final da década de 1970. Além disso, eramm de opinião que os compromissos estabelecidos com a AIEA, expressos nos acordos tripartites de salvaguardas internacionais do Acordo Nuclear de 1975, limitavam a autonomia brasileira. Diante das dúvidas quanto à viabilidade técnica do método de enriquecimento negociado com a Alemanha, e mesmo a respeito da viabilidade econômica do acordo, a Marinha elaborou um programa paralelo, independente daquele conduzido pela Nuclebrás. A motivação imediata era o desenvolvimento da tecnologia nuclear para a propulsão de submarinos e, evidentemente, do combustível necessário. A cargo do Centro Tecnológico da Marinha de São Paulo, o programa começou com a construção do Centro Experimental Aramar, em Iperó (SP), sob o comando do almirante Othon Luiz Pimenta da Silva, principal coordenador do projeto. Em maio de 1978, ele havia apresentado um relatório ao Estado-Maior da Armada, a partir do qual a Marinha decidiu investir no ciclo do combustível nuclear pela via do método de ultracentrifugação.

Naquele ano era grande a preocupação com os rumos do acordo nuclear, que não previa uma planta para a produção de hexafluoreto de urânio (UF6) já que a Alemanha não fazia a conversão do yellowcake (U3O8). Duas correntes se formaram em torno da questão: uma defendia a importação dessa tecnologia da França; a outra, era de opinião que o IPEN tinha capacidade de desenvolver a tecnologia de conversão com financiamento da CNEN e CNPq. Esta corrente saiu vencedora com o apoio da Secretaria do Conselho de Segurança Nacional, à qual se juntaram as agências de fomento -CNPq, CNEN-, Nuclebrás e o Ministério das Relações Exteriores, como teve aval do general Geisel, dias antes de deixar o cargo de presidente, em 1979.

A Aeronáutica, através do Centro Tecnológico da Aeronáutica, que já promovia pesquisas utilizando o laser no enriquecimento isotópico do urânio em convênio com o IPEN, intensificou as atividades voltadas para o desenvolvimento de reatores rápidos e construiu uma base para testar artefatos nucleares na Serra do Cachimbo (PA). "Em consequência desse sigilo e falta de controle é que se desenvolveram atividades quase clandestinas dentro do próprio governo e que levaram aos planos de fazer armas nucleares" (Congresso, 1990: 88). Era o chamado Projeto Solimões, o qual cabia ao IPEN produzir o composto de urânio; desenvolver a tecnologia de reprocessamento e de separação de urânio metálico; fabricar equipamentos eletrônicos e materiais especiais; e exercer o controle radiométrico e ambiental das instalações.

A concomitância das pesquisas de enriquecimento de urânio nas duas instituições ilitares, mas por métodos diferentes, tinha autorização do presidente da República, a quem fora enviado uma Exposição de Motivos conjunta dos ministros da Marinha e da Aeronáutica nesse sentido. Queriam deixar claro que não havia nenhuma conotação de rivalidade entre os dois projetos.

O Exército, também em convênio com o IPEN, esteve envolvido até por volta de 1990 com o projeto de um reator a urânio natural e grafite no Centro Tecnológico de Guaratiba (RJ), para produção de plutônio (Congresso, 1990: 105).

O projeto exitoso foi o da Marinha, que teve o apoio inicial do superintendente do Instituto de Pesquisas Tecnológicas e do chefe da área de Processos Especiais do IPEN. Como o principal instituto brasileiro de pesquisas nucleares não era subordinado à Nuclebrás, não estava sujeito às salvaguardas internacionais. O projeto de enriquecimento de urânio tinha apoio de Rex Nazaré Alves, diretor executivo da CNEN, cujo presidente Hervásio de Carvalho negou o pedido de auxílio financeiro solicitado em 1979. Isto não impediu as atividades, até porque o projeto contava com o aval do general Figueiredo, sucessor de Geisel na Presidência da República. Em 1981, a Secretaria do Conselho de Segurança Nacional concedeu apoio; no final desse ano, estava concluída a primeira ultracentrífuga; e oito meses depois foi realizado o primeiro experimento de enriquecimento isotópico de urânio. Na mesma época, Rex Nazaré assumiu a presidência da CNEN, que passou a conceder recursos ao programa paralelo ou autônomo, como preferem chamar os protagonistas que nele estiveram envolvidos (Alves, 1998: 6; Congresso, 1990: 4-7).

O programa Marinha/IPEN envolveu diretamente sete engenheiros, liderados pela almirante Othon Pinheiro da Silva, muitos consultores da comunidade tecnocientífica e setores da indústria verdadeiramente nacionais. Se empresas brasileiras não fossem capazes de fornecer e produzir determinados componentes para as centrífugas, o empreendimento não poderia se concretizado (Barros, 2006).

A primeira minicascata de centrífugas do Centro Tecnológico da Marinha de São Paulo (CTMSP) entrou em operação em 1984. O sucesso foi anunciado pelo presidente José Sarney em 1987 e, no ano seguinte, o programa paralelo da Marinha foi incorporado às pesquisas oficiais. Os programas do Exército e da Aeronáutica não tiveram o mesmo fim.

No Congresso Nacional, a Comissão Parlamentar Mista de Inquérito (CPI), destinada a Investigar o Programa Autônomo de Energia Nuclear ou as atividades secretas das Forças Armadas, data de 1990. O ex-ministro almirante Maximiano da Fonseca preocupou-se em esclarecer a finalidade do projeto da Marinha. Alegou em seu depoimento que o programa foi mantido em segredo "não para esconder da opinião pública, mas para proteger o projeto e o governo brasileiro da tremenda pressão internacional contrária" e justificou o dispendioso plano do submarino nuclear, lembrando que "a Argentina sofreu muito na guerra das Malvinas, por não dispor desse equipamento" (Congresso, 1990: 8).

O almirante Othon Luiz Pinheiro da Silva -gerente-responsável pelo Programa de Enriquecimento de Urânio com Ultracentrífugas Brasileiras e pelo Programa de Propulsão para o Submarino Nuclear Nacional- seguiu a mesma linha de argumentação. Fez ver aos membros da CPI que o Acordo Nuclear Brasil-Alemanha era basicamente industrial e que a tecnologia jet nozzle não era promissora. Advertiu que o país precisava também de um programa de desenvolvimento científico e tecnológico, "(...) mas não é um principal e outro paralelo. (...) Um não conflita com o outro de forma alguma. Mesmo que o programa industrial tivesse dado certo, teríamos que ter um programa industrial de desenvolvimento científico e tecnológico, porque a tecnologia evolui" (Congresso, 1990: 55-56).

A Comissão Parlamentar Mista de Inquérito demonstrou admiração pelo sucesso do programa de enriquecimento de urânio, contudo destacou que a sociedade precisa ter conhecimento dessas atividades e fez sugestões de formas para o controle (Congresso, 1990: 109).

3.b. A desconfiança internacional

Depois de ter desenvolvido a tecnologia de enriquecimento isotópico do urânio para ser usado na propulsão nuclear, o Centro Tecnológico da Marinha de São Paulo transferiu as centrífugas para a Indústrias Nucleares do Brasil (INB), unidade de Resende (RJ). A autonomia do país na área nuclear despertou a desconfiança de observadores da AIEA e, em particular, dos Estados Unidos. Quando a capacidade de produção industrial de UF6 enriquecido tornou-se pública, a imprensa americana igualou o Brasil aos países do Oriente Médio que julgavam ser uma ameaça em potencial.

Os embates se acirraram com o início dos testes das centrífugas instaladas na INB Resende, provocando um contencioso político entre a AIEA e o Brasil. O governo brasileiro impediu o acesso dos inspetores à área das centrífugas e defendeu o seu direito de preservar tecnologia estratégica desenvolvida para fins pacíficos. Os  inspetores que estiveram em Resende (RJ), em 2004, ficaram separados dos equipamentos por um painel e só puderam ver válvulas e conexões.

Na ocasião foram levantadas duas hipóteses para a realização de inspeção mais minuciosa. De um lado, o trauma do terrorismo que assolou os Estados Unidos depois do 11 de setembro de 2001, aliado ao falso discurso de que o crescimento da esquerda populista na América do Sul contaminaria o continente. E bem mais factível, de outro lado, o interesse de conhecer os aprimoramentos técnicos introduzidos nas centrífugas brasileiras. Na verdade, as pressões sobre o Programa Nuclear Brasileiro continuavam sendo orquestradas de Washington, para serem usadas como moeda de troca no jogo das negociações próprio da política e do comércio internacionais. Em meio às tensões, o secretário de Estado Collin Powell tentou atenuar o conflito e declarou à imprensa que seu governo não via o Brasil como uma ameaça nuclear e que era absurda a suspeita de que se estivesse enriquecendo urânio para desenvolver armas. O país era signatário do Tratado de Não Proliferação (TNP) desde 1997. O urânio enriquecido a 3,5% na INB Resende atende pequena parte das necessidades de Angra 1 e 2. O restante da matéria-prima para a fabricação das pastilhas de urânio, que compõem os elementos combustíveis usados nos reatores, continua sendo produzido pela Urenco.

Transcorridos mais de quarenta anos da compra do reator da Westinghouse, urânio das jazidas brasileiras até os reatores de potência percorre um caminho alternativo, mais desimpedido e com menos barreiras políticas. Diferente do previsto naquele tempo, no século XXI o trajeto é outro: o yellowcake é produzido com urânio brasileiro na INB Caetité; convertido em hexafluoreto de urânio (UF6) no Canadá, de onde grande parte vai para uma das fábricas associadas à Urenco para ser enriquecido. Da Europa, vem para a INB Resende, onde é reconvertido e utilizado para a fabricação de pastilhas. Entretanto, há um atalho independente e seguro: uma parte do UF6 vem direto do Canadá para ser enriquecido nas centrífugas da INB Resende, desde 2006.14

Conclusões

Há consenso nos debates em torno do singular papel desempenhado pela energia nuclear no mundo contemporâneo, bem como de que sua utilização é marcada pela dicotomia entre fins pacíficos e militares. Do mesmo modo que o monopólio da tecnologia nuclear diferenciou os Estados Unidos dos demais países durante um longo período da Guerra Fria, o Tratado de Não Proliferação Nuclear (TNP), que estabeleceu o direito de apenas alguns países possuírem armas nucleares, diferenciam os Estados nacionais. Se o pretexto sobre a finalidade de programas nucleares de determinados países marcam o cenário das relações internacionais, é tênue a diferença, se é que existe, entre fabricar artefatos nucleares para a defesa e para a guerra. Em meio à polêmica, muitos asseguram que todo programa nuclear  está associado às aspirações militares, i.e., tem fins bélicos. Devido às etapas de enriquecimento e de reprocessamento, o desenvolvimento do ciclo do combustível está sujeito às salvaguardas da AIEA. Logo, o debate envolve questões gerais relacionadas à guerra, segurança mundial, autonomia tecnológica e hegemonia política, como aos riscos de acidentes.

Setor privilegiado do sistema de ciência e tecnologia, pelo potencial de aproveitamento e necessidade de grandes investimentos em pesquisa e para a produção industrial, a energia nuclear tem um significado particular para as Forças Armadas e na política de relações internacionais, e, ao mesmo tempo, distinto da percepção na sociedade. Se o domínio da tecnologia nuclear é considerado um ícone do poder militar e da autonomia de um país, o comércio de tecnologias sensíveis, a venda de minerais radioativos, os acordos de cooperação técnico-científica e tratados firmados entre Estados e/ou organismos internacionais têm especificidades. Sem desconsiderar os riscos da atividade, as relações internacionais entre os Estados são permeáveis às políticas de energia nuclear e ao grau de domínio da tecnologia nuclear. Tratados e acordos regionais buscaram estabelecer normas de coexistência pacífica entre os povos. Um dos mais polêmicos instrumentos, o TNP, em vigor desde 1970, na prática dividiu as nações em duas categorias: as potências nucleares e as potências não nucleares, proibidas de adquirir tecnologias sensíveis ou de fabricar artefatos nucleares, ainda que para fins de defesa.

A presença de militares no cenário internacional dessas decisões é indissociável nahistória no Brasil, revelando os fortes vínculos entre energia nuclear, guerra e segurança nacional. Tanto assim que, por receio de a presença dos militares causar apreensão no meio internacional, os adidos e assessores militares foram afastados da cena das negociações do Acordo de Cooperação Técnico-Científica para Uso Pacífico da Energia Nuclear firmado entre o Brasil e a República Federal da Alemanha em 1975. Para recuperar a dimensão política da questão, dois acontecimentos chamaram a atenção. De um lado, a perplexidade da sociedade brasileira com a descoberta de que as três armas mantinham projetos secretos para desenvolver a tecnologia do enriquecimento de urânio e o gesto simbólico de um presidente da República fechando o buraco para testes nucleares da Aeronáutica. Do outro lado, a imagem forjada na sociedade americana pelos gestores de sua política externa de que o antigo fiel aliado tornara-se um perigo em potencial por dominar a tecnologia e estar enriquecendo urânio. A reação de cientistas afiançando as centrífugas transferidas pela Marinha para a Indústrias Nucleares Brasileira e das autoridades exigindo um tratamento equânime para o país no que diz respeito aos limites da inspeção da AIEA, somaram-se aos tratados firmados com países do continente e com o fato de existir, desde 1991, a Agência Brasileiro-Argentina de Contabilidade e Controle de Materiais Nucleares (ABACC) para dissipar os temores internacionais quanto aos fins exclusivamente pacíficos dos programas de ambos.

Notas

1. O nome do CNPq foi modificado para Conselho Nacional de Desenvolvimento Científico e Tec nológico, em 1974.

2. Para outra interpretação, ver: Fischer, 1997: 22.

3. Proposta de Lloyd Berkner defendida em seu famoso relatório de 1950, Science and Foreign Relations, citado por Krige, 2006: 166.

4. O 3o Acordo era importante para os EUA, que solucionavam dois problemas: mercado para seus excedentes agrícolas e matéria-prima para estocar como reserva estratégica, isto é, para reatores  super-regeneradores de tório.

5. Donald Kerst inventor do bétraton e responsável pela construção dos laboratórios de alta atividade do reator experimental de Idaho.

6. Na década de 1960, a Universidade do Brasil passou a ser denominada Universidade Federal do Rio de Janeiro - UFRJ.

7. Além da Babcock & Wicox, a Bendix International, General Electric, Foster Wheeler & Co e a AMF Atomics enviaram propostas. Ver: CNPq. Comissão, de Energia Atômica. Ata da 34a sessão da Comissão de Energia Atômica em 12 de janeiro de 1956. p. 79; idem. Ata da 36a sessão da Comissão de Energia Atômica em 27 de janeiro de 1956. p. 1 (Arquivo Leite Lopes).

8. O cheque era de 350 mil dólares (valor de 1958), quando se estimava um custo total de US$800 mil para a compra e montagem.

 9. Decreto Legislativo n. 48 de 1966: aprova o Acordo de Cooperação para Usos Civis de Energia Atômica entre o Governo dos Estados Unidos da América e o Governo dos Estados Unidos do Brasil, assinado em Washington, em 8 de julho de 1965.

10. As principais fontes consultadas para esta parte do trabalho foram os relatórios de comissões de inquérito do Senado Federal e os relatórios anuais da CNEN. Ver também: Andrade, 2006.

11. O governo de Kubitschek (1956 -1960) foi marcado pela modernização baseada no capital estrangeiro.

 12. Veja o relato de engenheiros Syllus & Lepecki, 1996: 2; CNEN, 1966: 11, 13.

 13. Informação disponível no documento EG pr. 1974.0318 rolo 3. f. 4055 microfilme (Arquivo E rnesto Geisel).

14. O Brasil tem a tecnologia da conversão, mas economicamente é mais interessante realizar em outro país.

Referências bibliográficas

1 ALVES, R. N. (1998): "Entrevista", Brasil Nuclear, no 17, pp. 4-7.         [ Links ]

2 ANDRADE, A. M. R. (1999): Físicos, mésons e política: a dinâmica da ciência na sociedade, São Paulo, HUCITEC.         [ Links ]

3 ANDRADE, A. M. R. (2001): "Ideais políticos. A criação do Conselho Nacional de Pesquisa", Parcerias Estratégicas, vol. 11, pp. 221-242. Disponível em: http://www.cgee.org.br/parcerias        [ Links ]

4 ANDRADE, A. M. R. (2006): A opção nuclear. 50 anos rumo à autonomia, Rio de Janeiro, MAST.         [ Links ]

5 ANDRADE, A. M. R. (2010): "Acordos e desavenças na política nuclear", en M. Domingos Neto (coord.): O militar e a ciência no Brasil, Rio de Janeiro, Gramma, pp. 117-150.         [ Links ]

6 ANDRADE, A. M. R. e MUNIZ, R. P. A. (2006): "The quest for the Brazilian synchrocyclotron", Historical Studies in the Physical and Biological Sciences, vol. 36, pp. 311-327.         [ Links ]

7 ANDRADE, A. M. R. e SANTOS, T. L. (2010): "A criação da CNEN no contexto do governo JK", Parcerias Estratégicas, vol. 14, pp. 225-235. Disponível em: http://www.cgee.org.br/parcerias        [ Links ]

8 ANDRADE, A. M. R. & SILVA, B. J. (2010): "Ciência e Política em Genebra", en Anais do 12o Seminário Nacional de História da Ciência, Salvador, SBHC.         [ Links ]

9 BANDEIRA, M. (1989): Brasil-Estados Unidos. A rivalidade emergente, Rio de Janeiro, Civilização Brasileira.         [ Links ]

10 BARROS, F. de S. (2006): Palestra no Museu de Astronomia e Ciências Afins em mesa redonda, Rio de Janeiro, MAST.         [ Links ]

11CADERNOS SBPC (2006): Ata do Simpósio sobre a utilização da energia atômica para fins pacíficos no Brasil, São Paulo, SBPC. 3 v.         [ Links ]

12 CERVO, A. L. e BUENO, C. (2002): História da política exterior do Brasil, 2 ed., Brasília,UNB.         [ Links ]

13 CNEN (1959): Átomos pela paz, Rio de Janeiro, CNEN.         [ Links ]

14 CNEN (1966): Relatório Anual de 1966, Rio de Janeiro, CNEN.         [ Links ]

15 CNEN (1967): Relatório anual de 1967, Rio de Janeiro, CNEN.         [ Links ]

16 CNEN (1970): Relatório anual de 1970, Rio de Janeiro, CNEN.         [ Links ]

17 CNEN (1977): Relatório anual de 1977, Rio de Janeiro, CNEN.         [ Links ]

18 CNPq (1955-1956): Atas de Reunião. mss (Arquivo CNPq/ Centro de Memória do CNPq).         [ Links ]

19 CNPq (1951): Anais da 19a sessão do Conselho Deliberativo do CNPq. mss (Arquivo CNPq/ Acervo MAST)        [ Links ]

20 CNPq (1952): Relatório de Atividades do Conselho Nacional de Pesquisas em 1951, apresentado ao Exmo. Sr. Presidente da República Dr. Getúlio Dornelles Vargas, Rio de Janeiro, Imprensa Nacional.         [ Links ]

21 CNPq (1956): Relatório de Atividades do Conselho Nacional de Pesquisas em 1955, Rio de Janeiro, Jornal do Commercio.         [ Links ]

22 CONGRESSO (1990): Relatório da Comissão Parlamentar Mista de Inquérito, destinada a Investigar o Programa Autônomo de Energia Nuclear, mais conhecido por Programa Paralelo, Brasília, Centro Gráfico. [versão original]         [ Links ]

23 EISENHOWER, D. (1953): Discurso na Assembleia das Nações Unidas, em 8 dez. 1953. Disponível em: http://www.iaea.org/About/history_speech.html.         [ Links ]

24 FISCHER, D. (1997): History of the International Atomic Energy Agency. The first forty years, Viena, The Agency.         [ Links ]

25 GASPARI, E. (2004): A ditadura encurralada, São Paulo, Companhia das Letras.         [ Links ]

26 GORDON, A. M. (2003): Instituto de Pesquisas Energéticas e Nucleares (IPEN-CNEN-SP). Um estudo de caso à luz da história da ciência, tecnologia e cultura do Brasil. [tese de doutoramento. Faculdade de Filosofia, Ciências e Letras Humanas.         [ Links ] USP].

27 GUILHERME, O. (1957): O Brasil e a era atômica, Rio de Janeiro, Vitória, 1957.         [ Links ]

28 HIRST, M. (1990): O pragmatismo impossível: a política externa do segundo governo Vargas (1951-54), Rio de Janeiro, CPDOC.         [ Links ]

29 INSTITUTO DE ENGENHARIA NUCLEAR (2012): IEN 50 anos: tecnologia nucleara para o Brasil, Rio de Janeiro, IEN.         [ Links ]

30 KRIGE, J. (2006): "Atoms for Peace, Scientific Internationalism and Scientific Intelligence", OSIRIS, vol. 21, pp. 160-166.         [ Links ]

31 LEPECKI, W. e SYLLUS, C. (1996): Gênese do programa brasileiro de centrais nucleares. Rio de Janeiro, Nuclen, 1996.         [ Links ] [mss]

32 MANCHETE (20 de maio de 1961): Rio de Janeiro, Bloch Ed., p. 23.         [ Links ]

33 MARQUES, P. (1992): Sofismas nucleares: o jogo das trapaças na política nuclear do país, São Paulo, HUCITEC.         [ Links ]

34 MARZO, M. A. S. e ALMEIDA, S. G. de (2006): A evolução do controle de armas nucleares. Desarmamento e não-proliferação, Rio de Janeiro, Ciência Moderna.         [ Links ]

35 MATTOS NETTO, B. de (1955): Relatório da Conferência Internacional da Energia Atômica para fins Pacíficos. CNPq.T.3.3.015 - 01 (Arquivo CNPq/ Acervo MAST)        [ Links ]

36 MEDEIROS, T. R. (2005): Entraves do desenvolvimento da tecnologia nuclear no Brasil. Dos primórdios da era atômica ao Acordo Brasil-Alemanha. Dissertação (Mestrado), Belo Horizonte, CEDEPLAR - UFMG.         [ Links ]

37 ORDONEZ, J. e SÁNCHEZ-RON, J. M. (1996): "Nuclear energy in Spain. From Hiroshima to the sixties", en P. Forman & J. M. Sánchez-Ron (coord.): National military establishments and the advancement of science and technology, Dordrecht, Kluver Academic Publishers, 1996. pp. 185-213.         [ Links ]

38 PRESIDÊNCIA DA REPÚBLICA (1962): Plano Trienal de desenvolvimento econômico e social. 1963-1965. (síntese), Brasília, Imprensa Oficial.         [ Links ]

39 PRESIDÊNCIA DA REPÚBLICA (1977): O programa nuclear brasileiro, Brasília [s.         [ Links ]n.].

40 ROSA, L. P. (1985): A política nuclear e o caminho das armas atômicas, Rio de Janeiro, Editora J. Zahar.         [ Links ]

41 ROSA, L. P. (2006): "A batalha atômica", Nossa história, vol. 3, n. 3, pp. 40-47.         [ Links ]

42 SALLES, D. (1958): Energia atômica: um inquérito que abalou o Brasil, São Paulo, Fulgor.         [ Links ]

43 SANTOS DE SOUZA, M. D. (1985): Papel do tório no aproveitamento industrial da energia atômica, Rio de Janeiro, Centro Brasileiro de Pesquisas Físicas.         [ Links ]

44 SENADO FEDERAL (1983): A questão nuclear. Política Nuclear, Brasília, Senado Federal, 3 v.         [ Links ]

45 SILVA, B. J. (2010): A Primeira Conferência Sobre Usos Pacíficos da Energia Atômica, Rio de Janeiro, UERJ. (monografia de curso de graduação)        [ Links ]^rND^sANDRADE^nA. M. R.^rND^sANDRADE^nA. M. R.^rND^sANDRADE^nA. M. R.^rND^sMUNIZ^nR. P. A.^rND^sANDRADE^nA. M. R.^rND^sSANTOS^nT. L.^rND^sANDRADE^nA. M. R.^rND^sSILVA^nB. J.^rND^sKRIGE^nJ.^rND^sORDONEZ^nJ.^rND^sSÁNCHEZ-RON^nJ. M.^rND^nDiego^sHurtado^rND^nDiego^sHurtado^rND^nDiego^sHurtado

DOSSIER-ARTICULOS

Cultura tecnológico-política sectorial en contexto semiperiférico: el desarrollo nuclear en la Argentina (1945-1994)

Techno-political and sectorial culture in a semi-peripheral context: nuclear development in Argentina (1945-1994)

 

Diego Hurtado *

* Centro de Estudios de Historia de la Ciencia José Babini, Universidad Nacional de San Martín, Argentina. Correo electrónico: dhurtado@retina.ar.


Resumen: A partir de la caracterización de la Argentina como país semiperiférico, el presente trabajo analiza la conformación de una "cultura nuclear" y de un "régimen tecnopolítico nuclear" -definido por la búsqueda de la autonomía tecnológica y el liderazgo regional y por la promoción de una industria nuclear nacional- que tuvieron como epicentro institucional a la Comisión Nacional de Energía Atómica y mantuvieron su vigencia hasta comienzos de los años noventa. El artículo se enfoca en tres ejes: el desarrollo de reactores de investigación; los procesos de toma de decisiones alrededor para la compra y construcción de las centrales de potencia; y la forma en que los distintos regímenes políticos por los que atravesó la Argentina -períodos de democracia, "semi- democracia" y dictadura- y regímenes de acumulación -industrialización sustitutiva y, desde la última dictadura, desregulación de la economía- impactaron y dejaron sus marcas sobre la evolución del régimen tecnopolítico nuclear. Este último punto también considera las presiones internacionales como componente crucial.

Palabras clave: Energía nuclear; Argentina; Semiperiferia; Régimen tecnopolítico; Cultura nuclear

Abstract: Considering Argentina as a semi-peripheral country, the present article analyzes the establishment of a nuclear culture and a nuclear technopolitical regime -aimed at seeking technological autonomy and regional leadership as well as the promotion of a national nuclear industry- that have the Argentine Atomic Energy Commission as institutional epicenter and kept some of their main traits and orientation until the beginnings of the 1990s. The article focuses mainly on three aspects: the development of nuclear research reactors; the processes of decision-making about the purchase and construction of the country's two power nuclear plants; and the way the various political regimes that Argentina went through -democratic, semi-democratic and dictatorial periods- and regimes of accumulation -sustitutive industrialization and, since the last military dictatorship, economic deregulation- impacted and left their mark on the evolution of the nuclear technopolitical regime. Within this last point, international pressures are assumed as a crucial component.

Key words: Nuclear energy; Argentina; Semi-periphery; Ttechnopolical regime; Nuclearculture


Introducción

El desarrollo nuclear en la Argentina presenta rasgos que hacen posible evaluarlo como la evolución -crecimiento y diversificación- de una trayectoria sectorial en contexto de país semiperiférico. Impulsado inicialmente por un proyecto político de industrialización, vinculado a símbolos de modernización y autonomía, el desarrollo nuclear en la Argentina mantuvo una orientación programática relativamente nítida entre los inicios de la década de 1950 y comienzos de los años noventa. Si bien se desdibuja por poco más de una década, reaparece durante 2006 con algunos de sus rasgos históricos adaptados a los nuevos tiempos.

Desde una perspectiva económica, la categoría de semiperiferia se refiere a los países de la periferia con capacidad industrial. Wallerstein (1974) asoció la noción de semiperiferia a los procesos de desarrollo dependiente. Siguiendo a Wallerstein y Amin, Evans (1979: 33-34) sostiene: "La posición distintiva de la semiperiferia en la economía internacional hace que el curso del desarrollo dependiente en estos países sea crítico para el futuro del imperialismo". Una consecuencia de esta afirmación es que justamente los países de la semiperiferia son, por un lado, los que se presentan como mercados de tecnología codiciados por los países avanzados -ventas "llave en mano", derechos de patente, asistencia técnica- y, por otro lado, los que suelen ser objeto de las estrategias de obstaculización o bloqueo de aquellos desarrollos tecnológicos que puedan significar una alteración del "equilibrio" o de la "estabilidad" -militar y comercial- del sistema mundial.

De esta forma, los procesos de desarrollo tecnológico en contextos semiperiféricos no pueden entenderse como procesos de construcción de "sistemas nacionales de innovación" en entornos institucionales robustos que favorecen, protegen, subsidian y regulan tanto los "sectores estratégicos" como los procesos de competencia schumpetereana. Por otra parte, la aspiración a "ascender" en la jerarquía de estados rígidamente estratificada que configura el sistema mundial, sostienen Hall y Chase- Dunn (2006: 49), motiva a las sociedades semiperiféricas a impulsar iniciativas que se proponen transformar la lógica de desarrollo del sistema mundial. El desarrollo nuclear de países como la Argentina, Brasil, India, Paquistán o Sudáfrica parece adecuarse a esta caracterización.

En este artículo panorámico, nos interesa presentar el desarrollo nuclear como un proceso de conformación de lo que vamos a caracterizar como una cultura nuclear - cultura organizacional, material, discursiva y simbólica- para aludir a la conformación de una comunidad de investigación y desarrollo que creció y se diversificó alrededor de un proyecto de construcción de un sistema tecnológico -entendido como red de artefactos, organizaciones, conocimientos, recursos naturales y regulaciones que operan de manera coordinada para alcanzar una serie de objetivos materiales-, alrededor del cual se configuraron códigos de identidad y legitimación (Hughes, 1989: 51-52).

Ahora bien, la conformación de esta cultura nuclear no es comprensible si no se considera el sentido político asignado a los objetivos tecnológicos. Hecht (1998: 15) habla de tecnopolítica para caracterizar "la práctica estratégica de diseñar o usar la tecnología para constituir, encarnar o impulsar objetivos políticos". En nuestro caso, este concepto remite no solo a las relaciones de poder locales que se constituyen y ponen en juego en el proceso de persecución de los objetivos tecnológicos, sino también -y centralmente- a las que son producto del carácter semiperiférico.

De esta forma, nos interesa hablar de cultura nuclear para delimitar un campo de prácticas portadoras de representaciones, creencias, valores y proyectos en el que intervienen múltiples sectores y tipologías de actores -científicos, ingenieros, técnicos, políticos, militares, administrativos, diplomáticos, empresarios- que asociaron un proyecto de desarrollo tecnológico a componentes de política nacional, como la búsqueda de la autonomía tecnológica -entendida como la capacidad del país para alcanzar objetivos tecnológicos sin interferencias o restricciones externas-, el impulso del proceso de industrialización y el liderazgo científico-tecnológico regional, por momentos conceptualizado como parte del proyecto de integración regional, por momentos desde los intereses comerciales proyectados sobre la potencialidad de un mercado nuclear regional.1

Estos objetivos, ya presentes de forma nítida en el discurso de algunos actores influyentes de CNEA durante la década de 1960, pueden encuadrarse en lo que Hecht caracterizó como régimen tecnopolítico. Dice esta historiadora: "Estos regímenes, basados en instituciones, consisten en vínculos entre grupos de gente, prácticas ingenieriles e industriales, artefactos tecnológicos, programas políticos, e ideologías institucionales, los cuales actúan juntos para gobernar los desarrollos tecnológicos y perseguir tecnopolíticas". Y agrega que el concepto de régimen tecnopolítico "provee una buena aproximación a la estrecha relación entre las instituciones, la gente que las dirigen, los mitos e ideologías que los guían, los artefactos que producen, y la tecnopolítica que persiguen" (Hecht, 1998: 16-17).

Finalmente, si bien lo que llamaremos cultura nuclear y régimen tecnopolítico nuclear en la Argentina tienen como enclave o matriz de producción de sentidos dominantes una institución de investigación y desarrollo -CNEA-, es posible teorizar a partir de estos conceptos en la medida en que aquellos sentidos desbordaron este ámbito institucional y serán asimilados, refractados y empleados como materia prima para la producción de nuevos sentidos -culturales, políticos y económicos- en otras esferas de la actividad social, como diversos espacios del sector público, empresas, universidades, grupos de militares, así como en el ámbito de las relaciones internacionales. Que durante algunos períodos del desarrollo nuclear en la Argentina se produzcan debates que serán reproducidos en periódicos nacionales e internacionales, o que del ámbito nuclear surjan referentes latinoamericanos del pensamiento sobre políticas tecnológicas son otros indicios que permiten pensar que la influencia y persistencia de la cultura nuclear es una condición de posibilidad para entender el sector nuclear en la Argentina como una singularidad.

Uno de estos referentes afirmaba a comienzos de los años setenta: "Lo atómico ha dejado pues de ser un tema académico y de laboratorio, y se ha integrado a la trama . socio-político-económica argentina, a la que sin duda agregará color y textura y de quien recibirá influencias beneficiosas y deformaciones perjudiciales" (Sabato, 1973a). Desde la década de 1980, no es poco común encontrar en la prensa norteamericana referencias que, al hablar de la Argentina, aluden al "conspicuo lugar del programa nuclear en la conciencia nacional" (New York Times, 1984). Como corolario de todo lo anterior, agreguemos que sería de esperar que los distintos regímenes políticos por los que atravesó la Argentina -períodos de democracia, "semidemocracia" y dictadura- y regímenes de acumulación -industrialización sustitutiva previa al golpe de estado de 1976 y, desde entonces hasta 2001, apertura y desregulación de la economía- hayan dejado sus marcas, tanto sobre la cultura nuclear como sobre la evolución del régimen tecnopolítico nuclear.

En síntesis, este artículo se propone un esbozo histórico del proceso de conformación y evolución de una cultura nuclear de escala nacional, y de un régimen tecnopolítico asociado, que impulsó la construcción de un sistema tecnológico de envergadura -que llamaremos "desarrollo nuclear argentino"- en un contexto de país semiperiférico.

Peronismo, desarrollismos y reactores de investigación

El gobierno de Perón (1946-1955) se esforzó por integrar el factor tecnológico a su programa de gobierno, dando visibilidad al impulso de sistemas tecnológicos de diversas escalas -en las áreas de energía, aeronáutica, infraestructura e ingeniería civil, por ejemplo- como marca política del peronismo y rasgo para ser asimilado a la identidad nacional (Hurtado y Feld, 2010). Desde 1950, este gobierno concretó algunos pasos claves en el impulso inicial del área nuclear. Luego del fracaso del proyecto de fusión impulsado por el físico austríaco Ronald Richter,2 en 1952, el desarrollo en el campo nuclear fue transferido de manos del Ejército a la Marina, quedando a cargo el capitán de Fragata Pedro Iraolagoitía. Mientras que en 1950había sido creada la Comisión Nacional de Energía Atómica (CNEA) como soporte administrativo de las actividades del físico austríaco y dependía directamente del Poder Ejecutivo, al año siguiente se creó la Dirección Nacional de Energía Atómica (DNEA), como organismo dependiente del Ministerio de Asuntos Técnicos. Las iniciativas de la DNEA se concentraron en el entrenamiento de científicos y técnicos locales, y en la consolidación de algunas áreas, como la radioquímica y la física de reactores primero y, un poco más tarde, la metalurgia. En el otoño de 1955, por convenio entre la Universidad Nacional de Cuyo y CNEA, se creó el Instituto de Física de Bariloche (hoy Instituto Balseiro; López Dávalos y Badino, 2000).

En el plano internacional, el programa Átomos para la Paz, promovido por el presidente norteamericano Eisenhower desde fines de 1953, fue decisivo. Programa polivalente, concebido como instrumento de lo que Eisenhower llamó "guerra psicológica", Átomos para la Paz se propuso, entre otros objetivos, que la industria norteamericana fuera la primera en establecer vínculos comerciales con los estadios iniciales de los programas nucleares de los países en desarrollo. Como explica Medhurst (1997: 588), "una vez establecida, la tecnología norteamericana sería difícil, sino imposible, de sustituir".

La Argentina se integró al programa Átomos para la Paz y el 29 de julio de 1955  firmó un acuerdo de cooperación con los Estados Unidos -idéntico al firmado por otros 25 países entre 1955 y 1961- el cual sostenía que este país suministraría el uranio enriquecido para los futuros reactores de investigación argentinos.3 El objetivo del programa nuclear argentino durante estos años era la instalación de reactores de investigación y el acceso a toda la ayuda técnica y financiera extranjera que fuera posible (Sabato, 1973b: 23).

En la Primera Conferencia Internacional sobre Usos Pacíficos de la Energía Nuclear, realizada en Ginebra en agosto de 1955, la delegación argentina aportó 37 trabajos, entre los cuales el grupo de radioquímica de la DNEA presentó trece nuevos radioisótopos (Martínez Vidal, 1994: 178-79; Radicella, 2001: 25). El golpe militar de septiembre de 1955 trajo consigo el cambio de autoridades y la reestructuración del área nuclear, que continuaría bajo la jurisdicción de la Armada. La DNEA dejó de existir en términos formales y su patrimonio pasó a CNEA.

El nuevo presidente de la CNEA, el capitán (más tarde contralmirante) Oscar Quihillalt, no alteró las principales líneas de acción iniciadas por Iraolagoitía. Cuando Quihillalt quedó al frente de CNEA trabajaban allí alrededor de 250 científicos y 300 técnicos (Alegría et al. 1972, 9). La primera manifestación de que se comenzaba a pensar en el mediano plazo fue la decisión de no comprar, sino de construir en el país el primer reactor de investigación argentino, el RA-1 -reactor tipo Argonaut, que se había inaugurado pocos meses atrás en el Argonne National Laboratory de Chicago- , que alcanzó estado crítico en enero de 1958. Habían participado 32 empresas argentinas en la construcción del RA-1. Al poco tiempo, el know-how de sus elementos combustibles fue vendido a una empresa alemana.4

La Argentina colaboró con el Organismo Internacional de Energía Atómica (OIEA) - creado en julio de 1957- y promovió el envío de sus expertos para asistir principalmente, aunque no únicamente, a países de América latina.5 A comienzos de los años sesenta, el uso intensivo de radoisótopos en agricultura y medicina impulsó la integración de las actividades de CNEA a los sectores del Estado dedicados a tecnología agraria y salud. CNEA ya utilizaba entonces más de treinta laboratorios pertenecientes a centros de investigación de universidades y hospitales (OIEA, 1962a: 15-17; 1962b: 9). El gobierno de orientación desarrollista de Arturo Frondizi declaró el programa nuclear de "alto interés nacional", aunque, como parte de las medidas de austeridad, el presupuesto de CNEA fue reducido a casi la mitad (CNEA, 1970: 78).

En los nueve años que siguieron a la entrada en operación del RA-1, CNEA consolidó una línea de diseño y construcción de reactores de investigación, que también se proponía promover la participación de la industria local a través de su incorporación como proveedores. Con este objetivo, en enero de 1961, la Asociación de Industriales Metalúrgicos y el Departamento de Metalurgia, a cargo de Jorge Sabato -actor central de estos años, que había ingresado a CNEA a fines de 1954- habían creado la firma SATI (Servicio de Asistencia Técnica a la Industria) como organismo mixto sin fines de lucro. Por iniciativa de Sabato, el plan original era realizar investigación y desarrollo a partir de problemas relacionados con la metalurgia, pero que fueran planteados por las propias industrias locales. Esto, a su vez, haría posible difundir nuevos métodos de producción, el uso de nuevos metales, materias primas, máquinas e instrumentos, desarrollar mejores métodos de control de calidad, adecuarse a las características propias del mercado local y, en palabras de Sabato, "preparar a la industria del país para la profunda transformación tecnológica que se producirá en los próximos años". Para 1964 se habían recibido 280 consultas desde diferentes sectores de la industria metalúrgica local (Martínez Vidal, 1994: 80- 83; Sabato, 1964: 4-8).

En 1960 se finalizó el RA-0, concebido como un equipo auxiliar para ensayar mejoras de diseño para el RA-1.6La demanda creciente de radioisótopos para usos médicos impulsó el proyecto de diseño y construcción de un reactor de mayor potencia. Para hacer estudios preliminares sobre posibles configuraciones de su núcleo se diseñó y construyó una facilidad crítica, el RA-2, que fue finalizada en 1966. En paralelo a su construcción, el grupo de materiales de CNEA también diseñó y construyó los elementos combustibles. Para esto fue necesario uranio enriquecido al 90%, que fue provisto como donación por los Estados Unidos. Luego de algunos atrasos, el reactor de 5 MW, bautizado RA-3, fue puesto a crítico en el Centro Atómico Ezeiza a mediados de mayo de 1967, aunque por problemas de diseño fue inaugurado a fines de diciembre y comenzó a operar regularmente a comienzos de 1969.7 Este nuevo reactor, que contó con un subsidio de la US Atomic Energy Commission (US AEC) de 350.000 dólares del programa Átomos para la Paz, era componente clave en la estrategia de ir ganando escala de forma incremental. En su construcción participaron 67 empresas argentinas. Junto a este reactor fue construida una planta de producción de radioisótopos, que había tomado como modelo una planta construida en Saclay (Francia) y que comenzó a operar en 1971 (Quihillalt, 1967; Recondo, 1995: 29-31; CNEA, 1967: 16-17; Coll y Radicella, 1998: 103).

Si se suma a este escenario la preocupación por la producción de energía eléctrica, puede pensarse que a mediados de los años sesenta ya está delineada una tecnopolítica nuclear sobre la base de tres componentes: el desarrollo de capacidad tecnológica autónoma, la conformación de una industria nacional sectorial y la búsqueda del liderazgo nuclear regional. Así, además de metalurgia, radioisótopos, reactores de investigación y apoyo a la industria, los otros dos objetivos centrales de CNEA eran la prospección, extracción y procesamiento del uranio argentino y, en el horizonte, comenzar a pensar en la compra de la primera central de potencia. En cuanto al uranio, las exploraciones habían comenzado en 1950. Sin embargo, al organizarse el departamento de materias primas en 1955 y al asumir CNEA la tarea de realizar la prospección sistemática del territorio nacional en búsqueda de minerales nucleares -en ese momento disponía de un grupo de alrededor de treinta geólogos-, aún no existía el instrumento legal para esta actividad. El decreto-ley fue promulgado a fines de 1956 y su reglamentación en enero del año siguiente. Si bien, por un lado, la política asumida fue la de considerar a los minerales nucleares como bienes del Estado -por ser fuentes energéticas-, por otro lado, se incentivaba el apoyo necesario de la iniciativa privada. A fines de los años cincuenta, como complemento de las tareas de prospección, CNEA se proponía ganar experiencia de diseño y operación de plantas industriales para el procesamiento del uranio. El objetivo de mediano plazo era asegurar el autoabastecimiento de combustible para los futuros reactores de potencia. Para ese momento ya funcionaban dos plantas piloto de tratamiento de minerales con equipos de fabricación nacional, una en Malargüe (provincia de Mendoza), vecina al yacimiento de Cerro Huemul, y la otra en la ciudad de Córdoba (provincia de Córdoba), y una planta piloto de producción en Ezeiza (provincia de Buenos Aires). Las dos primeras plantas recibían el mineral de los yacimientos y efectuaban el proceso de concentración del mineral hasta llegar a un óxido de uranio conocido como yellow-cake (concentrado de uranio). La fábrica instalada en Ezeiza recibía dicho óxido y lo reducía hasta llevarlo a uranio de pureza nuclear. Pocos años más tarde, con el objetivo de bajar costos, se comenzaría a construir en Malargüe una planta más moderna, diseñada en CNEA, con capacidad 10 veces mayor, se desmantelaría la planta de Ezeiza y se construiría otra en Córdoba también de mayor capacidad (CNEA, 1959: 23-24; 1961: 10-12; 1962: 18).

Industria nuclear y "penetración socio-cultural"

A comienzos de la década de 1960, CNEA contaba con un personal del orden de los 2000 agentes y un presupuesto de alrededor de 400 millones de pesos moneda nacional (aproximadamente 4,8 millones de dólares; CNEA, 1961: 8-9). La mejora y operación del RA-1, la explotación minera y el procesamiento de uranio, la creación del SATI, las actividades de producción y fraccionamiento de radioisótopos y el proyecto de diseño y construcción del RA-3, pensado para abastecer la demanda interna de radioisótopos, pueden interpretarse como la consolidación de un perfil de institución que, a diferencia de las universidades o el CONICET -anclado en una concepción internacionalista vinculada al reclamo de libertad de investigación-, se orientó hacia el desarrollo de tecnología considerada estratégica, la construcción de una doble articulación con la industria local -ofreciendo competencias para la resolución de algunos de sus problemas tecnológicos e incentivando su participación en la red de proveedores de los proyectos nucleares- y la realización de actividades de formación y asistencia con el objetivo de comenzar a construir una posición de influencia regional.

En1963 se creó el Comité de Centrales Nucleares, presidido por Quihillalt, para iniciar los estudios económicos, de ubicación, de mercado eléctrico y de seguridad para los futuros reactores de potencia. En ese momento se encontraban en operación en el mundo 50 reactores nucleares para la producción de energía eléctrica -la gran mayoría en Estados Unidos, Gran Bretaña y la Unión Soviética- con una potencia total instalada es de 4000 MW -cantidad que era del orden de la potencia instalada en la Argentina-, otros 6000 MW estaban en construcción y se estimaba un ritmo de crecimiento para los próximos años de aproximadamente 1500 MW anuales (Wortman, 1996: 28; CNEA, 1962: 26).

Aceptadas las estimaciones que afirmaban que la potencia eléctrica del Gran Buenos Aires-Litoral se incrementaría en 1300 MW en el período 1966-1972, se decidió que la central nuclear debía ubicarse en esta región. CNEA propuso no contratar una empresa extranjera para que realizara el informe de factibilidad. Para respaldar esta decisión también se argumentó que ninguna de las plantas hidroeléctricas que estaban siendo construidas iba a estar terminadas antes de 1972 (Alegría et al., 1964: 11; Quihillalt, 1969: 435; Sabato, 1973a: 30). A comienzos de 1965, los diarios de Buenos Aires anunciaban que el presidente Arturo Illia había firmado el decreto que encargaba a CNEA los estudios preliminares para una central nuclear de potencia que suministraría electricidad a la zona del Gran Buenos Aires- Litoral. La Secretaría de Energía facilitaría a CNEA toda la información necesaria y el plazo concedido era de catorce meses. Finalmente, se asignaban hasta 88 millones de pesos moneda nacional (aproximadamente 350.000 dólares) para este objetivo.

CNEA formó un equipo especial de trabajo integrado por un comité directivo, presidido por Quihillalt, que contaba con dos vocales, el ingeniero Celso Papadópulos, gerente de Energía, y Sabato, gerente de Tecnología, y un equipo técnico con un jefe, el ingeniero Bela Csik (La Nación, 1965a). A mediados de febrero, se anunciaba que habían comenzado "las conversaciones" entre funcionarios de la Secretaría de Energía y Combustibles, de Servicios Eléctricos del Gran Buenos Aires (SEGBA), de Agua y Energía Eléctrica y CNEA, representada por Quihillalt, Papadópulos y Csik. En esta primera reunión, el subsecretario de Energía, Juan Sabato -tío de Jorge Sabato-, mencionaba que "hasta el momento que entren en funcionamiento las centrales hidroeléctricas de Salto Grande y Chocón-Cerros Colorados, será necesario aumentar en 1 millón de KW [kilowatts] la potencia actual de las centrales térmicas". También afirmaba que en el país había uranio suficiente "para autoabastecerse durante los próximos 50 años, por lo menos" y que, considerando el potencial técnico de la industria nacional, estaban dados todos los elementos que permitirán, "a través de una promoción activa e inteligente, el nacimiento de una industria nuclear argentina" (La Nación, 1965b).

Sin embargo, estas afirmaciones eran relativizadas por la realidad política. A fines de junio de 1966, se produjo un nuevo golpe de estado, que era parte de un proceso de surgimiento sincrónico de dictaduras en América latina lideradas por sus fuerzas armadas en pleno proceso de asimilación de la Doctrina de la Seguridad Nacional, que sostenía que la seguridad del Estado estaba amenazada por "el enemigo interno". Esta ideología desacoplaba el problema de la defensa del objetivo de la industrialización y construía una nueva unidad programática con las nociones de desarrollo y seguridad. Este proceso se completaba, de acuerdo con Azpiazu et al (1988: 38, 44), con el avance del "capital extranjero industrial" y su capacidad de ejercer "un alto poder oligopólico en los mercados industriales más dinámicos" y con el consecuente desplazamiento de empresas de capital nacional, con especial impacto entre las empresas pequeñas y medianas. Por su parte, O'Donnell ([1982] 2009: 117) caracteriza este momento de la Argentina como "capitalismo extensamente industrializado, dependiente, desequilibrado y profundamente penetrado por el capital trasnacional". Como se verá a continuación, la decisión de comprar la primera central de potencia a la empresa alemana Siemens no parecía ser una excepción a la regla.

Si desde el punto de vista ideológico y sectorial la compra de un reactor de potencia parecía oponerse a este proceso de profundización de la dependencia económica al crear un ámbito de participación de la industria local, desde el punto de vista macroeconómico se trataba de una compra onerosa a una empresa extranjera. Es en esta angosta cornisa donde se consolida una tecnopolítica con fuerte contenido pragmático, que no logra cerrar un sentido más allá de una "lógica" sectorial. El propio Sabato (1973b: 35), arquitecto de la oposición sectorial a esta tendencia, explicaba que comprar o vender una central nuclear de potencia "es mucho más que una simple operación comercial". Para el país comprador e importador, "porque al hacerlo ingresa a la 'era nuclear', con todas sus implicancias y consecuencias políticas, técnicas y socio-culturales". Y esto también era cierto para el país vendedor y exportador, "porque significa la apertura de un nuevo mercado y también un camino para aumentar la influencia política sobre, y la penetración técnica y socio-cultural en, el país que está comprando".

A estas contradicciones se sumaban algunos conflictos. Si bien se estimaba un nivel de potencia para Atucha entre 500 y 550 MW, de acuerdo con Jorge Sabato, "había en las altas esferas del Gobierno un poderoso grupo, respaldado por la Secretaría de Energía, completamente en contra a cualquier planta nuclear. Solamente después de una dura batalla, se aceptó la idea de una planta de 300 MW de potencia [...]" (Sabato, 1973: 32).

El llamado a ofertas tuvo dos aspectos claves: (1) debido al hecho de que CNEA había decidido por adelantado que no pediría financiamiento a agencias internacionales, tales como el Banco Mundial, el financiamiento propuesto tenía que ser incluido explícitamente en las ofertas de manera detallada; (2) solamente aquellas ofertas que consideraran una intensa participación de la industria local serían tenidas en cuenta (Quihillalt, 1969: 438; Sabato, 1970: 37; Sabato, 1973b: 30-32). A mediados de 1967, 17 ofertas fueron presentadas por compañías francesas, canadienses, americanas y alemanas. SATI organizó un comité para relevar la capacidad industrial y asegurar la participación adecuada de la industria local. La selección favoreció a la Revista CTS, no 21, vol. 7, Agosto de 2012 (pág. 163-192) empresa alemana Siemens, que había ofrecido el cien por ciento del financiamiento, incluido los costos locales (Sabato, 1970: 38).

El costo de la planta era de 70 millones de dólares, sin incluir el agua pesada y el combustible. Si se consideraban este y otros puntos adicionales, el costo de la planta ascendía a 105 millones de dólares. Las 300 toneladas de agua pesada serían adquiridas a los Estados Unidos y los elementos combustibles deberían ser fabricados con uranio procesado por CNEA (OIEA, 1969b: 28). Finalmente, el contrato sobre Atucha I fue "semi-llave en mano", clave tanto para promover la participación de la industria local como para abrir "cajas negras" tecnológicas. Así, se asumió que no habría dominios reservados, lo que hizo posible que, en 1970, CNEA mantuviera dieciséis técnicos en la casa Siemens, en Alemania. "Hay equipos argentinos metidos en todos los recovecos de esta central", explicaba Sabato (1970: 38).8

Los peligros del desarrollo periférico

La importancia que comenzaba a tener para CNEA la creación de vínculos de colaboración regional resultaba evidente en el envío de científicos e ingenieros argentinos para asistir principalmente, aunque no únicamente, a países de la región. Si la Argentina aspiraba a tener algún protagonismo en la producción y uso de tecnología nuclear era claro que su esfera de influencia inicial debía ser América latina y, en segundo lugar, el resto de los países del entonces llamado Tercer Mundo. Durante la década de 1960, por ejemplo, científicos argentinos viajaron a Paraguay, Bolivia y El Salvador para capacitar científicos y técnicos en aplicaciones médicas de radioisótopos, a Colombia en radioquímica, a Guatemala para introducir el tema de la producción de energía nuclear. En 1967, el ingeniero Humberto Ciancaglini viajó a Irán para colaborar en la construcción y puesta en marcha del primer reactor de investigación de este país. Esta colaboración iba a poner en movimiento una prolongada participación argentina en el desarrollo nuclear de Irán, que llegó hasta comienzos de los años noventa. Finalmente, algún experto argentino también viajó a Paquistán.9

La Argentina se encontró entre los firmantes del anteproyecto de resolución titulado "Desnuclearización de la América latina", presentado y aprobado en la Asamblea General de Naciones Unidas en noviembre de 1963 (Ornstein, 1970: 81-82). Luego de un proceso de negociación de tres años, el 14 de febrero de 1967 se abrió a la firma el Tratado para la Proscripción de las Armas Nucleares en la América latina, conocido como Tratado de Tlatelolco. La Argentina firmó el 27 de septiembre de 1967.10

Desde el mismo día de su aprobación algunos de sus artículos fueron fuente de controversias. No resultaba claro si el tratado autorizaba las "explosiones pacíficas" o si esto ocurriría solamente cuando existiera un mecanismo para distinguirlas de las explosiones con fines bélicos. La segunda interpretación, apoyada por Estados Unidos, significaría la veda de las explosiones pacíficas por tiempo indefinido. Para no dejar dudas de su posición, al suscribir el tratado el gobierno argentino formuló una declaración. Allí sostuvo que el artículo 18 "reconoce el derecho de las partes contratantes a realizar, por sus propios medios o en asociación con terceros, explosiones de dispositivos nucleares con fines pacíficos, inclusive explosiones que presupongan artefactos similares a los empleados en el armamento nuclear". Una declaración similar efectuó Brasil al firmar el tratado. Finalmente, la Argentina no ratificó su firma (Carasales, 1997: 505-506).

Para poner en contexto la posición diplomática argentina, digamos que en junio de 1957, desde el Livermore Laboratory (California), se promovía el diseño de dispositivos nucleares para aplicar en excavación de canales, puertos y embalses, acceso a depósitos minerales y petróleo y la creación de cavernas subterráneas para almacenar fluidos. El reporte semestral de enero de 1958 de la US AEC al Congreso de Estados Unidos describía el proyecto y sugería la aprobación de un programa que se llamaría "plowshare" ("Arado"). El nombre tenía su origen en una sentencia bíblica: "Y transformaron sus espadas en arados". En 1961, US AEC creó la División de Explosivos Nucleares Pacíficos (Hewlett y Holl, 1989: 528-529). Durante los años sesenta, Glenn Seaborg, presidente de la US AEC, propuso que Estados Unidos impulsara explosiones pacíficas de bajo costo para países que no tenían armas nucleares. Según su razonamiento, esto evitaría la proliferación y abriría un mercado internacional de explosiones pacíficas para Estados Unidos que aumentaría la popularidad de la tecnología nuclear y promovería dentro del Congreso de este país el consenso para un aumento de presupuesto para la US AEC (Seaborg, 1987: 350- 352).11

Mientras en Estados Unidos se exploraba la potencialidad comercial de los artefactos nucleares, en julio de 1968 se abrió a la firma el Tratado de No Proliferación de Armas Nucleares (TNP), que fue aprobado por 95 votos a favor, 4 en contra y 21 abstenciones. En este último grupo se encontraba la Argentina, junto con Brasil, India, Israel Pakistán, Sudáfrica, Francia, Portugal y España, entre otros (OIEA, 1968: 11). José María Ruda, el representante argentino ante Naciones Unidas, expuso en mayo de 1968 el pensamiento argentino respecto del TNP. La abstención se fundamentó en dos consideraciones. La primera, que el TNP congelaba la situación existente, esto es, un panorama internacional con países nucleares y no nucleares. Esto significaba un riesgo a la seguridad de los miembros de la comunidad internacional. La segunda (y central) era la protección del avance tecnológico de los países en desarrollo. Ruda sostuvo ante la Asamblea General que para el gobierno argentino "tiene importancia fundamental que este Tratado pueda suponer en grado alguno, un escollo a nuestro desarrollo económico por una parte y, por la otra, que pueda constituir la base jurídica de una dependencia tecnológica que se ha venido acentuando cada vez más en los últimos tiempos". Como contraparte, los países nucleares no asumían ningún compromiso concreto. Ruda pronunció una frase que adquirió cierta popularidad: "Este Tratado significa paradójicamente el desarme de los desarmados" (Ruda, 1970: 77, 79). Desde entonces, la Argentina y Brasil repitieron durante más de un cuarto de siglo que el TNP les resultaba inaceptable por su carácter discriminatorio y por violar la igualdad legal de los Estados (Garasino, 1970: 72-74).

Los laberintos del uranio

El levantamiento de trabajadores y estudiantes producido en Córdoba en mayo de 1969, el "Cordobazo", llevó a la cúpula militar a destituir, en junio de 1970, a Onganía y a designar en su lugar al general Roberto Levingston. A inicios de 1971, Levingston aprobó los planes para una segunda central de potencia. El agravamiento de los conflictos sociales motivó, sin embargo, la expulsión de Levingston y su reemplazo, en marzo de 1971, por el general Alejandro Lanusse, quien anunció oficialmente que la segunda central de potencia, a un costo aproximado de 150 millones de dólares, sería construida en Río Tercero, provincia de Córdoba (Nuclear News, 1971: 60). 174

En 1972 se desencadenó una discusión que alcanzó amplia difusión pública acerca del tipo de reactor que debía adquirirse para la central de Río Tercero en la que participaron científicos de varias universidades, la Asociación Física Argentina, la Asociación de Profesionales de la Comisión Nacional de Energía Atómica, algunos periódicos y la televisión (Gorenstein y Lezama, 1981: 24; Solingen, 1996: 43). Sabato veía en "el agitado debate que se libra actualmente con referencia al combustible atómico que alimentará a la central de Río Tercero" una "dramática muestra de la vigencia alcanzada por la energía atómica en la Argentina" (Sabato, 1973b).

La evaluación de las ofertas para la segunda central de potencia fue realizada por 80 científicos e ingenieros de CNEA. El dictamen fue elevado al Poder Ejecutivo y la junta de comandantes finalmente decidió a favor de una central que, como Atucha, utilizara uranio natural. Entre los fundamentos de esta decisión se encontraba la disponibilidad de uranio y el énfasis en el incremento de capacidades autónomas en sectores claves de la industria nuclear, entre ellos la manufactura del combustible para las dos centrales de potencia argentinas. En contra de lo que aparecía como una tendencia que favorecía a las centrales de uranio enriquecido -a comienzos de los años setenta, Francia abandonaba, luego de ingentes inversiones a lo largo de más de dos décadas, sus propios desarrollos en uranio natural para pasarse a la línea del uranio enriquecido- la elección a favor del uranio natural se transformaba en un elemento central de la tecnopolítica nuclear argentina. Sin embargo, seguir la opción del uranio natural no significaba que había que cancelar las investigaciones en plutonio o uranio enriquecido (Sabato, 1973c).

Por esos días se extrajo del reactor MZFR del Centro de Investigaciones Atómicas de Karlsruhe (Alemania) el primer elemento combustible de potencia manufacturado por la División de Metalurgia de CNEA, en colaboración con la empresa argentina SIAM electromecánica. "Se hizo así no porque SIAM tuviera experiencia en metalurgia nuclear (en realidad no tenía ninguna) sino para comenzar a interesar a la industria argentina en lo que va a ser -en pocos años- un gran negocio", sostenía Sabato (1972: 8).

Poco antes de las elecciones del 11 de marzo de 1973, convocadas por el presidente de facto, se difundió que el consorcio integrado por la empresa estatal canadiense AECL y la italiana Italimpianti había sido seleccionado para construir en la provincia de Córdoba un reactor tipo CANDU (CANadian Deuterium Uranium) de 600 MW. El 20 de diciembre, CNEA, AECL e Italimpianti firmaron los contratos por la venta del reactor por 420 millones de dólares. Entre las razones que habían inclinado la balanza a favor de AECL estaba el acuerdo de transferencia de tecnología, que había sido concebido durante el proceso de adjudicación. Canadá se comprometía a asegurar la participación de un 50% de firmas argentinas, y a gestionar la transferencia a CNEA de la tecnología completa de los reactores CANDU -en manos de fabricantes canadienses-, incluyendo la tecnología de fabricación de sus elementos combustibles, y a ceder a CNEA los derechos para el empleo de esta tecnología dentro del territorio argentino sin pago adicional por el uso de licencias, regalías o cualquier otro concepto (Nuclear Industry, 1973: 49-50; Quilici, 2008: 8-10).

CNEA impulsó la creación de dos consorcios, NUCLAR y ARGATOM, donde intervenían empresas argentinas de ingeniería y montaje, y acordó con estos consorcios una serie de condiciones para favorecer procesos de aprendizaje en temas como especificaciones y regulaciones sobre calidad en la industria nuclear y tarifas de personal y de alquiler de equipamiento para grandes obras, entre otras cuestiones. En el caso de NUCLAR, integrado por las cinco empresas constructoras más importantes, el objetivo era, de acuerdo a Oscar Wortman, ingeniero que trabajaba en CNEA desde los años cincuenta como miembro del grupo de metalurgia de Sabato, "armar un contratista lo suficientemente fuerte como para competir en el exterior", estrategia que no había sido empleada hasta ese momento "ni en los programas hidráulicos, ni en los programas ferroviarios, ni en los programas militares". Wortman comenta que a pesar del "pésimo nivel" de los dirigentes de las empresas que componían NUCLAR y de que "no comparten un objetivo común sino que hay intereses encontrados entre los socios, prácticamente desde el inicio", el consorcio llegó a cotizar el montaje de una central de la empresa norteamericana Westinghouse en Egipto (citado en Quintana, 1995: 136-137).

El peronismo ganó las elecciones y Perón volvió a la Argentina luego de un exilio de 18 años. Iraolagoitía reemplazó a Quihillalt que, después de casi dos décadas al frente de CNEA, se marchó a Irán para trabajar como asesor del programa nuclear iraní (Clarity, 1974: 2). La central Atucha I, luego de varios retrasos en el calendario, entró en operación el 20 de marzo de 1974. SATI había conseguido colocar una lista que representaba el 12% de las órdenes de compra de los ítems electromecánicos y el 90% de la obra civil, lo que permitía concluir que la participación de la industria nacional era de alrededor del 40% (Quilici, 2008: 7).

La explosión nuclear realizada por la India a solo dos meses de la inauguración de Atucha alteró de manera irreversible el panorama. Para "expertos" como Redick (1975: 419-20), el programa nuclear argentino mostraba una "semejanza perturbadora" con el de la India: ambos países contaban con excelentes cuadros de especialistas; ambos se decidieron por la línea de reactores de uranio natural, la cual presenta, se decía, ventajas militares; finalmente, ambos habían acumulado la cantidad necesaria de experiencia como para no depender de la tecnología extranjera. Y concluía: "[...] es difícil escapar a la conclusión de que cada paso del programa nuclear argentino parece haber sido diseñado para poder pasar rápidamente al desarrollo de armas".

Este tipo de afirmaciones fueron enfáticamente desmentidas por varios portavoces civiles de CNEA. "No tenemos un programa militar y, lo que es más importante, no podemos tenerlo en este momento", sostenía públicamente Jorge Cosentino, que estaba a cargo del funcionamiento de la central Atucha I. También Mario Báncora, al frente de la División de Reactores de CNEA, sostenía: "Lo único que la bomba india hizo por nosotros fue complicar terriblemente nuestras vidas" (Novitski, 1974).

Las presiones políticas se reflejaron de forma inmediata en el cambio de posición canadiense. El ministro de Energía canadiense anunció en diciembre un dramático viraje en la política canadiense de exportación de reactores. El objetivo era introducir exigencias de salvaguardias más rigurosas y renegociar en el nuevo escenario que planteaba la prueba nuclear india.12 El contrato original firmado con la Argentina aceptaba el compromiso argentino de firmar un acuerdo de salvaguardias con la OIEA. A las nuevas exigencias canadienses, la Argentina respondía, en septiembre de 1974, comprometiéndose a no utilizar tecnología, material o competencias canadienses para producir cualquier tipo de explosivo nuclear. Ahora bien, poco tiempo más tarde Canadá intentó avanzar en un segundo acuerdo, que se proponía renegociar el contrato comercial de Embalse. Para los canadienses, las previsiones del contrato original -que suponían un ajuste máximo del 25% anual, en concepto de inflación, sobre los pagos de la Argentina- resultaban inadecuadas en un contexto hiperinflacionario, que a finales de 1975 alcanzaba una tasa de inflación mensual del 30%. La muerte de Perón a fines de 1974 y la polarización social creciente, que incluía la violencia armada, agregaron nuevos elementos de incertidumbre. Frente a este panorama, la empresa canadiense insistía en la necesidad de protegerse contra las pérdidas adicionales de trabajar en la Argentina (Bratt, 2006: 118-119, 131-132,135).

A pesar de este complejo panorama, CNEA ya aparecía en el escenario local como una singularidad. A mediados de la década de 1970, Oszlak (1977: 85-86) señalaba que, mientras CNEA se había "fijado como prioridad el desarrollo de una política nuclear", los programas y planes de trabajo de otras instituciones "no se inscriben por lo general en el marco de una política C&T para sus respectivos sectores".

Autonomía e industrialización en contexto autoritario y desindustrializador

A mediados de los años setenta el desarrollo nuclear argentino era considerado, detrás de la India, el más avanzado de los países en desarrollo.13 A partir del golpe militar que expulsó de la presidencia a María Martínez de Perón a fines de marzo de 1976, el desarrollo nuclear comenzó a acelerarse. La economía maltrecha heredada del breve interregno democrático no fue un obstáculo para que el nuevo gobierno de facto anunciara las enormes inversiones que se esperaban concretar en el área nuclear. La nueva dictadura nombró como presidente de CNEA al capitán (más tarde vicealmirante) Carlos Castro Madero, que había egresado de la Escuela Naval, igual que Iraolagoitía y Quihillalt, y se había doctorado en física en el Instituto Balseiro.

En los primeros meses de gestión, Castro Madero sostuvo públicamente que el monto estimado de inversiones en el área nuclear en los próximos diez años iba a ser "del orden de 5500 millones de dólares, de los cuales 3500 millones serán insumos nacionales que deberán ser provistos por el Tesoro Nacional" (Castro Madero, 1976a: 10). También sostuvo que la Argentina ya estaba capacitada para "asumir la responsabilidad de la dirección, construcción, montaje y puesta en operación de las próximas centrales". El objetivo era liberar cuanto antes al país de los contratos "llave en mano". Desde el comienzo, la retórica analítica de Castro Madero ponía en un primer plano la necesidad urgente de alcanzar el dominio del ciclo completo del combustible nuclear y la insistencia en la orientación pacífica del programa nuclear argentino. Ahora bien, el hecho de estar al frente del proyecto nuclear de una dictadura genocida iba a debilitar las argumentaciones de Castro Madero, que a lo largo de toda su gestión, igual que en sus escritos posteriores, evitó cualquier alusión a las prácticas de terrorismo de Estado. Trabajaban 4000 personas en CNEA, de las cuales 1900 eran profesionales y técnicos (Castro Madero, 1976; CNEA, 1978: 27).

Los anuncios del nuevo presidente de CNEA parecían ir a contramano de la ambiciosa política económica orientada a un perfil de ortodoxia liberal que iniciaba un proceso de "adaptación" compulsiva a las condiciones dominantes en el sistema financiero internacional, que Schvarzer caracteriza por el brusco incremento de la liquidez mundial, que tenía entre sus causas la acelerada transferencia de ingresos por el alza del precio del petróleo y la desaceleración del crecimiento de las economías centrales. A través de enormes costos sociales, sostiene Schvarzer (1998: 34, 39-42), los primeros cinco años de política económica de la dictadura iban a "modificar la estructura de poder económico (y político) en favor de los dueños del dinero y, sobre todo, de aquellos que operan en el mercado financiero". Una concepción que se presentaba como antiestatista y antiproteccionista se articulaba con la necesidad de ir eliminando del mercado a la "pléyade de pequeñas y medianas empresas" (Pucciarelli, 2004: 113).

Frente a este escenario, el desarrollo nuclear era uno de los focos de tensión dentro de la propia cúpula militar. Como sostiene Sidicaro (1996: 17), desde los comienzos 13. Ver, por ejemplo: Redick (1975).del gobierno militar coexistieron dos proyectos divergentes. Junto al programa de apertura indiscriminada impulsado por el equipo económico de Martínez de Hoz, aparece una concepción neodesarrollista que continúa asignando un papel estratégico al Estado en la determinación de los objetivos económicos y sociales. En síntesis, en este panorama económico híbrido, como explican Novaro y Palermo (2003: 51-65), la cúpula militar gobernante, a pesar de los enfrentamientos internos, tuvo la capacidad de construir un consenso por el cual los desarrollistas no planteaban una oposición irreductible a las reformas económicas del grupo de Martínez de Hoz y, a cambio, los liberales aprobaban los gastos militares, el sostenimiento de las empresas del Estado y el plan de obras públicas.

En este escenario, el desarrollo nuclear no es una excepción dentro de la nueva configuración de relaciones corporativas entre segmentos del Estado y un sector privilegiado de grandes empresas oligopólicas vinculadas a los capitales transnacionales. Como sostiene Pucciarelli (2004: 113-114), este segmento privilegiado de empresas fue promovido por la proliferación de contratos por la provisión de obras, de bienes, materiales estratégicos y asistencia tecnológica "a las nuevas ramas en expansión monopolizadas por el Estado, tales como la industria bélica, aeronáutica, y nuclear", además de otros beneficios vinculados a la ley de promoción industrial y el nuevo panorama de negocios relacionado con la valorización financiera.

Así, la transformación traumática del contexto socio-económico, que es condición de posibilidad del salto de escala en la dimensión financiera del programa nuclear, resignificaba el sentido y los objetivos del régimen tecnopolítico nuclear, que en términos ideológicos parecía mantener fijo el rumbo. La consecuencia más visible de esta resignificación fue un desdoblamiento. Por un lado, las grandes obras nucleares impulsadas durante la última dictadura desplazaron el foco desde los objetivos industrialistas, que con la creación del SATI en los años sesenta proponía orientarse principalmente al apoyo de lo que tradicionalmente se conoció como industria nacional -que incluía a las pequeñas y medianas empresas-, hacia el grupo de capitales concentrados privilegiados por su cercanía y funcionalidad al poder de facto y a su capacidad de lobby en el ámbito de los capitales trasnacionales. Por otro lado, como veremos, algunos de los objetivos delineados en los años sesenta por el régimen tecnopolítico nuclear mantenían su vigencia.

Ahora bien, el complemento necesario de una política económica que inauguraba un proceso acelerado de desindustrialización y precarización laboral fue la construcción de una estructura represiva que se propuso la aplicación a escala nacional de prácticas de terrorismo de Estado. Estas prácticas, que alcanzaron la dimensión de genocidio, tuvieron sus consecuencias en CNEA. Hoy se sabe que, durante el período 1976-1983, veinticinco miembros de CNEA fueron secuestrados, de los cuales 15 figuran hoy en la lista de desaparecidos, y más de doscientos fueron despedidos (CDHPCNEA, 2006).

Desde el plano internacional, los planes iniciales de Castro Madero se vieron obstaculizados por las iniciativas acordadas por los países exportadores de tecnología nuclear contra el desarrollo de planes nucleares de países en desarrollo.

Por iniciativa de los Estados Unidos, se iniciaron en 1974 reuniones secretas de los países exportadores de tecnología nuclear, más tarde conocido como el "Club de Londres" (Redick, 1995: 19). El objetivo explicitado era poner restricciones al comercio de equipos y tecnologías nucleares y evitar que la competencia entre los países exportadores debilitara las salvaguardias. Finalmente, ignorando al OIEA, fueron redactadas en secreto y aprobadas en septiembre de 1977 las llamadas "Pautas de Londres", aunque finalmente fueron comunicadas al OIEA en notas de enero de 1978 (Hofmann, 1976).

Este proceso acompañó el endurecimiento de la posición de los Estados Unidos. La dministración Carter prohibió a proveedores norteamericanos de tecnología nuclear toda venta a países que no hubieran firmado el TNP. A partir de este momento, la administración Carter tendrá como temas centrales de su agenda con la Argentina la cuestión de los derechos humanos y la ratificación de los tratados de no proliferación. Canadá se sumó a la política de presiones de los Estados Unidos, desconociendo los compromisos adquiridos con la Argentina, entre ellos el acuerdo de transferencia de tecnología (Castro Madero y Takacs, 1991: 59-60).

Esto ocurría mientras funcionarios de CNEA, a comienzos de noviembre de 1977, se encontraban firmando un acuerdo con Perú para la construcción de un Centro de Investigación Nuclear en Guarangal, a 35 kilómetros de Lima, que incluía el diseño y construcción de un reactor de investigación de 10 MW. Para Castro Madero, el convenio con Perú era algo inédito en América latina y un ejemplo privilegiado de lo que se entiende por "transferencia horizontal". Estados Unidos reaccionó al acuerdo negando el uranio enriquecido para que la Argentina pudiera fabricar los elementos combustibles del reactor peruano. Por esos días, Castro Madero sostenía públicamente que resultaba muy difícil "discriminar hasta dónde se trata de evitar la proliferación y hasta dónde se permite que existan monopolios, que existan intereses comerciales o que exista el interés de que algunos países no tengan la posibilidad de desarrollar sus planes autónomos" (Castro Madero, 1978a: 37; 1978b: 5, 7).

Para consternación de la administración Carter, Castro Madero anunció que la Argentina había contratado el año anterior a la empresa TECHINT para comenzar a construir en el Centro Atómico de Ezeiza una planta experimental para reprocesar plutonio, que podría estar terminada a comienzos de los ochenta.14Desafiando los esfuerzos de los Estados Unidos para detener este proyecto, Castro Madero afirmaba: "Ahora los Estados Unidos dicen 'no reprocesen'. Al día siguiente, ellos dirán sí [...] Para un país como el nuestro, toma tiempo desarrollar una nueva tecnología. Por eso estamos planificando llegar preparados a la década de 1990 para estar en posición de decidir por nosotros mismos si reprocesar o no" (Benjamin, 1978: A21).

A fines de 1978, Castro Madero anunció que ya estaba en construcción en el Centro Atómico Ezeiza una nueva planta que fabricaría los elementos combustibles necesarios para operar Atucha I a partir del uranio natural argentino y, en enero de 1979, el gobierno de facto promulgó un decreto que aprobaba un ambicioso plan nuclear que autorizaba la construcción de cuatro reactores de 600 MW en los próximos veinte años, una planta de producción de agua pesada a escala industrial y, en términos generales, se proponía completar el ciclo del combustible nuclear para 1997. Como consecuencia de estos planes, el presupuesto de CNEA superó al año siguiente los 1000 millones de dólares anuales (Gorenstein y Lezama, 1981: 25; CNEA, 1982: 47; Castro Madero y Takacs, 1991: 102).

En simultáneo con la presentación del nuevo plan nuclear, luego de elaborar una base de datos de proveedores nucleares nacionales, se hizo el llamado a licitación para la tercera central nuclear. En la licitación se especificaba que esta central debía ser de 700 MW, uranio natural y agua pesada. En noviembre de 1979, la compañía alemana KWU ganó el contrato por 1300 millones de dólares para construir Atucha II, mientras que la firma suiza Sulzer Brothers obtuvo el contrato por 300 millones de dólares para construir una planta comercial de agua pesada con una capacidad de producción de 250 toneladas anuales en Arroyito, provincia de Neuquén. A pesar de que la firma canadiense AECL había presentado una oferta comprehensiva para construir tanto el reactor como la planta de producción de agua pesada, Castro Madero sostuvo que, si la AECL hubiera ganado el contrato, el país se habría atado a un solo proveedor y esto "habría afectado la capacidad de la Argentina de desarrollar un programa independiente con un mínimo de posibilidades de interferencias externas" (Nuclear Engineering International, 1979). Durante la negociación del contrato se creó la Empresa Nuclear Argentina de Centrales Eléctricas (ENACE), con una participación inicial del 75% de CNEA y el 25% de KWU.15Entre los objetivos de esta empresa, estaban la promoción e integración de la industria local alrededor del plan nuclear, la gestión de contratos de transferencia de tecnología, la precalificación de empresas proveedoras.16Durante este período, los ambiciosos planes nucleares de CNEA comenzaron a ser amenazados por la escasez de fondos. El estancamiento económico -a esta altura la deuda externa era de 39.000 millones de dólares- comenzó a tornarse una barrera infranqueable. CNEA tuvo que aceptar un retraso en la construcción de la tercera planta nuclear y de la planta de agua pesada. Como compensación parcial, a mediados de 1982, se produjo un giro en la política norteamericana, cuando el secretario de Energía de la administración Reagan autorizó la exportación a la Argentina de un sistema de control computarizado para ser utilizado en la planta de agua pesada.

El gobierno militar, debilitado por la derrota de Malvinas, debió comenzar a negociar l retorno a la democracia. En su último tramo, en mayo de 1983, se inauguró la central de Embalse, con una participación del 51% de empresas nacionales. A fines de octubre, Raúl Alfonsín ganó las elecciones presidenciales y debía asumir la presidencia el 10 de diciembre. En ese momento, el presidente electo recibió la notica de la existencia de una planta de enriquecimiento de uranio en la Patagonia, que había sido desarrollada en secreto por la empresa INVAP SE -creada a fines de 1976 como desprendimiento de CNEA- con un costo total de 62,5 millones de dólares (Castro Madero y Takacs, 1991: 84-85). La economía argentina padecía entonces una inflación anual del 400%. Alfonsín pidió que se hiciera pública la existencia de esta instalación antes de su asunción.

Cuando Castro Madero anunció, el 18 de noviembre de 1983, que en Pilcaniyeu se había desarrollado la tecnología de enriquecimiento de uranio por difusión gaseosa, la Argentina era considerado el tercer mayor proveedor del mundo de asistencia nuclear a otros países en desarrollo. La noticia del logro tecnológico de Pilcaniyeu tomó a las agencias de inteligencia norteamericanas por sorpresa. "¿Qué clase de tontos emplea la CIA en América latina?", preguntaba un editorial de la revista inglesa New Scientist (1983).17

Una pesada herencia

Si se considera que desde los inicios del gobierno de Raúl Alfonsín la última dictadura estuvo impregnada de un sombrío desprestigio y un repudio casi unánime, como contrapunto es llamativo notar que la cuestión nuclear retornó a la esfera pública con las aristas propias de un tema controvertido, aunque con un sesgo hacia las evaluaciones positivas. Si bien las opiniones relevadas son diversas, las divergencias, con pocas excepciones, acordaban en un punto no menor: la energía nuclear aparecía como la única herencia que podía rescatarse de la última dictadura.

De esta forma, las numerosas de voces que ganan espacio en la esfera pública durante el retorno a la democracia, que debaten una variedad de posiciones acerca del futuro nuclear del país, ponen de manifiesto la densidad alcanzada por la cultura nuclear.

Desde la arena internacional el retorno a la democracia hizo pensar que se produciría un cambio drástico en la orientación de la política nuclear. Aún antes de asumir la presidencia, Alfonsín había anunciado que crearía una comisión investigadora para revisar en su totalidad el programa nuclear heredado. A fines de diciembre, Castro Madero renunció y asumió el primer presidente civil en la historia de CNEA. Sin embargo, a los pocos meses del retorno a la democracia, la incertidumbre del gobierno norteamericano se ponía en evidencia en las páginas del diario Wall Street Journal:

"La prensa occidental frecuentemente asoció el rechazo a las salvaguardias nucleares completas por parte del régimen militar difunto con el recurrente nacionalismo que dio color a la aventura fallida de las islas Falkland [Malvinas]. Para desgracia de Washington, sin embargo, el gobierno electo de Raúl Alfonsín […] ha adoptado esencialmente la línea política de sus predecesores militares en esta cuestión" (Leigh, 1984).

A pesar de las enérgicas iniciativas legales y políticas contra la dictadura, el gobierno democrático adoptó una aproximación "autonomista" en la cuestión nuclear que, en sus componentes más importantes, significaba legitimar el régimen tecnopolítico nuclear, si bien respondía a los reclamos externos dando a Cancillería un peso mayor en la definición y manejo de la política nuclear con el objetivo de ganar transparencia y mostrar las intenciones pacíficas (Russell, 1989: 77).

En este escenario, el principal determinante del desarrollo nuclear durante el período presidencial de Raúl Alfonsín fue el contexto de ajuste económico estructural y limitaciones financieras extremas. Los recursos para ciencia y tecnología permanecieron congelados entre 1984 y 1989. Al margen de las intenciones del nuevo gobierno, el endeudamiento externo puso al descubierto que el programa nuclear heredado estaba sobredimensionado para la capacidad económica del país. La carga presupuestaria que significaban las grandes obras en curso -Atucha II, la planta de Arroyito, la planta de reprocesamiento de Ezeiza y la ampliación a escala industrial de la planta de Pilcaniyeu, entre las más onerosas- potenciaba la extrema vulnerabilidad del desarrollo nuclear, que intentaba ser capitalizada por un nuevo contraataque de la diplomacia norteamericana. Según Sheinin (2006: 186), el único "fuerte desacuerdo" entre Estados Unidos y la Argentina durante el gobierno de Alfonsín fue el tema nuclear. Las presiones que padeció la Argentina durante este período fueron decisivas en la determinación del proceso de toma de decisiones en relación con la política exterior argentina.

Los medios de comunicación incluyeron en sus agendas el horizonte incierto del desarrollo nuclear, en algunos casos defendiendo la trayectoria histórica de CNEA (Clarín, 1984), dando espacio a la palabra de Castro Madero, que era presentado como "actual consultor de la presidencia" (Castro Madero, 1984), mostrando la posición de la oposición política al gobierno (Regionales, 1984), dando la palabra a algunos expertos que opinaban sobre el tipo de decisiones que debían adoptarse (Flegenheimer, 1984) o reproduciendo los dichos del propio Alfonsín sobre la cuestión nuclear (La Nación, 1984).

Ahora bien, en este momento también surge un importante movimiento local de resistencia. A fines de septiembre de 1986, CNEA hizo pública la realización de un estudio de prefactibilidad para la construcción de un repositorio de residuos nucleares: "Sierra del Medio, 70 kilómetros al oeste del minúsculo poblado de Gastre [provincia de Chubut], ofrecía el mejor afloramiento granítico para construir el primer Repositorio de Desechos Radiactivos de Alta Actividad del planeta" (citado en Rodríguez Pardo, 2006: 15).

El proyecto se remontaba a la última dictadura. A comienzos de 1982, Castro Madero había anunciado, con la colaboración del Instituto de Investigaciones Mineras de la Universidad Nacional de San Juan, la CNEA se había embarcado, desde 1979, en la identificación de lugares potencialmente aptos para la instalación de repositorios para "los subproductos terminales del ciclo de combustible del Plan Nuclear Argentino" (CNEA, 1983a: 43). A fines de marzo de aquel año, Sabato, que hacía una década que ya no trabajaba en CNEA, sostenía en la prensa que "es importante que la opinión pública sea correctamente informada sobre algunos de sus aspectos significativos y tenga, eventualmente, oportunidad de expresarse al respecto". Y argumentaba que era necesario "un amplio debate" sobre el tema. Luego de explicar las complejidades del proyecto, afirmaba:

"Pese a mi gran respeto por la competencia técnica de la CNEA, y por su seriedad y responsabilidad, me permito llamar la atención sobre el hecho de que en ningún país democrático se ha podido llegar hasta el momento a una decisión sobre lo que es un lugar seguro y una instalación segura para depositar los residuos nucleares".

Dado que "no hay una solución técnica probada", Sabato exponía once interrogantes, entre los que figuraba el tamaño de la instalación. Esta última cuestión era importante, dado que "una cosa es una instalación para servir a un programa de centrales nucleares modesto, como es de la Argentina, con una reducida cantidad de centrales", y otra muy diferente si fuese a almacenar los residuos de otros países. En cuanto a la necesidad del debate, Sabato aclaraba que "la mera razón técnica de un grupo de profesionales no es un justificativo para un acto autoritario ni tampoco garantía de éxito". Y finalizaba: "Lo que ocurre es que hace tanto tiempo que vivimos bajo el autoritarismo que hemos terminado por perder no sólo nuestros derechos sino hasta la noción misma de que tenemos derechos". Ya en democracia, las crecientes movilizaciones de protesta en oposición al "basurero nuclear" lograron paralizar el proyecto a fines de los ochenta. CNEA volvió a la carga en 1994, pero ante la resistencia creciente el gobierno hizo saber que todavía no se había tomado una decisión y que el proyecto había sido detenido (Sabato, 1982; Rodríguez Pardo, 2006).

Aceptada la crisis presupuestaria, el eje de la política nuclear del gobierno de Alfonsín se desplazó hacia el fortalecimiento de la colaboración argentino-brasileña. Desde fines de los años sesenta, ambos países compartían la percepción inequívoca de un orden internacional que los relegaba. A pesar de las tensiones vinculadas al derecho sobre los recursos hídricos de ríos compartidos, la Argentina apoyó el derecho de Brasil al acceso de tecnología nuclear avanzada (Redick, 1995: 19-20). Buenos Aires y Brasilia iniciaron finalmente un proceso de construcción de colaboración nuclear bilateral en 1980, cuando ambos países se encontraban bajo dictaduras militares. En noviembre de 1985 se reunieron en Foz de Iguazú los presidentes Alfonsín y Sarney, donde firmaron la "Declaración conjunta sobre política nuclear". A mediados de julio de 1987, Alfonsín viajó a Bariloche con Sarney para firmar nuevos documentos de colaboración. El encuentro de los presidentes incluyó la visita a "la ultrasecreta planta de enriquecimiento de uranio" (DyN, 1987). Estos acuerdos excluían el área militar. En 1988 ambos presidentes visitaron la planta de enriquecimiento brasileña en Iperó y la planta de reprocesamiento de plutonio en construcción en Ezeiza. En diciembre de ese año también fue inaugurado el centro nuclear en Perú. Su costo total, incluyendo los caminos de acceso y tendido de líneas de electricidad, fue aproximadamente de 106 millones de dólares (Radicella, 2001: 39-43). En este punto puede pensarse que se terminaba de concretar un giro realista de la tecnopolítica nuclear, que desplazó el centro de gravedad desde la búsqueda del liderazgo regional, presente desde comienzos de los años sesenta, hacia la colaboración con Brasil, a mediano plazo también concebida como un recurso estratégico para la integración regional.

La clara orientación pacífica durante la presidencia de Alfonsín no impidió que las presiones continuaran. En mayo de 1989, el prestigioso Bulletin of the Atomic Scientists publicó un artículo titulado "Los peronistas buscan 'la grandeza nuclear'". Allí se decía: "Si se puede creer en las encuestas de opinión, el peronismo, movimiento argentino de masas autoritario y xenófobo, retornará al poder en las elecciones del 14 de mayo". Y agregaba más adelante: "Esto ha renovado la preocupación sobre el desarrollo nuclear en la Argentina, un país con una larga historia de inestabilidad política y nacionalismo militante" (Kessler, 1989: 13).

A pesar de estas afirmaciones, el proceso de integración con Brasil continuó durante la presidencia de Menem y culminó con la concertación del "Acuerdo entre la República Argentina y la República Federativa del Brasil sobre el uso exclusivamente pacífico de la energía nuclear", firmado en Guadalajara (México) el 18 de julio de 1991. Por medio de este acuerdo, se creaba un sistema común de control de materiales nucleares que se implementaría a través de la Agencia Brasileño- Argentina de Contabilidad y Control de Materiales Nucleares (ABACC). Este proceso se cerraba en Viena con la firma, el 13 de diciembre, de un acuerdo entre los dos gobiernos, la ABACC y al OIEA, para la aplicación de salvaguardias en ambos países (Ornstein, 1998: 133-141).

Epílogo

Durante los primeros años del gobierno de Menem, por primera vez el régimen tecnopolítico nuclear iba a colisionar frontalmente con la política exterior del nuevo gobierno. Carlos Escudé, uno de los ideólogos de este cambio de rumbo, argumentaba que, como consecuencia de que raramente se explicitan los vínculos entre el modelo de nación y las propuestas de política exterior, "en la democrática Argentina de Alfonsín, pudo haberse adoptado una política dotada de alardes belicistas respecto de Malvinas, a la vez que se continuó aceleradamente con el desarrollo del misil Cóndor 2 y se rehusó ratificar el Tratado de Tlatelolco para la prohibición de armas nucleares en América latina". Como consecuencia, razonaba Escudé, "este desafío al orden impuesto por las potencias centrales, operado desde la vulnerabilidad argentina, generó graves costos para este país". Como política exterior para un "país periférico, empobrecido, endeudado y poco relevante para los intereses vitales de las potencias centrales", Escudé sostenía que Argentina debía "bajar el nivel de sus confrontaciones políticas con las grandes potencias a prácticamente cero". Su propuesta era el alineamiento con Estados Unidos fundado en la "aceptación realista del liderazgo norteamericano en el hemisferio occidental" (Escudé, 1992: 20, 24 y 31; énfasis en el original). Como parte de este viraje en la política exterior, la Argentina ratificó finalmente el Tratado de Tlatelolco en agosto de 1992 y firmó el TNP en diciembre de 1994. Para algunos actores relevantes del desarrollo nuclear, este paso significó renunciar a 25 años de coherencia en política nuclear.

La contracara económica del realismo periférico era la reforma estructural, fundada en la apertura de la economía, la desregulación de los mercados -en especial, de los mercados financiero y laboral-, un programa de privatización de las principales empresas públicas y la concesión de los servicios públicos a firmas en su mayoría extranjeras. Al igual que en el resto de las reparticiones públicas, la consigna de "achicamiento del Estado" significó en el área nuclear una traumática restructuración. Mientras que la planta de agua pesada de Arroyito fue inaugurada en 1993, las obras de Atucha II y la ampliación de Pilcaniyeu finalmente se paralizaron y, por presiones de Estados Unidos, se canceló definitivamente la planta de reprocesamiento de plutonio -que había hibernado entre 1983 y 1991- luego de pagar a TECHINT a lo largo de diez años -en concepto de improductivos de obra y lucro cesante y, en 1993, por la rescisión del contrato- una cifra equivalente a la necesaria para terminar laplanta (alrededor de 40 millones de dólares). La operación de las dos centrales depotencia en funcionamiento, Atucha I y Embalse, pasó a depender de la empresaNucleoeléctrica Argentina SA, creada para ser privatizada, iniciativa que no tendríaéxito. También se separaron de CNEA todas las actividades de regulación de laactividad nuclear en el país, creándose para tal fin la Autoridad Regulatoria Nuclear.

Mientras que las políticas neoliberales impactaban en forma dramática sobre "CNEA residual", como se bautizó a la institución que resultó de las anteriores transformaciones, la empresa INVAP -con importante apoyo de CNEA- y el Haut Commisariat a la Recherche, organismo estatal de Argelia, habían firmado en 1988 un acuerdo de asociación tecnológica y a fines de marzo del año siguiente se había inaugurado en aquel país el reactor de investigación e irradiación NUR de 1 MW construido por la empresa argentina. Si bien la trayectoria de INVAP fue difícil y sinuosa -en varias ocasiones estuvo al borde del colapso-, esta transacción fue seguida de una serie de exportaciones de la misma empresa a Cuba, Egipto, India, Irán, Rumania, Siria y Australia (Buch, 1998: 157-201).18

Esta capacidad tecnológica, organizacional y política, que hizo posible la construcción de un mercado nuclear de países periféricos, es probablemente el resultado más visible del régimen tecnopolítico nuclear y pone de manifiesto una "lógica" de desarrollo que es el producto histórico de un arduo aprendizaje en la diversos organismos del Estado argentino, incluido el Poder Ejecutivo, en un contexto de alta inestabilidad política. En este punto, la cultura nuclear aparece como una condición de posibilidad para la implementación de una tecnopolítica sectorial capaz de traspasar -si bien por corredores estrechos y resignando parte de sus objetivos- los determinantes estructurales e, incluso, de extender su influencia política y sus capacidades a otros sectores, con especial incidencia sobre el sector espacial.

Luego de la crisis de 2001, del derrumbamiento de la matriz neoliberal y del inicio de una política económica que intenta recuperar áreas estratégicas desde el Estado y devolver un papel dinámico primario a la industria nacional -incluyendo a las pequeñas y medianas empresas-, en agosto de 2006, en un contexto de fuerte crecimiento económico, el gobierno argentino anunció la reactivación del sector nuclear y la continuación de las obras de la central Atucha II. En el actual proceso de rápida reestructuración de la comunidad nuclear -en pugna con contradicciones que tienen su raíz en los años noventa y con manifestaciones de resistencia social- es posible ver cómo recobran su vigencia los principales componentes históricos de la tecnopolítica nuclear adaptados al nuevo escenario.

Agradecimientos

El autor desea agradecer a Tomás Buch, Santiago Harriague, Domingo Quilici y Eduardo Santos por los muchos años de intercambio de opiniones e ideas. También transmitir admiración a sus trayectorias y el enorme aprendizaje que surge de ellas.

Notas

1. Una discusión sobre la noción de "autonomía" en América latina, puede verse Russell y Tokatlian (2003)

2. El relato más detallado y exhaustivo sobre el "affaire Richter" se encuentra en Mariscotti (1985).

3. Entre 1955 y 1961, la US AEC firmó 25 acuerdos para cooperar en investigación; 14 para cooperar en investigación y en producción de potencia; 11 acuerdos con propósitos de defensa mutua, y tres acuerdos especiales con el OIEA y EUROATOM (organización multilateral para la integración del desarrollo nuclear europeo). Acuerdos idénticos al de la Argentina fueron firmados con Washington por Colombia (19 de julio), España (19 de julio), Portugal (21 de julio), Venezuela (21 de julio), Brasil (3 de agosto) y Chile (8 de agosto). Ver: Hewlett y Holl (1989: 236, 581); Ordóñez y Sánchez-Ron (1996: 195-197).

4. Un relato detallado acerca de la construcción del RA-1, puede verse en Hurtado de Mendoza (2005).

5. Puede verse la sección "Technical Assistance Experts in the Field" de IAEA Bulletin durante los años sesenta.

6. Más tarde, el RA-0 fue transferido a la Universidad Nacional de Córdoba.

7. Todos sus componentes fueron manufacturados en la Argentina, incluyendo el 90% de la electrónica y el equipo de control (Sabato, 1973: 28).

8. La caracterización "semi-llave en mano" fue sugerida al autor por Santiago Harriage.

9. Sobre la colaboración con Irán, puede verse Hurtado (2006).

10. La intención de este tratado era crear una zona libre de armas nucleares, prohibiendo, entre otras cosas,la instalación de bases militares con este tipo de armas.

11. El programa Plowshare realizó en total 41 explosiones atómicas, la mayoría entre 1963 y 1968, y fue cancelado en 1978.

12. La noción de salvaguardias se refiere al compromiso de un país de aceptar la sujeción a inspección y control por parte del OIEA. La Argentina aceptaba la inspección sobre las instalaciones adquiridas, pero no sobre todas las instalaciones nucleares argentinas que se hubieran desarrollado autóctonamente.

14. No seguiremos en este trabajo la sinuosa trayectoria del plutonio en la Argentina, tema que no ha sido investigado hasta el presente en profundidad.

15. KWU debía ir disminuyendo su participación en el tiempo hasta que a fines de los años noventa la empresa fuese totalmente de CNEA.

16. Sobre las empresas mixtas creadas por CNEA durante este período, como ENACE, CONUAR y FAE, y sobre la participación de algunas empresas de capital nacional como Industria Mendoza Pescarmona y Pérez Companc, y la forma en que se beneficiaron a partir de las licitaciones vinculadas al plan nuclear, puede verse Quilici (2008).

17. Sobre el desarrollo de la tecnología de enriquecimiento de uranio en Pilcaniyeu, puede verse: Hurtado (2009: 16-23).

18. Sobre el desarrollo de la tecnología de enriquecimiento de uranio en Pilcaniyeu, puede verse Hurtado (2009: 16-23). Para un relato exhaustivo sobre la trayectoria de INVAP, ver Versino (2006). integración y acumulación de competencias de CNEA, INVAP, Cancillería y de

Bibliografía

1 ALEGRÍA, J., CSIK, B., NASIJLETI, E., PAPADÓPULOS, C. y QUIHILLALT, O. (1964): "La contribución de la energía nuclear a la solución del problema energético argentino", Informe N° 115. Buenos Aires: CNEA.         [ Links ]

2 ALEGRÍA, J., COLL, J. y SUTER, T. (1972): "Una breve reseña histórica de la CNEA". Mimeo. Buenos Aires: CNEA-P.         [ Links ]

3 AZPIAZU, D., KHAVISSE, M. y BASUALDO, E. (1988): El nuevo poder económico. Buenos Aires: Hyspamérica.         [ Links ]

4 BENJAMIN, M. (1978): "Argentina on Threshold Of Nuclear Reprocessing", Washington Post, 16 de octubre, pp. A1, A21.         [ Links ]

5 BRATT, D. (2006): The Politics of CANDU Exports. Toronto: Universtity of Toronto Press.         [ Links ]

6 BUCH, T. (1998): "La proyección comercial internacional", en Carasales, J. y Ornstein, R. (coords.): La cooperación internacional de la Argentina en el campo nuclear. Buenos Aires: Consejo Argentino para las Relaciones Internacionales, pp. 147-205.         [ Links ]

7 CARASALES, J. (1997): De rivales a socios. El proceso de cooperación nuclear entre Argentina y Brasil. Buenos Aires: Grupo Editor Latinoamericano.         [ Links ]

8 CASTRO MADERO, C. (1976): "Argentina. Política nuclear", Estrategia, No. 42, pp. 42-47.         [ Links ]

9 CASTRO MADERO, C. (1978a): "Argentina. Situación nuclear actual", Estrategia, No. 51, pp. 30-41.         [ Links ]

10 CASTRO MADERO, C. (1978b): "Proyecto nuclear argentino en América Latina", Ciencia Nueva, Vol. 7, No. 38, pp. 2-9.         [ Links ]

22 CASTRO MADERO, C. (1984a): "El conocimiento científico supera los vaivenes de la política", La Nación, 18 de mayo, p. 7.         [ Links ]

23 CASTRO MADERO, C. y TAKACS, E. (1991): Política nuclear argentina. ¿Avance o retroceso? Buenos Aires: Librería "El Ateneo" Editorial.         [ Links ]

24 CDHPCNEA (2006): "A 30 años del Golpe Militar. Declaración conjunta de la Comisión de Derechos Humanos del Personal de la CNEA, la Asociación de Profesionales de la CNEA, la Asociación de Trabajadores del Estado -CNEA Junta Interna Buenos Aires-, leída en el acto realizado el 22 de marzo en la Sede Central de CNEA". Mimeo.         [ Links ]

25 CLARÍN (1984): "¿Trabas en el plan nuclear?, 13 de abril.         [ Links ]

26 CNEA (1959): Boletín Informativo, Año 3, No. 4.         [ Links ]

27 CNEA (1961): Boletín Informativo, Año 5, No. 2.         [ Links ]

28CNEA (1962): Boletín Informativo, Año 6, No. 4.         [ Links ]

29 CNEA (1967): RA-3. Reactor de experimentación y producción. Descripción general. Buenos Aires: CNEA. Folleto.         [ Links ]

30 CNEA (1970): Memoria Anual, Buenos Aires, CNEA.         [ Links ]

31 CNEA (1978): Memoria Anual 1976. Buenos Aires: CNEA.         [ Links ]

32 CNEA (1982): Memoria Anual 1980. Buenos Aires: CNEA.         [ Links ]

33COLL, J. y RADICELLA, R. (1998): "Las primeras transferencias de tecnología nuclear y los desarrollos posteriores en el campo de los radiosiótopos", en Carasales, J. y Ornstein, R. (coords.): La cooperación internacional de la Argentina en el campo nuclear. Buenos Aires: CARI, pp. 95-108.         [ Links ]

34 DYN (1987): "Sarney y Alfonsín firman acuerdos hoy en Bariloche", Río Negro, 16 de julio, p. 1.         [ Links ]

35 ESCUDÉ, C. (1992): Realismo periférico. Fundamentos para la nueva política exterior argentina. Buenos Aires: Planeta.         [ Links ]

36 EVANS, P. (1979): Dependent Capitalism. The Alliance of Multinationals, State, and Local Capital in Brazil. Princeton: Princeton University Press.         [ Links ]

37 FLEGENHEIMER, J. (1984): "El dedo en la llaga nuclear", La Prensa, 19 de enero, p.6.         [ Links ]

38 GARASINO, L. (1970): "El Tratado de No Proliferación Nuclear. Realidad Presente e Interrogantes", Estrategia, No. 9, pp. 65-74.         [ Links ]

39 GORENSTEIN, M. y LEZAMA, R. (1981): "Energía nuclear. ¿Soberanía o dependencia?", Síntomas, Año 2, No. 3, pp. 22-28.         [ Links ]

40 HALL, T. y CHASE-DUNN, C. (2006): "Global Social Change in the Long Run", en Chase-Dunn, Ch. y Babones, S. (eds.): Global Social Change. Historical and Comparative Perspective. Baltimore: The Johns Hopkins University Press, pp. 33-58.         [ Links ]

41 HECHT, G. (1998): The Radiance of France. Nuclear Power and National Identity after World War II. Cambridge, Mass.: The MIT Press.         [ Links ]

42 HEWLETT, R. y HOLL, J. (1989): Atoms for Peace and War, 1953-1961. Berkeley: University of California Press.         [ Links ]

43 HOFMANN, P. (1976): "Atomic Agency Says It Is Bypassed", New York Times, 24 de octubre, p. 20.         [ Links ]

44 HUGHES, T. (1989): "The Evolution of Large Technological Systems", en Bijker, W. Y Pinch, T. (eds.): The Social Construction of Technological Systems. Cambridge, Mass.: The MIT Press, pp. 51-82.

45 HURTADO DE MENDOZA, D. (2005): "Autonomy, even regional hegemony: Argentina and the 'hard way' toward its firts research reactor (1945-1958)", Science in Context, Vol. 18, No. 2, pp. 285-308.         [ Links ]

46 HURTADO, D. (2006): "Breve historia nuclear de Irán", Ciencia Hoy, Vol. 16, No. 93, pp. 56-62.         [ Links ]

47 HURTADO, D. (2009): "Periferia y fronteras tecnológicas. Energía nuclear y dictadura militar en la Argentina (1976-1983)", Revista Iberoamericana de Ciencia, Tecnología y Sociedad, Vol. 5, No. 13, pp. 1-33.         [ Links ]

48 HURTADO, D. y FELD, A. (2010): "La revista Mundo Atómico y la 'nueva Argentina científica'", en Claudio Panella y Guillermo Korn (eds.): Ideas y debates para la Nueva Argentina. Revistas culturales y políticas del peronismo (1946-1955). La Plata: Edulp, pp. 199-228.

49 OIEA (1962a): "Another Survey in Latin America", International Atomic Energy Agency Bulletin, Vol. 4, No. 2, pp. 15-19.         [ Links ]

50 OIEA (1962b): "Assistance to Life Science Studies in Argentina", International Atomic Energy Agency Bulletin, Vol. 4, No. 3, pp. 8-9.         [ Links ]

51 OIEA (1968): "How the UN Approved the NPT", International Atomic Energy Agency Bulletin, Vol. 10, No. 4, pp. 9-17.         [ Links ]

52 KESSLER, Richard (1989): "Peronists seek 'nuclear greatness'", Bulletin of the Atomic Scientists, Vol. 45, No. 4, pp. 13-15.         [ Links ]

53 LA NACIÓN (1965a): "Una central nuclear para el suministro de la electricidad", 27 de enero, p. 1.         [ Links ]

54 LA NACIÓN (1965b): "Factibilidad de una central eléctrica nuclear en el país", 13 de febrero, pp. 1, 3.         [ Links ]

55 LA NACIÓN (1984): "Mensaje con dos direcciones: el frente externo y el local", 12 de mayo, p. 1.         [ Links ]

56 LEIGH, C. (1984): "Washington's Nuclear Policy Bombs Out in Argentina", Wall Street Journal, 28 de septiembre; p. 1.         [ Links ]

57 LÓPEZ DÁVALOS, A. y BADINO, N. (2000): J. A. Balseiro: crónica de una ilusión. Una historia de la física en la Argentina. México-Buenos Aires: Fondo de Cultura Económica.         [ Links ]

58 MARISCOTTI, M. (1985): El secreto atómico de Huemul. Crónica del origen de la energía atómica en la Argentina. Buenos Aires: Sudamericana-Planeta.         [ Links ]

59 MARTÍNEZ VIDAL, C. (1994): "Jorge Alberto Sabato: una vida", en Ciapuscio, H. (comp.): Repensando la política tecnológica. Homenaje a Jorge A. Sabato. Buenos Aires: Nueva Visión, pp. 79-102.         [ Links ]

60 MEDHURST, M. (1997): "Atoms for Peace and Nuclear Hegemony: The Rhetorical Structure of a Cold War Campaign", Armed Forces and Society, Vol. 23, pp. 574-593.         [ Links ]

61 NEW SCIENTIST (1983): "Why did we not know", Vol. 100, p. 718.         [ Links ]

62 NEW YORK TIMES (1984): "Let Mr. Alfonsin Tame His Tiger", 21 de abril, pp. 1, 18.         [ Links ]

63 NOVITSKI, J. (1974): "Argentina: Nuclear Power", Washington Post, 26 de diciembre, p. A20.         [ Links ]

64 NOVARO, M. y PALERMO, V. (2003): La dictadura militar. 1976/1983. Buenos Aires, Paidós.         [ Links ]

65 NUCLEAR ENGINEERING INTERNATIONAL (1979): "Kraftwerk Union to build Atucha II", Vol. 24, No. 292, p. 3.         [ Links ]

66 NUCLEAR INDUSTRY (1973): "AECL, After Decade of Frustrations, Sells PHWR to Argentina", Vol. 20, No. 4, pp. 49-50.         [ Links ]

67 NUCLEAR NEWS (1971): "Second Plant Planned", Vol. 14, p. 60.         [ Links ]

68 O'DONNELL, G. [1982] (2009): El estado burocrático autoritario. Buenos Aires: Prometeo.

69 ORDÓÑEZ, J. y SÁNCHEZ-RON, J. (1996): "Nuclear Energy in Spain: From Hiroshima to the Sixties", en Forman, P. y Sánchez-Ron, J. (eds.): National Military Establishments and the Advancement of Science and Tecnology. Dordrecht: Kluwer Academic Publishers, pp. 185-213.         [ Links ]

70 ORNSTEIN, R. (1970): "La desnuclearización de América Latina", Estrategia, No. 9, pp. 81-92.         [ Links ]

71 ORNSTEIN, R. (1998): "La complementación con Brasil", en Carasales, J. y Ornstein, R. (coords.): La cooperación internacional de la Argentina en el campo nuclear. Buenos Aires: CARI, pp. 127-146.         [ Links ]

72 OSZLAK, O. (1977): "Política y organización estatal de las actividades científico- técnicas en la Argentina: crítica de modelos y prescripciones corrientes". Technical Papers Series - No 9, Institute of Latin American Studies, University of Texas, Austin.         [ Links ]

73 PUCCIARELLI, A. (2004): "La patria contratista. El nuevo discurso liberal de la dictadura encubre una vieja práctica corporativa", en Pucciarelli, A. (ed.): Empresarios, tecnócratas y militares. Buenos Aires: Siglo Veintiuno, pp. 99-171.         [ Links ]

74 QUIHILLALT, O. (1967): Carta del presidente de CNEA a Glenn Seaborg, Buenos Aires, 27 de mayo. Archivo CNEA.         [ Links ]

75 QUIHILLALT, O. (1969): "La central nuclear en Atucha", Ciencia e Investigación, Vol. 25, No. 10, pp. 435-446.         [ Links ]

76QUILICI, D. (2008): "Desarrollo de proveedores para la industria nuclear argentina. Visión desde las Centrales Nucleares", H-industri@, Año 2, No. 2, pp. 1-23.         [ Links ]

77 QUINTANA, G. (1995): "Gastos en inversión en el sector nuclear: gestión y organización", en Análisis de instituciones científicas y tecnológicas. La Comisión Nacional de Energía Atómica. Buenos Aires: UBA, pp. 133-165.         [ Links ]

78 RADICELLA, R. (2001): "Peruvian Project", en Roberto Ornstein (coord.), Argentina as an exporter of nuclear technology. Past, present and future. Buenos Aires: CARI.         [ Links ]

79 RECONDO, E. (1995): "Investigación científica, desarrollo tecnológico: extensión y servicios", en Análisis de instituciones científicas y tecnológicas. La Comisión Nacional de Energía Atómica. Buenos Aires: UBA, pp. 29-41.         [ Links ]

80 REDICK, J. (1975): "Regional Nuclear Arms Control in Latin America", International Organization, Vol. 29, No. 2, pp. 415-445.         [ Links ]

81 REDICK, J. (1995): "Nuclear Illusions: Argentina and Brasil", Occassional Paper No 25. Washington: The Henry Stimson Center.         [ Links ]

82 REGIONALES (1984): "Repercusiones del documento sobre la desnuclearización", 19 de octubre, p. 8.         [ Links ]

83 RODRIGUEZ PARDO, J. (2006): En la Patagonia No. Crónica de la epopeya antinuclear de Gastre. Veinte años de movilizaciones que impidieron el basurero atómico en Chubut. El Bolsón.         [ Links ]

84 RUDA, J. (1970): "La posición argentina en cuanto al Tratado sobre la No Proliferación de las Armas Nucleares", Estrategia, No. 9, pp. 75-80.

85 RUSSELL, R. (1989): "La posición argentina frente al desarme, la no proliferación y el uso pacífico de la energía nuclear", en Desarme y desarrollo. Buenos Aires: Fundación Arturo Illia y Grupo Editor Latinoamericano, pp. 53-82.         [ Links ]

86 RUSSELL, R. y TOKATLIAN, J. (2003): "From Antagonistic Autonomy to Relational Autonomy: A Theoretical Reflection from the Southern Cone", Latin American Politics and Society, Vol. 45, No. 1, pp. 1-24.         [ Links ]

87 SABATO, J. (1964): "Plan de actividades del Departamento de Metalurgia de la Comisión Nacional de Energía Atómica, Argentina", Conferencia de Expertos Latinoamericanos en Metalurgia de Transformación. Buenos Aires: CNEA-OEA-INTI- US Air Force Office of Scientific Research, agosto 18-23.         [ Links ]

88 SABATO, J. (1970): "Para el prontuario del Plan Nuclear Argentino", Ciencia Nueva, Año 1, No. 1, pp. 32-46.         [ Links ]

89 SABATO, J. (1972): "Quince años de metalurgia en la Comisión Nacional de Energía Atómica", Ciencia Nueva, Año 3, No. 15, pp. 7-15.         [ Links ]

90 SABATO, J. (1973a): "La mayoría de edad", Visión, 24 de marzo, pp. 28-36.         [ Links ]

91 SABATO, J. (1973b): "Atomic Energy in Argentina: a Case Study", World Development, Vol. 1, num. 8, pp. 23-38.         [ Links ]

92 SABATO, J. (1973c): "Uranio natural. La independencia tecnológica merece esfuerzos y sacrificios", El Cronista Comercial, 16 de marzo, p. 7.         [ Links ]

93 SABATO, J. (1983): "El misterio atómico", pp. 138-141. En: Ensayos con Humor. Buenos Aires: Ediciones de la Urraca.         [ Links ]

94 SCHVARZER, J. (1998): Implantación de un modelo económico. La experiencia argentina entre 1975 y el 2000. Buenos Aires: A-Z Editora.         [ Links ]

95 SEABORG, G. y LOEB, B. (1987): Stemming the Tide. Arms Control in the Johnson Years. Lexington: Lexington Books.         [ Links ]

96 SHEININ, D. (2006): Argentina and the United States: An Alliance Contained. Athens, Georgia: The University of Giorgia Press.         [ Links ]

97 SIDICARO, R. (1996): "El régimen autoritario de 1976: refundación frustrada y contrarrevolución exitosa", en Quiroga, H. y Tcach, C. (comps.): A veinte años del golpe. Con memoria democrática. Rosario: Homo Sapiens, pp. 9-25.         [ Links ]

98 SOLINGEN, E. (1996): Industrial Policy, Technology, and International Bargaining: Designing Nuclear Industries in Argentina and Brazil. Stanford, CA: Stanford University Press.         [ Links ]

99VERSINO, M. (2006): "Análise sócio-técnica de procesos de produção de tecnologías intensivas em conhecimento em países subdesenvolvidos. A trajetória de uma empresa nuclear e espacial argentina (1970-2000)". Tesis de doctorado, Pós- Graduação em Política Científica e Tecnológica, UNICAMP, Campinas.         [ Links ]

100WALLERSTEIN, I. (1974): "The Rise and Future Demise of the World Capitalist System: Concepts for Comparative Analyses", Comparative Studies in Society and History, No. 4, Vol. 16, pp. 387-415.         [ Links ]

101 WORTMAN, O. (1996): "Sabato y la industria argentina", pp. 23-32. En: Sabato en CNEA. Buenos Aires: CNEA.         [ Links ]

Creative Commons License Todo o conteúdo deste periódico, exceto onde está identificado, está licenciado sob uma Licença Creative Commons