Bsqueda avanzada

Ruta de migas

Carlos Santamara y su obra escrita

 

III. El progreso del arma nuclear

 

1. Las primeras etapas

 

     Las primeras bombas atómicas eran todavía muy rudimentarias. Planeadas a base de unos esquemas todavía primarios, presentaban numerosos fallos y deficiencias que hacían difícil su utilización.

     En primer lugar, su rendimiento era muy bajo. Sólo un pequeño porcentaje de la carga de que era portadora una de aquellas bombas atómicas llegaba a explotar, el resto de los materiales radiactivos de la misma se desparramaba por las zonas circundantes. Polvo de rocas volatilizadas por la explosión cubría grandes extensiones de terreno o era proyectado a decenas de kilómetros de altitud y transportado después por los vientos en direcciones imprevisibles y a grandes distancias.

     En estas condiciones, la utilización militar propiamente dicha de la bomba resultaba muy problemática. Una vez lanzada una bomba atómica, las fuerzas del propio ejército podían verse envueltas en la contaminación producida por ella y no era posible proyectar un avance sobre el territorio bombardeado. La bomba podía servir para intimidar a las poblaciones, pero no para obtener una auténtica victoria en el campo de batalla.

     Los científicos que investigaban al servicio del ejército americano tuvieron, pues, que ponerse de nuevo al trabajo para obviar esos y otros inconvenientes de las primeras bombas. Trataron de transformar la «bomba sucia» de los primeros lanzamientos en una «bomba limpia», es decir, de alto rendimiento y reducida contaminación. Puede decirse que ésta fue la primera etapa del progreso del arma nuclear.

     Como es bien conocido, la bomba de Hiroshima se basaba en la ruptura o «fisión» de átomos. Desde las primeras investigaciones sobre la radioactividad se sabía que esta ruptura de átomos se produce de modo natural en determinados elementos, como por ejemplo el radio. Se sabía también que la ruptura va acompañada de un importante desprendimiento de energía, debido a la transformación de una porción de materia en energía.

     Así, por ejemplo, un átomo de uranio se puede escindir en dos, uno de kripton y otro de bario; pero la suma de las masas de estos dos átomos no es igual, sino inferior, a la masa del átomo escindido. La masa restante se ha convertido en energía, de acuerdo con un notabilísimo principio teórico previsto ya por Einstein, treinta años antes.

     En el proceso natural, esta transformación tardaba mucho tiempo en realizarse —20.000 años en el caso de una partícula de radio— y en ella se producía una enorme cantidad de energía calorífica y eléctrica y radiaciones de muy diverso tipo. La idea de los inventores de la bomba fue sumamente sencilla, como suelen serlo casi siempre las de todos los grandes inventos.

     Lo que había que hacer para lograr la explosión era concentrar toda la energía en un único y brevísimo momento. Para ello había que acelerar el proceso natural, haciendo que sus efectos se produjeran dentro de un proceso de desintegración artificial infinitamente más rápido que el normal. Esto se consiguió por el bombardeo del átomo de uranio o de plutonio por haces de neutrones. Como quiera que los primeros átomos bombardeados, no sólo se escinden, sino que emiten, a su vez, nuevos haces de neutrones, los mismos se convierten en centros de reactivación del fenómeno con lo cual la reacción nuclear se extiende a toda la masa fisible. Este proceso, que se llamará la «reacción en cadena», es lo que en realidad hace posible el funcionamiento de la bomba.

     Pero la reacción en cadena sólo puede tener lugar cuando se ponga en juego una masa fisible suficientemente grande para que dé pábulo a la explosión total.

     Dicha masa mínima es la que se llama «masa crítica». Ahora bien, la exigencia de que la carga atómica del proyectil sobrepase a la citada masa crítica impide que se puedan fabricar bombas atómicas de tamaño más reducido.

     El «gigantismo» de las primeras bombas no fue, pues, solamente un efecto buscado para aterrorizar a la población adversaria, sino algo impuesto por las condiciones mismas de la experiencia.

     Tampoco se podían acrecentar ilimitadamente las masas de los distintos componentes de la bomba, ya que se corría el peligro de que la explosión se produjera anticipadamente, en el curso del transporte. Por lo tanto, además de una masa crítica mínima, existía también una masa crítica máxima que la bomba no podía sobrepasar.

     A pesar de estas dificultades, la bomba de fisión hizo progresos en un primer período. En 1951 los americanos lograron hacer explotar en Eniwetok —un atolón de las islas Marshall— una bomba de fisión de 500 kilotones, es decir, veinticinco veces más potente que la de Hiroshima, lo que era un auténtico record para ese tipo de bombas.

     Pero estaba claro que el procedimiento de fisión no era el más adecuado para conseguir los resultados apetecidos. Esta consideración llevaría a los investigadores a intentar un nuevo tipo de arma: la bomba de fusión, bomba H o bomba termonuclear. El paso de la bomba A a la bomba H será el segundo episodio de esta historia.

     En la bomba H no se trabaja ya con los grandes átomos pesados, uranianos y transuranianos, sino, al contrario, con los más ligeros, con los isótopos del hidrógeno, los cuales pueden ser artificialmente fundidos entre sí para formar elementos de mayor peso atómico. Este tipo de operación, característica de la bomba de fusión, desprende también una gran cantidad de energía, mucho mayor que la que se produce en la fisión, y tiene sobre ésta la ventaja de que es más manejable y que no está sometida a las limitaciones de masa crítica a que nos hemos referido anteriormente.

     Al pasar de la bomba A a la bomba H, o bomba termonuclear, se da, pues, un paso trascendental, que había de tener trágicas consecuencias para la Humanidad. Pero ¿quién podría haber impedido entonces que, en el supuesto de que los americanos renunciasen a avanzar en esa dirección, los rusos no lo hicieran poco después? Comienza así la larga historia de la competición armamentística nuclear, en la que los avances realizados por cada parte son justificados por la necesidad de anticiparse o compensar los de la parte contraria.

     En el caso concreto de la bomba H, las cosas ocurrieron de la siguiente manera. En 1949, los rusos habían ya logrado una primera explosión nuclear por fisión del plutonio, cinco o seis veces más potente que la de Alamogordo. Este hecho, que los dirigentes americanos habían considerado como imposible o, por lo menos, como algo todavía muy lejano, impresionó enormemente a la opinión pública estadounidense. Algunos expertos afirmaban la necesidad de sacar ventaja a los soviéticos, impidiendo a toda costa que éstos pudieran colocarse en posición de igualdad. Teller propuso lisa y llanamente la rápida puesta a punto de la bomba termonuclear. Oppenheimer, en cambio, y otros científicos importantes, se opusieron a esa idea, fundándose en las tremendas consecuencias que tendría para el género humano la aplicación de semejante invento.

     La cuestión fue minuciosamente estudiada en los centros políticos y militares. El presidente Truman fue informado al detalle sobre las consecuencias que se producirían, tanto en el caso de que se llevase adelante el proyecto de bomba termonuclear, como en el de que la realización del mismo fuese aplazada hasta que se conociera el ulterior desarrollo del arma rusa.

     Finalmente, el 31 de enero de 1950, el presidente americano tomó la histórica y temida decisión: Truman dio la orden de que se iniciaran inmediatamente los trabajos para la definitiva puesta a punto de la bomba H.

     Una parte de la opinión americana quedó manifiestamente intranquila ante esta decisión. Los mismos científicos que habían recomendado la medida se echaron atrás una vez que ésta fue adoptada, pretendiendo cargar la responsabilidad sobre los políticos. Así, por ejemplo, el propio Edward Teller escribía poco después: «el presidente Truman ha anunciado que vamos a fabricar una bomba de hidrógeno. Ninguno de los que estamos en relación con este trabajo puede escapar al sentimiento de una grave responsabilidad... Pero el trabajo del hombre de ciencia consiste en descubrir las leyes de la naturaleza y en ponerlas al servicio de la voluntad del hombre. No le corresponde a él determinar si la bomba de hidrógeno deberá o no ser construida; si, una vez fabricada, habrá o no de ser utilizada, ni de qué manera habrá de serlo, en su caso. Esta responsabilidad corresponde al pueblo americano y a los representantes políticos elegidos por éste».

     La verdad es que nadie quiso cargar con la tremenda responsabilidad y que nadie podía hacerlo realmente. Se sabía ya que la bomba termonuclear era físicamente posible: si no eran unos hombres, serían otros los que alguna vez llevasen la idea a la práctica. Era como una fatalidad; como si el hombre estuviese hipnotizado por la «grandeza» del nuevo invento bélico. Había que ir adelante, pasase lo que pasase.

     Y fue el trigésimo tercer presidente de los Estados Unidos, el ponderado Harry S. Truman, quien tuvo que asumir la realización histórica de este hecho, en nombre del pueblo americano.

     En noviembre de 1952, los americanos pusieron ya en funcionamiento su primera bomba H. El primer gran lanzamiento «público» de la misma tuvo lugar el 1 de mayo de 1954. Se realizó en el islote de Bikini y será siempre recordado por la gran lluvia radioactiva que produjo y que causó la muerte de pescadores japoneses que faenaban a cientos de kilómetros de distancia del lugar de la explosión.

     Comentando la explosión de Bikini, el general Gallois escribía: «La energía liberada en una fracción de segundo en esta experiencia ha sobrepasado a toda la que fue utilizada en el curso de la segunda guerra mundial, para exterminar a más de treinta millones de seres humanos».

     Había, pues, «progreso». ¡Ciertamente, lo había!

     ¿Podían los rusos permanecer inmóviles ante este desafío? Parece que no; la fatalidad se imponía una vez más. Nadie podía detener el avance inexorable de la bomba. Poco después de las primeras pruebas americanas de la misma, el 9 de agosto de 1953, Malenkov anunció que, unos días antes, la bomba de hidrógeno soviéticas había sido experimentada con éxito en algún lugar de la Rusia asiática.

     No había aún igualdad; los americanos iban, todavía, adelantados en la fabricación de las armas nucleares, pero los rusos les pisaban los talones y todo hacía suponer que, un día no lejano, les darían alcance.

     En realidad, la bomba H distaba todavía mucho de ser tan «perfecta» como hubieran querido sus promotores. Seguía siendo una «bomba sucia», altamente contaminante, como se pudo comprobar en Bikini. La causa de este hecho es que, en ella, no se prescindía del todo de la fisión. Esta era necesaria para poner en marcha el proceso de fusión y —por otra parte— la bomba llevaba una envolvente de uranio natural que era fisionada por los neutrones escapados del anterior proceso.

     Tal es la razón por la cual la primera bomba H fue llamada también bomba 3 F, lo que recordaba que su proceso de explosión era triple: fisión, fusión, fisión.

     Desde el punto de vista de la contaminación radiactiva, todavía fue peor la bomba de cobalto experimentada poco después. En ella la cubierta de uranio era reemplazada por una capa de cobalto, que no aumentaba la potencia de la bomba, pero que se hacía radiactiva por la acción de los neutrones fugitivos. El cobalto radiactivizado tenía la «ventaja» de conservar más tiempo la fuerza explosiva de la bomba, lo que hacía sus efectos particularmente terribles.

     En resumen, en poco más de diez años los avances de la bomba habían sido espectaculares. Se habían perfeccionado el proceso de explosión de la bomba, aumentando enormemente su rendimiento energético; la potencia de la misma había sido multiplicada por mil respecto a las bombas de la primera generación; su radio de acción se había hecho ciento cincuenta veces mayor y los arsenales de bombas habían crecido en doscientas o trescientas unidades.

     Los defensores de la nueva arma podrían, pues, sentirse satisfechos de la capacidad inventiva de sus investigadores. Pero, en realidad, la espiral tecnológica había jugado una nueva mala pasada al género humano. El camino del apocalipsis nuclear estaba abierto.

 

2. Gigantismo y miniaturización

 

     Vencidas las primeras dificultades técnicas, la bomba podía evolucionar en dos direcciones. Su carga podía ser aumentada casi ilimitadamente, a voluntad de los armeros, y, al contrario, era también posible reducirla muy por debajo de lo que antes había sido considerado como masa crítica, dando origen a «bombas atómicas de bolsillo», más manejables y de mayor utilidad táctica que las bombas gigantes de la primera época.

     En suma, cabía orientar las investigaciones, tanto hacia la «gigantización» de la bomba como hacia su «miniaturización», no siendo incompatibles entre sí ambas direcciones, ya que los fines estratégicos perseguidos en cada caso podían ser distintos y complementarios.

     En un primer tiempo, los armeros americanos tendieron a aumentar la potencia de sus bombas atómicas, la cual no se mediría ya en kilotones —o miles de toneladas de trilita— sino en megatones —millones de toneladas de trilita— o en decenas y centenas de megatones.

     Los soviéticos siguieron este ejemplo y, durante varios años, mantuvieron su interés hacia la fabricación de bombas gigantes.

     Así, en el verano de 1961, Khruschev amenazó a los occidentales con una «superbomba», cuyos efectos destructivos sobrepasaron, al decir del jefe soviético, todo lo conocido hasta entonces en materia de bombas.

     Esta amenaza y la declaración del mariscal Malinovski, en la que éste aseguró que un solo ejemplar de la nueva bomba podría desertizar superficies equivalentes a la mitad del territorio francés, impresionaron notablemente a la opinión pública occidental.

     Se habló entonces de la necesidad de responder a los soviéticos en su propio lenguaje y se presentaron nuevos modelos de bombas, algunas de las cuales —como la bomba Titán 3— habían de alcanzar potencias de cien o más megatones.

     Pero esta tendencia no prosperó en Occidente. Tras algunos intentos espectaculares, los americanos renunciaron a mantener la competencia con los rusos en el terreno del gigantismo y dirigieron sus investigaciones preferentemente a lo que se llamaría la banalización o miniaturización de las bombas.

     Los soviéticos no tardarían mucho en seguir a los americanos por este mismo camino, abandonando las bombas espectaculares y dando la preferencia a la fabricación de armas atómicas de dimensión reducida.

     Las primeras armas atómicas miniaturizadas fueron los obuses atómicos, piezas de artillería de tipo clásico adaptadas para el lanzamiento de proyectiles nucleares.

     Así, hacia 1953, se anunció por parte americana la puesta en funcionamiento de un cañón de 280 mm., capaz de lanzar bombas de diez kilotones.

     Un curioso artefacto de los años 60 fue el «Davy Crockett» americano, lanzador de proyectiles atómicos con un alcance de dos kilómetros, pero cuya utilización resultaba casi tan peligrosa para el atacante como para el atacado, razón por la cual fue retirado del servicio en 1980.

     Nuevos modelos de cañones atómicos se han seguido produciendo en años sucesivos, y algunos de ellos están todavía en servicio. Ejemplo: el M-115 de 203 mm., con cargas nucleares de 2 kilotones lanzables a 16 kms. de distancia y el S-23 ruso de 180 mm., alcance 30 kms. y bombas de la misma potencia que el anterior.

     En 1957 se obtienen las primeras minibombas o bombas sub-kilotónicas, es decir, de menos de un kilotón, cuya potencia es inferior a la de algunas de las últimas bombas convencionales empleadas en los grandes bombardeos de la pasada guerra mundial (Tokio 1'667 kilotones).

     En este orden de cosas, por lo que a minibombas se refiere, se ha hablado mucho en los primeros meses del año 85 de las famosas «mochilas atómicas» almacenadas, al parecer, por los americanos en sus depósitos de armas en la R.F.A. Esta miniarma podría ser transportable por un soldado, ya que su peso no sobrepasa los 20 kilos, y utilizada en determinadas condiciones y por determinadas unidades en el campo de batalla.

     Pero, aparte de los nuevos aspectos tácticos que pueda presentar la «mochila atómica», caso de que exista realmente, la misma no representa ninguna novedad en el dominio de la miniaturización, puesto que este tipo de bombas enanas existía ya desde hace muchos años, como hemos indicado anteriormente.

     El empleo de mini-cargas nucleares ha permitido la invención de armas de especial interés táctico y de muy diversos tipos, como por ejemplo, las «granadas atómicas antisubmarinos» y las «minas atómicas».

     Las primeras granadas atómicas contra submarinos aparecen en los EE.UU. en la segunda mitad de los años cincuenta y son conocidas con el nombre «Betty». En un principio, fueron consideradas como una respuesta definitiva para detener la amenaza de sumergibles soviéticos de largo radio de acción sobre las costas americanas. Pero no existen en realidad armas que puedan ser consideradas como absolutas o decisivas en ningún dominio armamentístico, y los rusos no tardaron en montar submarinos atómicos «perfectamente dotados para burlar los efectos de los Betty».

     Los submarinos lanzadores son sistemas de armas particularmente importantes, en los cuales se combina el submarino con los misiles y con las cargas nucleares. Su movilidad y el hecho de que sean muy difíciles de descubrir, hacen de estas naves atómicas las bases más eficaces y seguras para la instalación de misiles nucleares, en condiciones superiores a las de los misiles instalados en tierra.

     Las «minas nucleares de demolición» (ADM) fueron concebidas por los americanos, a mediados de los años sesenta, como armas defensivas contra ataques convencionales. Su misión es la de remover y destruir el terreno, colinas, puertos, vaguadas, así como carreteras, aeropuertos, ferrocarriles, etc., de tal manera que se haga imposible el avance, por tierra, de un ejército atacante. Se habló entonces de la existencia de una cintura de minas nucleares, una especie de línea Maginot, la cual haría de la R.F.A. una fortaleza inexpugnable en lo que a guerra convencional se refiere. Al parecer, la potencia de estas minas demoledoras es muy grande, pudiendo llegar desde medio kilotón hasta quince kilotones. Dichas máquinas de guerra trabajan a 10 ó 15 metros de profundidad y pueden ser dirigidas por medios informáticos hacia sus objetivos con increíble precisión. Este último perfeccionamiento convierte a las minas atómicas en armas inteligentes, particularmente temibles y eficaces. Sus tremendos efectos pueden cambiar totalmente el aspecto de una batalla convencional.

     Por lo que venimos diciendo se comprenderá la gran importancia que la banalización de las armas atómicas ha tenido para el conjunto del proceso que tratamos de presentar aquí. La finalidad de la misma estaba bastante clara, desde un principio, en el ánimo de los investigadores militares.

     El tremendismo de las primeras generaciones de bombas atómicas las hacía inútiles para todo lo que no fuese la «represalia masiva». Con bombas atómicas se podía destruir el mundo, pero no se podía hacer una guerra. Militarmente hablando, la estrategia «superbómbica» tenía una aplicación muy relativa. Se imponía, pues, la necesidad de construir una gama de armas nucleares suficientemente variada y especializada para que éstas pudieran ser empleadas en fines militares propiamente dichos. Había que sustraer el arma atómica del carácter apocalíptico y hacerla apropiada para su aplicación propiamente militar. Con las armas miniaturizadas se trataba de reconstruir la «continuidad de la panoplia», es decir, de devolver a las mismas su verdadera condición de armas, según la interpretación clásica de este precepto.

     El general Poirier afirma que la miniaturización de las armas atómicas fue tan importante para la evolución de las ideas estratégicas como lo había sido la de la bomba termonuclear. Las armas nucleares tácticas produjeron, en realidad una verdadera revolución en el dominio de la estrategia nuclear. Permitieron introducir el ambiguo concepto de «guerra nuclear limitada» y reemplazar la doctrina de la «disuasión total» por la de una «disuasión gradual o diferenciada».

     Sin embargo, se produce en este caso una paradoja que volveremos a encontrar repetidas veces en la historia del arma nuclear: lo que a primera vista puede parecer una moderación del peligro nuclear favorece, en realidad, el aumento de la inestabilidad y el riesgo de guerra atómica. Para citar un solo ejemplo, algo de esto ocurre con los sistemas de defensa en el espacio, actualmente proyectados por los americanos. Aunque, en un primer análisis, dichos sistemas puedan ser presentados como una contribución eficaz a la seguridad colectiva, son muchos los especialistas que piensan, por el contrario, que la defensa «galáctica» constituye una importante causa de inestabilidad y podría, incluso, traer en un futuro próximo una guerra nuclear «preentiva». En efecto, la «excesiva» seguridad de un Estado contra la posibilidad de un ataque nuclear le coloca en situación privilegiada para dar, en cualquier momento, un «primer golpe» contra un adversario insuficientemente defendido. He aquí la paradoja: la excesiva defensa se convierte en una mayor posibilidad de ataque.

     Esto es también lo que ocurre en el caso de las armas nucleares tácticas. Lejos de ser éstas un medio de moderar o reducir los tremendos riesgos de una guerra nuclear, como se pretende, las mismas la facilitan en gran medida. Intentando hacer más «digerible» el armamento atómico, aumentan de hecho la probabilidad de que éste sea utilizado a fondo. En efecto, tras el empleo de armas nucleares tácticas, la escalada de lo táctico o lo estratégico es, en términos generales, algo muy probable. Nada podría impedir que cualquiera de las dos grandes superpotencias recurrieran al empleo de los grandes medios nucleares, una vez que una guerra convencional-nuclear hubiese tomado un giro desfavorable para ella.

     Así, la guerra nuclear a fondo, que en un principio hubiese sido imposible, a causa del temor que la misma inspira en todas partes, podría ser introducida indirectamente, y de modo mucho más peligroso, por la vía de las ANT. El pretendido efecto de «moderación» resulta, pues, contraproducente y en este sentido puede afirmarse que la miniaturización de las armas atómicas constituye actualmente un riesgo complementario para la seguridad mundial colectiva.

     Por otra parte, algunas de las ANT, consideradas en sí mismas, tienen un enorme poder destructivo, muy superior al de la propia bomba atómica. Este hecho fue ya denunciado en 1957 en una declaración formulada en Gotinga por dieciocho sabios atómicos.

     En resumen, el tránsito de la gigantización a la miniaturización, no sólo no evitaba el peligro de guerra nuclear, sino que lo acrecentaba extraordinariamente.

 

3. La mutación balístico-nuclear

 

     La invención de la bomba atómica de fisión en 1945, y más aún, la de la bomba termonuclear en 1957, plantearon a los especialistas de la ciencia estratégica la necesidad absoluta de superar sus conceptos frente a un tipo de guerra enteramente nuevo desde varios puntos de vista esenciales: la guerra nuclear.

     Lo que pudiera llamarse estrategia «moderna», inspirada en Clausewitz y ampliamente experimentada en el curso de las dos guerras mundiales, no servía ya ante las enormes posibilidades bélicas abiertas por las nuevas armas. Se hizo, pues, preciso inventar una nueva ciencia estratégica, una estrategia «posmoderna». Es lo que algunos llamarían la «Estrategia de la era nuclear» o, simplemente, la «Estrategia nuclear».

     A esta primera «mutación» sucedió otra todavía más importante, debido a la aparición, en los años 57-58, de los primeros misiles intercontinentales. Es lo que el general francés Lucien Poirier denomina la «mutación balístico-nuclear».

     El misil intercontinental no era en realidad una nueva arma, sino un nuevo sistema de armas, es decir, un ingenio de guerra fundado en la aproximación o combinación de elementos armamentísticos ya conocidos anteriormente, pero cuya conjunción los hacía mucho más eficaces desde el punto de vista estratégico.

     Actualmente, la noción de «sistema de armas» se ha generalizado extraordinariamente, suplantando, en cierto modo, a la noción clásica de arma.

     Un modelo de sistema de armas nos lo proporciona, por ejemplo, el SSBN («Balistic Missile Submarine Nuclear»). En él se combina el propio submarino, adoptado como base de lanzamiento, con las «cargas» u «ojivas» nucleares, transportadas por el mismo, y los «vectores» o misiles, capaces de conducir éstas a sus objetivos. Si a esto se unen los complejísimos medios de orientación y las bases terrestres con las que se halla conectado en todo momento el submarino nuclear, se comprende que éste no pueda ser considerado como una simple arma, sino, como acabamos de decir, como un auténtico sistema de armas.

     Dicha noción se aplica igualmente al misil intercontinental. Asocia éste en un único sistema las dos invenciones armamentísticas más espectaculares —si no las más eficaces— realizadas en el curso de la segunda guerra mundial: la bomba atómica por una parte, y la «bomba volante» o proyectil de propulsión a chorro, por otra.

     En el misil intercontinental estos dos terribles ingenios bélicos actúan conjuntamente, sumando sus efectos de modo perfectamente coherente, gracias a la intervención de un tercero de la mayor importancia: los sistemas de autodirección programada de los vehículos o vectores y de los propios proyectiles hacia sus objetivos.

     Es precisamente la coherencia interna entre sus elementos lo que determina el «valor añadido» de un sistema de armas. Así ocurre manifiestamente en el caso del misil intercontinental.

     Las primeras bombas atómicas eran conducidas por bombarderos de tipo ordinario, los cuales habían servido, hasta entonces, para el transporte y lanzamiento de proyectiles «convencionales» y eran adaptados a su nueva misión.

     A causa de su relativa lentitud e inseguridad, este medio de vehiculación no estaba, sin embargo, en consonancia con la potencia de los nuevos explosivos. La idea de asociar los nuevos explosivos con vectores muchísimos más rápidos y seguros que los aviones, como lo eran los cohetes «V», utilizados por los alemanes al final de la guerra, resultaba, pues, una idea genial bajo el aspecto estratégico: los dos elementos asociados en el misil nuclear intercontinental se adecuaban perfectamente el uno al otro y la acción del conjunto se multiplicaba de un modo extraordinario.

     Fueron los rusos los primeros que realizaron el nuevo sistema de armas. Disponían para ello de una larga experiencia en el dominio de los cohetes balísticos, intensificada en los últimos años por los trabajos de un notable especialista del tema: el «constructor» Sergéi Korolew. Pero, más importante aún que esto para decidir a los estrategas rusos en favor de la aplicación de los misiles, fue, sin duda, el hecho de que una gran parte de los elementos utilizados por el ejército germánico para la fabricación de los V-2 cayera en sus manos en el curso de la retirada germánica.

     Con ello, los rusos recogieron una gran parte de los descubrimientos balísticos realizados por los armeros alemanes. El ejército alemán se había interesado ya por los cohetes, a partir del año 30, como medio para compensar algunas de las limitaciones que le imponía el Tratado de Versalles en materia artillera.

     Habían puesto a punto una serie de cohetes balísticos designados con la letra A y numerados del 1 al 5, a los cuales sucedieron los famosos V. La V-2 no fue en realidad otra cosa que una actualización del A-4.

     Las primeras bombas V-2 fueron lanzadas el 8 de septiembre de 1944, sobre un barrio de la capital británica, causando el terror de sus habitantes. Desde esa fecha hasta el 27 de marzo de 1945, la aviación germánica continuó arrojando sobre Londres sus «bombas volantes», como se les llamó entonces. Algo más de mil V-2 fueron lanzadas sobre la capital, causando 2.754 muertos y 6.500 heridos entre la población civil, aparte de un gran número de destrucciones urbanas.

     Hitler esperaba que la moral de los londinenses se derrumbara ante aquellos bombardeos y que, como consecuencia de ello, Inglaterra aceptase una paz por separado. Pero la guerra evolucionó más rápidamente de lo que él había supuesto, y no dio tiempo a que ese tipo de acción psicológica diese el resultado apetecido por el Führer.

     Como acabamos de indicar, al final de la guerra cayeron en manos de los soviéticos los talleres y laboratorios que los alemanes tenían montados en Peesmonde, en la costa del Báltico, para la investigación y fabricación de las bombas volantes. Allí había ido a parar, además, una buena parte de los lanzadores retirados por los germánicos ante el avance aliado hacia el Este. Aunque, muy deteriorado, todo este material era una excelente fuente de información sobre los logros conseguidos por los alemanes en materia de cohetes balísticos.

     En 1946, Sergéi Korolew se hizo cargo del material capturado y ordenó su traslado a Baikonur, centro de las investigaciones balísticas rusas, cerca de Stalingrado, a fin de utilizarlo y perfeccionarlo.

     Partiendo de esta base, los rusos lograron montar entre 1946 y 1957 una serie de prototipos de misiles nucleares, que implicaban una verdadera revolución de la artillería estratégica. El resultado de este esfuerzo se hizo patente en el verano de 1957, con la aparición de los primeros misiles intercontinentales rusos, capaces de cubrir distancias superiores a los 6.000 kilómetros, es decir, de alcanzar prácticamente el territorio americano desde el continente euroasiático. Teniendo en cuenta que, para entonces, los soviéticos poseían ya la bomba termonuclear, la noticia de que tales vuelos habían sido detectados por los servicios americanos de observación causó una enorme preocupación en la opinión estadounidense.

     De hecho, la citada noticia se vio pronto superada por otra, todavía más impresionante, como fue la del lanzamiento del Sputnik en la tarde del 4 de octubre de 1957: una «pequeña luna» de fabricación soviética, que todo el mundo pudo ver paseándose «descaradamente» alrededor de la Tierra. El segundo Sputnik fue puesto en órbita poco después —el 3 de noviembre del mismo año—, viniendo a confirmar la gran importancia de los adelantos realizados por los soviéticos.

     El lanzamiento de los Sputnik fue causa de una gran desmoralización en la población americana, incluso entre sus dirigentes, hasta el punto de que se llegó a hablar en aquellos días de un nuevo Pearl Harbor, esta vez de carácter científico. En todo caso, había en el despliegue de los satélites rusos algo muy inquietante para los estrategas americanos: era evidente que, para poder poner en órbita masas de aquella magnitud, los rusos habían necesitado utilizar cohetes mucho más potentes que los que el ejército americano poseía en aquel momento. Este era el verdadero problema que los dirigentes americanos no podían ocultarse a sí mismos.

     De hecho, Khruschev había anunciado ya un par de meses antes del lanzamiento del Sputnik, la fabricación de un gran cohete, con alcance de 10.000 kilómetros y fuerza de empuje de 400 toneladas, cuyas características superaban a todo lo conocido hasta entonces.

     En los años siguientes, el progreso de los cohetes irá unido no sólo al de las armas nucleares, sino también al de los satélites, ya que la puesta en órbita de éstos exigía medios balísticos cada vez más potentes y afinados.

     Los soviéticos mantuvieron la delantera sobre los americanos en este terreno durante bastante tiempo, prácticamente hasta 1967. Realizaron pruebas de gran valor propagandístico, como el primer impacto sobre la Luna, en septiembre de 1959; la primera fotografía de la cara oculta del satélite terrestre de 1960; el primer lanzamiento de un hombre al espacio —Youri Gagarin— el 12 de abril de 1961; el viaje de tres cosmonautas soviéticos en la nave espacial Vostok, en 1964, etc.

     Ante estos indiscutibles éxitos rusos, los americanos no tardaron mucho tiempo en reaccionar. Pusieron en juego sus abundantes recursos científicos y tecnológicos y se prepararon para batir las marcas soviéticas. El 25 de mayo de 1961, Kennedy lanzó su histórico desafío: seremos los primeros en desembarcar en la Luna y lo haremos antes de diez años —dijo—. De hecho, esta promesa tardaría sólo siete años en cumplirse: el 21 de julio de 1969 los cosmonautas americanos Armstrong, Collins y Aldrin pusieron pie en la luna para volver luego a la tierra sanos y salvos: la más atrevida aventura que el hombre haya realizado jamás.

     Pero, sin esperar siquiera a este resultado, que el propio presidente no vería realizado, el desafío de Kennedy tuvo un gran éxito publicitario: sirvió para galvanizar la moral y la voluntad de los ciudadanos y para poner en pie, una vez más, la famosa «fe americana».

     Los actuales defensores de la I.D.S. mencionan con frecuencia el desafío de Kennedy para justificar su apoyo a los planes de Reagan: se tardará diez o más años, pero el éxito de la cosa está asegurado —dicen.

     De cualquier manera, la competencia ruso-americana continuó: los misiles intercontinentales (ICBM) pasaron a formar parte de las panoplias balísticas de las dos superpotencias y cada una de éstas se dedicó a introducir perfeccionamientos cada vez mayores en el funcionamiento de los mismos.

     El general Poirier, en su citada obra «Des Stratégies nucléaires», hace un análisis sobre la novedad radical que, desde el punto de vista estratégico, aportan los ICBM.

     El primer dato es, evidentemente, el del alcance de los nuevos proyectores: el hecho de que sea posible hacer un blanco con suficiente precisión a trece mil kilómetros de distancia, modifica esencialmente los supuestos estratégicos de una futura guerra.

     Desde el momento en que un proyectil puede cubrir casi las tres cuartas partes de la distancia desde el punto de lanzamiento a los antípodas del mismo, ya no puede hablarse de un teatro de guerra concreto; la tierra entera se convierte en un campo de batalla único. Una guerra nuclear entre las dos superpotencias llevada hasta su pleno desarrollo, respondería a un modelo estratégico totalmente distinto de los del pasado.

     Intercambiándose sus misiles nucleares por encima del Atlántico o del Ártico, la URSS y los EE.UU. serían como dos escuadras inmóviles que se cañoneasen a una gran distancia, desde un extremo al otro del océano. El ámbito de esta gigantesca batalla naval sería el mundo entero.

     Esto explica la afirmación de que el misil intercontinental convierte la estrategia de la guerra mundial en una «geoestrategia insular».

     En este caso, la distancia y los obstáculos geográficos intermedios pierden una gran parte de su importancia. En cierto modo, el espacio, que ha sido siempre considerado como uno de los dos factores esenciales del cálculo estratégico, deja de serlo o queda profundamente modificado. Y otro tanto ocurre con el tiempo, que es el otro factor fundamental de la concepción estratégica clásica.

     Se ha de tener en cuenta que, para recorrer una distancia de trece mil kilómetros, el misil intercontinental necesita poco más de cuarenta minutos. En este brevísimo lapso de tiempo, una de las dos superpotencias puede encontrarse con un ataque «tumbativo» de sus adversarios.

     El misil intercontinental consagra, pues, el concepto de «primer golpe». Alrededor de este concepto giran actualmente todas las preocupaciones estratégicas de los Estados Mayores. Puede, pues, afirmarse que la aparición de los misiles intercontinentales en los últimos cincuenta años exigió un cambio copernicano con respecto a las ideas de Clausewitz en que se había fundado hasta entonces la estrategia moderna. A partir de entonces, podrá, pues, hablarse con toda propiedad de una estrategia «posmoderna».

     Ahora bien, la cosa no termina ahí: la invención de los MIRV o misiles de cabezas múltiples independientes produce una nueva mutación dentro de la propia mutación balístico-nuclear.

     Los MIRV («Multiple Independently-targetable Re-entry Vehicle» o «Vehículos de retorno múltiple independientemente programables») hacen su aparición en 1970, como sucesores de los MRV («Multiple Re-entry Vehicle» o «Vehículos de retorno múltiple») que habían empezado a ser introducidos por los americanos en 1964 y por los rusos hacia 1969.

     La diferencia entre unos y otros es, sin embargo, de importancia esencial a los efectos de la historia del progreso del arma nuclear que estamos tratando de resumir aquí. Como vamos a ver en seguida, el salto de los MRV a los MIRV es, precisamente, lo que determina la nueva mutación estratégica a la que acabamos de aludir.

     Un misil intercontinental hace su recorrido en cuatro fases. La primera de ellas, que es la de lanzamiento, dura apenas cinco minutos y su finalidad es la de colocar el misil a la altura necesaria para que pueda ser encaminado hacia su objetivo.

     La segunda etapa es la de orientación y aceleración del misil. En ella recibe éste un impulso directivo y una nueva propulsión que le permite alcanzar la velocidad del vuelo necesaria para efectuar su viaje. Este se realiza a una velocidad próxima a los 8 kms. por segundo, es decir, 24 veces superior a la velocidad del sonido, y a una altitud que puede alcanzar los 1.200 kilómetros sobre la superficie.

     A lo largo de la tercera etapa, o fase de recorrido propiamente dicho, el misil no sólo sobrepasa la tropopausa (capa superior de la atmósfera meteorológica estrictamente interpretada, a unos 12 kms. de altitud), sino que atraviesa toda la estratosfera y penetra en la llamada ionosfera, constituida por aire muy ionizado y rarificado, de densidad cien mil millones de veces menor que la del aire normal que los terrestres respiramos ordinariamente. Esta enorme rarificación hace que el aire no ponga ya prácticamente ninguna resistencia al avance del misil y que la velocidad de éste pueda ser mantenida a lo largo de todo el viaje sin necesidad de nuevos impulsos, de acuerdo con la ley de la inercia.

     Finalmente se produce el retorno («re-entry» o «rentrée»), es decir, el regreso del misil a la troposfera. La operación tiene lugar a unos doce kilómetros de altura, a nivel de la tropopausa, y es precisamente en ese momento cuando el misil lanza sus ojivas hacia el objetivo al que van destinadas. De este hecho surge la denominación «retorno múltiple» a la cual se alude en la sigla MRV y, más tarde, en la MIRV.

     Lo que caracteriza a los MRV y justifica el nombre de «vehículos de retorno múltiple», aplicado a los mismos, es la particularidad de que, a diferencia de lo que ocurría en los antiguos misiles de cabeza única, los de este nuevo tipo lanzan, en el momento de retorno, no una, sino varias ojivas nucleares.

     En principio, esta característica aumenta notablemente el poder letal o capacidad de un misil para «matar» los misiles adversarios en sus propios «silos».

     Se ha de tener en cuenta que la letalidad no varía en proporción directa a la carga nuclear arrojada por el misil, sino a la potencia dos tercios de ésta. Es decir que si, por ejemplo, la carga del misil se hace 8 veces menor, la letalidad del mismo no queda dividida por 8 sino por 82/3, esto es, por la raíz cúbica de 8 elevado al cuadrado, o sea por 4. En resumidas cuentas, al disminuir la carga en la proporción de 8 a 1 el poder letal de aquélla se hace solamente cuatro veces menor.

     A partir de esta observación se comprende fácilmente la ventaja que se obtiene, desde el punto de vista del poder letal, al diversificar la carga nuclear del misil manteniéndose, sin embargo, el valor total de la misma. Si comparamos, por ejemplo, la letalidad de un misil ordinario, portador de una única carga de 8 megatones, con la de un MRV que lleva ocho cargas de un megatón cada una, nos encontramos con el resultado de que el poder letal del segundo es el duplo del primero, a pesar de que la carga total de ambos es la misma. En efecto, cada carga de un megatón (ocho veces más pequeña que las del primer misil) produce, como acabamos de ver, un poder mortífero 4 veces menor que el de éste. Pero, como quiera que el segundo misil es portador de 8 cargas, su letalidad queda, asimismo, multiplicada por 8. En definitiva, queda dividida por 4 y multiplicada por 8, es decir duplicada.

     Ahora bien, la ventaja no es tan grande como pueda parecer en un primer examen: el hecho de que todas las ojivas vayan a parar a un mismo blanco y accedan a éste con breves intervalos de tiempo, como ocurre en los MRV, da lugar a un llamado «efecto de interferencia» que reduce notablemente la efectividad del misil. Consiste este fenómeno en que la explosión de una bomba nuclear sobre un determinado punto impide la de una segunda lanzada poco después sobre el mismo.

     Esto se debe al hecho de que la radioactividad, la enorme turbulencia atmosférica y el potente haz de ondas electromagnéticas producido por la primera explosión, impiden que la segunda pueda realizarse con normalidad. En el lenguaje usual se dice que la primera bomba «mata» a la segunda y ésta es la razón de que efecto de interferencia sea llamado también «efecto fratricida». Como es obvio, mientras no se utilizaban más que misiles de una sola cabeza, para destruir un misil enemigo hacía falta sacrificar uno propio, y, de esta manera, una operación anti-misil carecía de «rentabilidad» estratégica.

     Pero, debido al efecto fratricida, este mismo inconveniente subsistía, prácticamente, para los MRV, como acabamos de indicar.

     La verdadera novedad estratégica la introducen los MIRV o «vehículos de retorno múltiple independientemente programables». A diferencia de lo que ocurría con los MRV, en este nuevo tipo de misiles las ojivas portadas por el vector se separan en el momento del retorno y se dirigen a sus respectivos blancos con total independencia unas de otras. Lo hacen, además, con intervalos de tiempo previamente programados y desde distintos puntos de la trayectoria del vehículo, ya que éste continúa evidentemente su viaje al mismo tiempo que va lanzando sus ojivas.

     La «independencia» de los retornos, tanto en el espacio como en el tiempo, permite evitar el efecto fratricida y conseguir, además, una precisión de tiro mucho mayor.

     Pero, lo más importante de los MIRV son las consecuencias que el modo de operar de estos misiles tiene, desde el punto de vista estratégico, cuando se trata de una operación anti-armas de gran envergadura. En el caso de los MIRV el coste de la operación no se calcula ya a base de la regla: «uno a cambio de otro». Al contrario un MIRV de n cabezas puede matar n misiles adversarios en un solo viaje o, dicho de otro modo, el atacante sacrifica un único misil a cambio de la destrucción de n misiles enemigos.

     De esta manera los MIRV se convierten en el arma ideal para un primer golpe desarmante. Un ataque de esta naturaleza, realizado a base de estos nuevos ingenios, puede realizar una tremenda destrucción en el arsenal nuclear adversario a costa de unas pérdidas muy reducidas en el propio.

     Ahora bien, las anteriores consideraciones ponen también de manifiesto el carácter altamente desestabilizador de los MIRV por la ventaja que estos sistemas de armas proporcionan al atacante para iniciar súbitamente una guerra nuclear. A esta razón se debe el hecho de que la utilización de los MIRV fuese severamente limitada por el tratado SALT-2.

     En el momento de aquellas conversaciones, las cifras reales de tales armamentos eran de 1.045 MIRV para los EE.UU. y 500 para la URSS. A principios de 1984 estas cifras ascendían a 1.142 y 1.100 respectivamente y se preveía un aumento por ambas partes.

     La realidad puede haber sobrepasado ya el límite fijado por el tratado, de suerte que en Ginebra, en el curso de las nuevas conversaciones que ahora se van a iniciar, las dos superpotencias tendrán que adoptar nuevos acuerdos sobre el particular.

     Mientras no se llegue a una prohibición completa de estos «monstruos» balísticos, cosa que por el momento parece casi imposible, los mismos seguirán perfeccionándose como lo han hecho hasta ahora.

     Así, por ejemplo, la última palabra en este orden de cosas la tienen los MARV —misiles de ojivas múltiples con sistema de fijación de objetivos al final del recorrido— a punto de aparecer o aparecidos ya en el momento que se escriben esta líneas, en 1985. En estos nuevos misiles, cada ojiva, una vez desprendida del vector, goza de autonomía para cambiar su propio programa, en función de los datos recibidos y almacenados en su memoria, a fin de hacer frente a las medidas defensivas que en el curso de la operación haya podido adoptar el adversario.

     Actualmente son ya muchos los tipos de misiles a los que se ha aplicado el «mirvaje» —bárbara palabra adoptada a partir de la raíz «MIRV». Uno de los más potentes es el «Poseidon» americano, instalado en submarinos, que es capaz de atacar simultáneamente a 14 objetivos diferentes, con cargas de 50 kilotones, a una distancia de más de 4.600 kilómetros. El radio de su ECP o «círculo de error probable» es de 450 metros, lo cual equivale a decir que el 50% de sus ojivas hacen impacto a una distancia del centro del blanco inferior a 450 metros.

     Un notable perfeccionamiento del «Poseidon» lo será, bajo diversos aspectos, el futuro «Trident D-5». Este nuevo misil será portador de catorce cargas de 150 kilotones, es decir, tres veces más potente que las de su predecesor. Su alcance será de 11.000 kilómetros, más del doble que el del Poseidon y su ECP de sólo 300 metros.

     El «SS-18», ruso, instalado en tierra, es, al parecer, el misil mirvado más grande del mundo. Se caracteriza sobre todo por el gigantismo de su carga, que en algunos de sus modelos de carga única llega a alcanzar los 50 megatones, es decir, más de 2.500 bombas de Hiroshima.

     Ya en la época de Carter, los armeros americanos se propusieron superar todos los modelos de MIRV existentes hasta entonces. Proyectaron un misil «experimental» que, por esta obvia razón, fue designado con la sigla «MX» y que luego ha sido conocido también con el nombre de «Pacekeeper» o «guardián de la paz».

     En 1982 Reagan ha dado nueva vida al proyecto y se ha propuesto fabricar 100 ejemplares del mismo antes de 1990. Para ello ha tenido —y tiene— que librar grandes batallas, a fin de hacerlo aceptar por el Parlamento y el Senado norteamericano, los cuales se resisten a ello a causa del enorme costo del MX, de su vulnerabilidad y de su carácter altamente desestabilizador, como arma de primer golpe que es.

     Los MX serán portadores de 10 cabezas independientemente programadas, e incluso autoprogramables, de 350 kilotones cada una (siete veces más potentes que las del Poseidon), además de un cierto número de «trampas» o de falsas ojivas destinadas a burlar las defensas del adversario confundiendo sus tiros. Su ECP será de 150 metros, o, según otros informes más optimistas, de 100 metros, con notable ventaja sobre todos los anteriores modelos. La mitad de sus impactos se producirán, pues, a menos de 100 ó 500 metros de la «diana», y su alcance será de trece o catorce mil kilómetros.

     Uno de los problemas más preocupantes, ya desde la época de Carter, en relación con los MX era el carácter de objetivo prioritario que los mismos tendrían necesariamente para los soviéticos. Sin duda alguna, éstos se sentirían incentivados por la idea de destruir unos misiles tan perfectos y sofisticados, y aplicarían, a este fin, todos los medios antimisiles que les fuera posible inventar. Había, pues, que proteger los MX con medios excepcionalmente ingeniosos contra un golpe desarmante de los rusos.

     En el proyecto primitivo esta protección se lograba dando a los «Peacekeeper» una movilidad extraordinaria, con objeto de hacerlos absolutamente ilocalizables para la vigilancia adversaria. A tal efecto se haría que los MX viajasen constantemente entre cuatro mil seiscientos refugios construidos, al objeto, en los desiertos de Utah y de Nevada. Pero el coste de la red de comunicaciones exigida por este fantástico proyecto era sumamente grande, del orden —según se dice— de los cien mil millones de dólares, razón por la cual las Cámaras norteamericanas se mostraban muy remisas a aceptarlo.

     La administración Reagan ha presentado un nuevo plan para la protección de los MX: se trata del «dense park», concentración de los misiles en una estrecha franja de 72 kilómetros cuadrados en el Estado de Wyoming. De esta manera el «efecto fratricida» haría imposible la destrucción de los mismos en una proporción apreciable, tal como hemos indicado anteriormente. Podrían caer unos pocos; pero la inmensa mayoría se salvarían del ataque, protegidos por los efectos colaterales de las primeras explosiones «matadoras». Este nuevo proyecto es mucho más barato que el anterior; pero no parece haber despertado tampoco el entusiasmo de los representantes, los cuales no se fían de que la elevada densidad del «aparcamiento» y el efecto de interferencia sean suficientes para proteger a los preciosos y carísimos MX.

     Realmente, el progreso realizado por las armas nucleares en estos cuarenta años es tan grande que las primeras bombas atómicas de Hiroshima y Nagasaki parecen hoy un simple juego de niños, unos insignificantes petardos, comparados con las últimas realizaciones de la era balístico-nuclear.

 

4. Las armas posnucleares

 

     La utilización del prefijo «pos» para formar neologismos —como, por ejemplo, «posmoderno» y «posmodernismo»— es un recurso lingüístico bastante generalizado actualmente. Esta especie de moda tiene una explicación ya que la misma parece obedecer a una exigencia o una necesidad de nuestra «cultura del instante».

     En el mundo de hoy las cosas se suceden, en efecto, con tal celeridad que a menudo nos encontramos a falta de términos para poder nombrarlas adecuadamente. A este respecto, el prefijo en cuestión, aunque no sea por sí mismo demasiado significativo, nos facilita en algunos casos la tarea de dar nombres a las ideas o a los hechos.

     Hablar de «armas posnucleares», como lo hacemos aquí, es, pues, un recurso o un modo de salir del paso ante la complejidad de los nuevos tipos de armas que ahora se anuncian o que están ya en condiciones de funcionar.

     A partir de los años ochenta empiezan a aparecer, aunque no sea más que como proyecto, ciertas armas que tienen, sin duda, relación con la física nuclear y con las armas nucleares, pero que deben ser netamente distinguidas de éstas.

     Las armas de energía dirigida de las que tanto se habla actualmente se encuentran, evidentemente, en este caso: son también armas nucleares, ciertamente, pero lo son de un modo muy distinto de todas las que se han conocido hasta ahora. Sería, pues, un error seguir denominándolas con la misma palabra.

     Nos encontramos, por tanto, en una disyuntiva terminológica: o bien empleamos un término nuevo para designar a algunas de las nuevas armas, como puede serlo, por ejemplo, el de «posnucleares», que proponemos aquí, o bien continuamos llamándolas nucleares, con lo cual se induciría a la opinión pública a una notable confusión haciéndola creer que el laser o el lanzador de partículas subatómicas son armas de la misma naturaleza que la bomba de Hiroshima o que cualquier otra de las bombas nucleares que han sido fabricadas después de ésta.

     En cierto modo, las bombas nucleares de todo tipo coinciden en su forma de operar con las bombas «tradicionales» o convencionales: lo mismo que éstas, producen en un punto determinado una elevación súbita de la temperatura y de la presión, la cual provoca, a su vez, la onda explosiva —térmica y mecánica— que destruye el objetivo visado. La diferencia está en que, mientras las bombas convencionales recurren para producir este efecto a una reacción química —intercambios de átomos entre las moléculas— las bombas nucleares lo consiguen por medio de una reacción nuclear —con ruptura de átomos— mucho más «rentable» desde el punto de vista energético que la simple ruptura de moléculas.

     Como veremos un poco más adelante, no es este el modo de trabajar de las nuevas armas posnucleares: éstas tienen capacidad para atacar directamente a la estructura atómica interna del «objeto enemigo», es decir del objeto que se trata de inutilizar, como puede ser, por ejemplo, el cerebro electrónico de un misil adversario. Se trata, pues, de un tipo de acción mucho más sutil, aunque menos espectacular que el de las bombas de explosión, incluyendo entre éstas, claro está, a las que desde 1945 se vienen llamando bombas atómicas o nucleares.

     Bien miradas las cosas, las armas posnucleares no debieran figurar en la historia del progreso del arma nuclear. Se salen manifiestamente del dominio de ésta. Su novedad es radical. En este caso, no se trata ya de una mutación dentro de la estrategia nuclear —como las que hemos contemplado en las páginas anteriores— sino de un salto a una estrategia nueva, que transciende a la estrategia nuclear y que bien podría ser llamada «estrategia posnuclear».

     El tipo de guerra al que este nuevo género de armas conducirá en el futuro será, en efecto, completamente distinto de una guerra nuclear, tal como entendemos ahora esta expresión.

     En el campo de las armas posnucleares aparecen, ante todo, dos tipos o familias de armas: el laser y los haces de partículas.

     Ambos grupos tienen una características común: la concentración de energía, es decir, la utilización de energía de alta densidad energética. La cantidad total de energía puesta en acción por un arma es cosa muy distinta que la «densidad de energía», es decir, el cociente de dividir la cantidad total de energía por la superficie, el volumen o la masa a la que se aplica.

     Un ejemplo trivial basta para aclarar esta idea. La energía desplegada por una pulga para dar un salto de diez centímetros es evidentemente ínfima. Pero ¿qué ocurriría si la misma se aplicase a una masa equivalente a la de un electrón? El resultado sería extraordinario. Se produciría una densidad de unos 24.10[20] julios por gramo de materia, cifra impensable en el mundo macroscópico.

     El secreto de las nuevas armas está precisamente en la elevadísima condensación energética que las mismas utilizan, aunque sea en volúmenes infinitesimales. En su caso no se trata de movilizar grandes cantidades de energía, sino de aplicar cantidades relativamente pequeñas de energía sobre objetivos ultramicroscópicos.

     Esta consideración no tiene ningún interés cuando se habla de armas ordinarias, como las que los militares de todos los tiempos han utilizado, desde las más primitivas hasta los misiles nucleares intercontinentales. Pero sí lo tienen cuando se trata de la guerra de alta tecnología, que es la guerra del futuro: cuando se trata, por ejemplo, de paralizar los motores de un barco, de un submarino, de un avión, de un tanque; de desbaratar el órgano de mando de un misil; de interrumpir el suministro eléctrico de una ciudad; de inmovilizar la maquinaria de una fábrica, etc. etc...

     En todos estos casos hay un punto neurálgico, un objetivo casi microscópico que basta tocar para lograr el efecto previsto.

     Se comprende, pues la gran diferencia que hay entre una guerra en la que se utilicen todas estas posibilidades y la guerra nuclear tal como la conciben los actuales estrategas.

     Sobre las armas de alta condensación energética se puede presentar un ejemplo sugestivo siguiendo una idea del profesor Marceau Felden.

     El laser SHIVA es capaz de movilizar una potencia de más de 9,3 billones de watios, lo que viene a ser nada menos que la décima parte del consumo medio de energía de todo el planeta, para toda clase de usos industriales, comerciales, urbanísticos etc... Este dato puede parecer increíble, pero hay que tener en cuenta que ese despliegue de potencia energética se realiza solamente durante una fracción infinitesimal de tiempo, evaluada en una mil millonésima de segundo, y que, por tanto, el total de energía aplicada ascendería solamente a 9.300 julios, cantidad insignificante y que sólo podría servir, por ejemplo, para hacer hervir cuatro gramos escasos de agua. Ahora bien: aplicada esta misma energía a un volumen de una millonésima de milímetro cúbico el efecto destructor y desorganizador puede ser enorme.

     El efecto del laser, como el de las armas de partículas dirigidas, es el de un latigazo energético que actúa sobre un espacio microscópico, pero que para las armas de alta tecnología puede ser esencial.

     Un misil es, por esta razón, un arma sumamente frágil que puede ser fácilmente inutilizada en sus órganos más sensibles por una simple descarga del tipo de la que hemos expuesto.

     Las armas posnucleares son, pues, particularmente apropiadas para la defensa antimisil.

     Desde que fueron inventadas las armas nucleares, los científicos militares se vieron acosados por el problema de montar una defensa adecuada contra las mismas. Es la vieja historia de la espada y el escudo: cada vez que se ha afilado la espada el escudo se ha hecho más resistente. Pero en este caso, el problema no ha sido resuelto todavía.

     La única posibilidad de defensa era la de enfrentar al arma nuclear consigo misma; fabricar un arma nuclear que sirviese para oponerse al arma nuclear o, dicho de otra manera, un arma nuclear antinuclear. Pero este sistema de defensa tenía muchas dificultades e inconvenientes y su aplicación resultaba casi imposible.

     Por de pronto, era un sistema sucio de defensa, podía volverse fácilmente contra el que lo empleara. El lanzamiento de pequeños cohetes nucleares contra un misil atacante —que es en lo que se pensó en un principio— tenía, entre otros, el inconveniente de envolver también en sus efectos al defensor y estaba lleno de complicaciones, aparte de ser poco eficaz.

     Volvió a presentarse la dialéctica entre la bomba sucia y la bomba limpia de los primeros años de la historia del arma atómica. En este caso había que inventar una defensa limpia en sustitución de la defensa sucia que se intentaba realizar por medio de armas nucleares.

     La invención de las armas posnucleares ha introducido nuevas posibilidades en relación con ese asunto. No es que la misma haya solucionado el problema, pero al menos ha mostrado un camino posible hacia la solución.

     La idea de utilizar las armas posnucleares para hacer frente a las nucleares no es ningún disparate, sino una idea completamente natural y obvia. En ella consistirá la SID («Strategic Defense Initiative») que, en este momento, es el gran caballo de batalla entre las dos superpotencias. Volveremos después sobre este plan.

     Anticipándose al tratado SALT-1 los rusos crearon, ya en 1968, una zona protegida por antimisiles nucleares en torno a Moscú, empleando para ello el misil ABM-IB Galosh que está todavía en activo. Los americanos, por el contrario, renunciaron pronto a desarrollar un proyecto análogo —a lo que tenían derecho por el tratado— por estimar que los resultados del mismo habían de ser muy poco satisfactorios.

     Según fuentes americanas, los soviéticos han montado un sistema de defensa a base de «satélites matadores» capaces de destruir satélites enemigos y desde los cuales se podría detectar y aniquilar cualquier misil que se acercase a su zona. Pero la eficacia de este género de defensa sigue siendo problemática por las razones antes aludidas. En suma, no se ha encontrado todavía la manera de que las armas nucleares detengan a las armas nucleares, es decir, de que se detengan a sí mismas.

     Como hemos indicado unas líneas más arriba, la verdadera novedad en este terreno la han aportado las armas posnucleares. El laser y las ametralladoras de corpúsculos podrán ser, quizás, un medio eficaz para defenderse de los misiles nucleares y algunos sueñan, incluso, con la idea de que lleguen a arrinconar a éstos, relegándolos a los cementerios de armas obsoletas.

     Pero todo esto es algo que está aún por ver. Harán falta diez, quince o veinte años de investigaciones para que llegue a obtenerse algún resultado seguro en esas direcciones.

     La finalidad específica de la SDI —o IDS— es impedir que los misiles del oponente puedan llegar al propio territorio, es decir, en este caso, al territorio americano. Para ello se montarán acciones de defensa a distintos niveles y en las diferentes fases del vuelo de los misiles enemigos, los cuales serán inutilizados en su totalidad antes de que puedan llegar a los EE.UU.

     La IDS no sólo actuará contra los misiles balísticos, sino también contra los bombarderos y aviones de crucero que son más difíciles de detectar.

     En realidad, los americanos habían ya manejado esa misma idea hace diez años; pero Schlesinger se vio obligado a renunciar a ella, según se dijo entonces, porque resultaba demasiado cara, y también, probablemente, porque no ofrecía suficientes garantías como medio seguro para detener a los misiles. Si ahora Reagan ha resucitado el plan es porque sus asesores le han convencido de que las armas de energía dirigida serán capaces de hacerlo, una vez que se las haya perfeccionado lo bastante.

     De todos modos, el plan SDI ha levantado grandes críticas.

     No se conseguirá —dicen algunos— la globalidad de la defensa, es decir, no se logrará destruir la totalidad de los misiles y aviones atacantes: quizás un 5 o un 8 por ciento de los mismos logrará atravesar la red, y en tal caso, ésta apenas servirá para nada, ya que las pérdidas podrán ser colmadas por el enemigo mediante el envío de grandes oleadas de misiles que saturen el sistema defensivo americano.

     Los soviéticos, por su parte, aseguran que tienen o tendrán los medios adecuados para alcanzar esos resultados y que su contradefensa será además mucho más barata que la defensa americana.

     Pero nadie está en condiciones de confirmar estos razonamientos y los norteamericanos parecen completamente decididos a llevar adelante sus planes.

     Por otra parte, se barajan también los argumentos clásicos contra las armas defensivas a las que, no sin razón, se les atribuye el carácter de desestabilizadoras.

     Los soviéticos afirman que la IDS es el medio que los americanos se han buscado —haciendo caso omiso de los tratados ABS (sistemas de misiles antibalísticos)— para asegurarse de la posibilidad de dar ellos mismos el primer golpe, a lo cual responden Reagan y sus colaboradores inmediatos que las URSS no tiene nada que temer de la IDS, que todo será para bien y que todo el mundo debe colaborar en las investigaciones destinadas a hacer de ella una realidad.

 

5. Las armas de alta tecnología

 

     Si todo se limitase a la «iniciativa de defensa estratégica» la cosa sería relativamente sencilla y fácil de interpretar; pero hay otras muchas y más importantes tecnologías que intervienen —o intervendrían— en lo que hemos llamado la «guerra posnuclear».

     La aplicación de novísimas tecnologías, de las que algunas de las más importantes están aún en sus comienzos o son simple posibilidad, no sólo va a cambiar la estrategia, sino que va a transformar el «ser» mismo de la guerra.

     El objeto de ésta seguirá siendo el mismo: imponer la voluntad política de un pueblo sobre la de otro, según la conocida definición de Clausewitz: «la guerra es un acto de fuerza para imponer nuestra voluntad al adversario». Pero con los nuevos medios tecnológicos podrá cambiar de manera copernicana el «modo» de la guerra, el modo de realizar esa «imposición». Y aquí nos referimos, claro está, al «modo físico», no al modo político o a cosas parecidas a la guerra psicológica.

     Desde este punto de vista, conviene establecer una distinción previa entre las armas de alta tecnología, por una parte, y las armas nucleares, por otra. Estas se hallan estrechamente conectadas —qué duda cabe— con las nuevas tecnologías a que nos referimos aquí; pero su modo de operar corresponde, o va a corresponder, pronto, al pasado.

     En efecto, lo que actualmente se atisba en un horizonte de futuro no demasiado lejano, seguramente es un nuevo tipo de guerra: la «guerra de alta tecnología».

     Hasta ahora, y más aún en los últimos tiempos, el modo de realizar esa «imposición» a la que hemos aludido, y que está en la esencia de la guerra, ha consistido en matar y destruir. La bomba de Hiroshima, y todo lo que ha seguido a ésta, opera, precisamente, en dicha línea: actualmente el poder mortífero y destructivo de las armas se expresa ya en cifras astronómicas. Al contrario de esto, la guerra tecnológica consistirá más bien en detectar, paralizar, inmovilizar, inutilizar, interferir, desactivar, dejar fuera de juego todos los medios militares, industriales, sociales, etc., del adversario.

     Será —si se quiere— una guerra fundamentalmente defensiva pero que tendrá, al mismo tiempo, una enorme efectividad ofensiva. El aforismo: «la mejor defensa es el ataque» se trocará en cierto modo, por uno nuevo: «el mejor ataque es la defensa».

     Según esta nueva idea, la guerra no consistirá ya en matar muchedumbres, ni siquiera grupos numerosos de personas —civiles o militares—. Será mucho más fácil adueñarse de los centros de decisión del enemigo, una vez reducido éste a la inoperatividad.

     Lo que venimos diciendo no quiere significar, en modo alguno, una apología de la guerra. Esta seguirá siendo un mal, y un mal terrible, porque la «imposición a la fuerza» es siempre brutal e inhumana. Frente a ese nuevo tipo de guerra, los pacifistas seguiremos teniendo razón y quizás una razón más profunda que ahora.

     Conviene, sin embargo, considerar las posibilidades de transformación de la guerra que aportan las nuevas tecnologías. Gracias a éstas, la guerra va a hacerse más exacta, mejor calculada, más precisa, mejor dirigida a sus fines, más económica en vidas y bienes materiales.

     Cada civilización técnica incluye una manera propia de hacer la guerra. Así, las guerras del 14 y del 39 se corresponden con la era industrial. La guerra nuclear y la posnuclear son un producto de la era posindustrial. La guerra tecnológica coincidiría, en cambio, con la aparición de una nueva edad a la que algunos llaman ya la edad tecnológica.

     No hablamos aquí el lenguaje de la ciencia ficción, sino un lenguaje técnico posibilista. Nuestros razonamientos pueden ser fácilmente ubicados en lo que podríamos llamar nuestro «horizonte histórico concreto», es decir, el campo de posibilidades que las técnicas modernas nos están ofreciendo ya y que nos es dado conocer con cierta aproximación desde ahora.

     La tecnología militar de punta es el resultado de la convergencia de una amplia gama de ciencias y técnicas de reciente invención o que se están inventando ahora. Entre ellas figuran, por ejemplo, la Microelectrónica, la Óptica avanzada, la Técnica de los nuevos materiales, la Informática, la Cibernética y la Robótica.

     En una guerra como la que ahora se perfila, y desde el punto de vista de una estrategia de defensa, la detección de «objetos enemigos» es una de las actividades militares más importantes.

     Dada la enorme rapidez con la que operan las armas modernas, la primera necesidad consiste en descubrir esos «objetos» —misiles, ojivas, aviones de crucero, satélites de información, submarinos nucleares, etc.—. Saber con absoluta precisión dónde están situados y dónde pueden estarlo dentro de unas horas, de unos minutos, de unos segundos o, incluso en algunos casos, de unas décimas de segundo, para poder reaccionar con suficiente rapidez y de modo coherente.

     Todo signo, toda alteración, todo «ruido» —entendiendo aquí esta palabra en sentido muy amplio, no sólo acústico, sino también eléctrico, magnético o térmico— que sea producido por el «objeto enemigo» debe ser captado para deducir los posibles movimientos del mismo.

     La «óptica multiespectral», que opera no sólo en las zonas visibles, sino también en las invisibles del espectro —infrarrojos y ultravioletas—, es un medio preciso para realizar esta vigilancia.

     Por medio del telescopio infrarrojo se puede descubrir la presencia de un misil en el espacio a miles de kilómetros de distancia, desde el momento mismo de su partida, y conocer incluso sus características, sus medios electrónicos y la carga de la que es portadora.

     La posibilidad de obtener fotografías con rayos infrarrojos desde gran distancia permite explorar, no sólo la superficie, sino también determinados espacios subacuáticos o subterráneos del territorio adversario.

     En cuanto a la capacidad de observación de los aparatos instalados en los llamados «satélites espías», puede decirse que la misma sobrepasa a todo lo imaginable hasta ahora, tanto por el número y extensión de las fotografías realizadas por tales aparatos, como por el enorme poder separador conseguido en ellos.

     Felden[8] afirma que un satélite de información, volando a una velocidad de decenas de miles de kilómetros por hora, y a una altitud de cien o doscientos kilómetros, puede obtener fotografías en las que se distingan puntos situados a unos decímetros e, incluso en algunos casos, a menos de decímetro y medio de distancia.

     En estas condiciones un misil, un silo, un vehículo y hasta la antena de un submarino sumergido, pueden ser detectadas y fotografiados. Efectuadas estas fotografías con rayos infrarrojos, se pueden obtener vistas nocturnas, como si estuviesen hechas en pleno día y cabe asimismo que en ellas se reproduzcan objetos ocultos debajo de tierra o del mar.

     Es evidente que, desde el momento en que existen estas posibilidades de control mutuo, la actividad militar debe ser modificada profundamente. Ya no caben efectos sorpresa, como el de un nuevo Pearl Harbor. Todo se ha de hacer a plena luz y en cierto modo los posibles contendientes se inmovilizan mutuamente al estar cada uno de ellos al corriente de lo que está pasando en el campo adversario.

     Pero, en ciencia estratégica, no se trata sólo de conocer una situación militar, sino de saber interpretarla y reaccionar ante ella del modo más rápido y eficaz posible.

     Entre la «detección» y la «reacción» hay que situar obviamente, la «transmisión». «Detector-efector-reactor» es precisamente la terna operativa que caracteriza al tratamiento cibernético de una situación. Para la cibernética, el «efector» es el órgano encargado de comunicar al centro de decisión o «reactor», los datos captados por el «detector», una vez ordenados y organizados éstos de modo adecuado.

     La verdadera novedad de la cibernética en relación con el «arte» de la guerra consiste precisamente en que, en bastantes casos, las decisiones militares serán adoptadas, no ya por hombres, sino por máquinas, las cuales podrán hacerlo seguramente mejor que los propios seres humanos.

     Así, por ejemplo, cuando nos hemos referido unas líneas más arriba a determinadas reacciones que deberán producirse en intervalos de décimas de segundo, no pensábamos ciertamente en una posibilidad humana. Sólo una máquina es capaz de decidir y actuar a esa velocidad.

     Es cierto que el programa introducido en el ordenador ha sido previamente establecido por cerebros humanos; pero, en el momento de la ejecución del mismo, es mejor confiar en la máquina, con la seguridad de que ésta podrá realizarlo de modo más rápido y más exacto que los propios inventores del programa.

     Las nuevas generaciones de ordenadores electrónicos —según parece estamos ya en la quinta— han aumentado espectacularmente la capacidad de acción de los mismos, haciéndolos incomparablemente superiores a los primeros aparecidos en los años sesenta.

     No solamente se ha reducido notablemente su volumen —cientos de transistores pueden ser instalados en el espacio de un milímetro cúbico— sino que se ha incrementado de modo increíble su capacidad de memoria y, sobre todo, se ha intensificado, multiplicándola quizás por billones, la velocidad con que operan. Operaciones que antes requerían decenas de segundos son hoy realizadas en nano-segundos, o sea, en mil millonésimas de segundo.

     Por otra parte, los ordenadores más modernos tienen la posibilidad de trabajar simultáneamente con programas diversos y van a tener, asimismo, la de autoprogramarse, reformando la acción primeramente planeada en función de un metaprograma más amplio que deja en mucha mayor «libertad» al ordenador.

     Como ejemplo del «arma inteligente» puede servirnos entre otros muchos el del avión o misil de crucero (CM: «Cruise Missile») que los americanos están instalando ahora en Europa. Se trata de un arma muy sofisticada, de una precisión increíble, dotada de un ordenador altamente perfeccionado y muy difícil de localizar porque vuela muy bajo, pegándose al terreno, como quien dice, y cambiando de trayectoria de modo imprevisible a cada momento.

     El CM responde al sistema de conducción llamado inercial que actualmente se utiliza de modo generalizado para el autopilotaje de naves aéreas y espaciales. El «cruise» lleva a este efecto una plataforma estabilizada por medio de giróscopos, cuya inclinación no depende, por tanto, de la del aparato. Las aceleraciones o «tirones» que esta placa recibe a lo largo del vuelo permiten al ordenador de a bordo deducir con toda exactitud la trayectoria real del mismo y compararla después con la programada en el momento del lanzamiento que va grabada en su memoria. Por otra parte, el aparato obtiene fotografías detalladísimas y muy numerosas del terreno que sobrevuela, de su relieve orográfico y de los edificios, vías de comunicación, etc., que se encuentran en él, y las contrasta con el mapa memorizado.

     De todos estos datos y contrastes, el ordenador deduce la altitud y la dirección a las que debe volar el misil en cada momento y el instante preciso en que ha de depositar su carga sobre el objetivo. El resultado que se obtiene es asombroso: partiendo de una distancia de 2.500 kilómetros, es capaz de situar el 50% de sus tiros a menos de treinta metros de desviación del centro del blanco.

     El avión de crucero es un exponente de las posibilidades actuales de la Aviónica, tecnología derivada de la Cibernética y de la Electrónica, que se aplica directamente al manejo de gobierno de los aviones y otros tipos de naves espaciales.

     La idea central, tanto del avión de crucero como de cualquier otro ingenio cibernético es la del «feed-back» o sistema de «corrección reactiva». El ejemplo más antiguo de esta idea nos lo da el regulador de Watt de la máquina de vapor. Cuando la presión en la caldera es demasiado alta, las bolas del regulador giran muy de prisa y como consecuencia de ello producen una fuerza centrífuga que, transmitida a las válvulas, obliga a éstas a dejar escapar el vapor suficiente para ralentizar el movimiento y devolver la presión de la caldera al nivel conveniente.

     En el «feed-back», el efecto modifica, pues, a la causa. Actúa sobre ella de manera que la idea, o programa inicial de la máquina, sea perfectamente realizada. En esencia, esto mismo es lo que ocurre en el avión de crucero.

     Un avión de crucero debe ser considerado como un «robot», o un sistema de «servomecanismos» combinados entre sí, para la realización del fin que no es otro que la colocación de la carga nuclear en el objetivo.

     El concepto de «robot» puede ser generalizado a otras muchas finalidades que no son puramente mecánicas sino, por ejemplo, tácticas o incluso estratégicas. No sería imposible que un «robot militar» fuese capaz de interpretar y dar salida a una situación fáctica dentro de un campo de posibilidades previamente estudiado por los expertos y memorizado después en el programa del «robot», haciéndolo incluso con mayor seguridad y rapidez que un mando propiamente humano.

     La Robótica generalizada abre, pues, nuevos horizontes a la guerra, pero no necesariamente de un modo perjudicial para el hombre: una guerra entre máquinas podría ser, en definitiva, mucho menos cruel y bárbara que una guerra entre hombres.

     Pero cuando se habla de guerra de alta tecnología, la cosa no se reduce a las técnicas que hemos citado: hay otras a las que no podemos siquiera aludir aquí.

     En el plan «Eureka» que François Mitterrand lanzó a la circulación en abril de 1985 como alternativa al plan americano de investigación SDI, se retiene, por ejemplo, la Optrónica —ciencia híbrida entre la óptica y la electrónica, dirigida hacia la utilización complementaria de la luz y de la electricidad, como fuentes energéticas transformables entre sí e incluso fusionables, en determinados procesos— y la «Investigación de nuevos materiales», nuevas materias artificiales con características perfectamente adaptadas a las necesidades de cada tecnología, civil o militar. (Se empieza a hablar ahora, por ejemplo, de cañones de «plasma» o materia ionizada).

     Ahora bien, se plantea la cuestión de la «servidumbre» de la «alta tecnología» con relación a las armas. Evidentemente la llamada «alta tecnología» no es en sí misma un arma, aunque puede estar eventualmente al servicio de las armas. ¿Pero de qué armas?

     Como acabamos de ver, el «avión de crucero» —que es el ejemplo que hemos elegido aquí— está al servicio de la guerra nuclear. Constituye en realidad un paso adelante en la mutación balístico-nuclear: se trata de un nuevo sistema de armas, esta vez triple: el sistema «misil-robot-arma nuclear», dándose a la palabra «robot» un énfasis mayor que en las realizaciones anteriores.

     En la concepción de los sistemas de armas hay, sin embargo, una regla preciosa que no puede ser olvidada: para que un sistema de armas pueda ser considerado como «correcto» hace falta que haya una proporción o una adecuación perfecta entre las diversas armas que lo constituyen.

     Un ejemplo al que nos hemos referido ya en otro pasaje de este libro, es el de sistema de armas «bombardero-bomba nuclear», el cual no estaba bien proporcionado porque el bombardero clásico no era el medio adecuado para el transporte de la bomba nuclear, no estaba, por decirlo así, a la altura de ésta.

     El misil sí lo era: la asociación «misil-arma nuclear» resultaba «perfecta» («perfectamente horrible», debiéramos decir, claro está).

     Algo de esto podría repetirse respecto a la asociación de la «alta tecnología» con el arma nuclear. La primera es mucho más importante y prometedora que la segunda. No hay adecuación en este sistema de armas. La «alta tecnología» exige un nuevo tipo de armas y hasta un nuevo tipo de guerra —como hemos dicho antes— con características nuevas y probablemente mucho más racional, inteligente y humano que el de las guerras del pasado... y del presente.

     En la idea propuesta por Reagan hay, pues, un fondo de verdad. Dentro de unas décadas la SID podría significar un gran paso en el camino de la racionalidad, aunque no fuese todavía el fin total de la guerra.

     Pero la actitud de superioridad y de dominio en que los americanos siguen colocándose; la desconfianza sobre las verdaderas intenciones de los EE.UU.; la pretensión de éstos, de querer conservar para sí mismos el secreto de las nuevas armas defensivas, como intentaron hacerlo antes con las primeras bombas atómicas; el carácter altamente desestabilizador que, por el momento, tienen dichas armas; la carrera económica que las nuevas investigaciones plantean y que, según algunos, no es más que un medio de hundir a los soviéticos y de reafirmar la superioridad americana sobre todos los demás estados, y otras motivaciones parecidas a éstas, hacen temer que el sueño de la guerra tecnológica —una «guerra de laboratorio», sin hecatombes ni apocalipsis— se convierta en una nueva y tremenda pesadilla para la Humanidad.

 

6. La guerra en el espacio

 

     En relación con la «guerra en el espacio» se viene empleando últimamente una terminología tremendista que carece por completo de verosimilitud. Esta tendencia, que se inició ya en la época de Foster Dulles, se ha agudizado últimamente y ha llegado a constituir un obstáculo para la distensión de los espíritus.

     Se habla, por ejemplo, de la «guerra de las estrellas» y de «guerra de las galaxias». Pero ¿qué significado real tienen tales expresiones? Evidentemente ninguno.

     Las sondas espaciales que han sido lanzadas hasta ahora —como, por ejemplo, la «Voyager-2» que se situará en las proximidades del misterioso planeta Neptuno en agosto de 1989, tras catorce años de viaje— sólo pueden alcanzar distancias del orden de los 9.000 millones de kilómetros, es decir, el camino que recorre la luz en 8 horas, mientras que la estrella más próxima a la Tierra se encuentra a 4 años luz de nosotros, el límite de nuestra galaxia a 80.000 años luz y otras galaxias conocidas a 5.000 millones de años luz!

     La denominación «guerra de las galaxias» que hasta los más altos dirigentes de la Administración norteamericana —incluido el propio Presidente— suelen utilizar con cierta frecuencia, resulta, pues, absolutamente fantástica.

     En un artículo reciente, relativo a los gastos de defensa en el presupuesto norteamericano, Henry Kissinger critica vivamente el «lenguaje apocalíptico» y esa «visión aterrorizante» que —según él— están produciendo «efectos demoledores» en la moral de las sociedades occidentales, pero que sin embargo ayudan —digámoslo claramente— para obtener los créditos destinados a fines militares.

     Kissinger hace notar que la terminología en cuestión no es una simple moda, sino un instrumento o un aspecto necesario de la doctrina de la disuasión, actualmente imperante. La falta de alternativas serias a ésta nos ha conducido —dice Kissinger— a una «parálisis intelectual» que los historiadores del futuro no podrán explicarse sin dificultad ya que la discusión tiene una dimensión «psicológico-esotérica» que se manifiesta precisamente en el lenguaje aterrorizante.

     En el lenguaje de la disuasión no hace falta que las palabras que se empleen respondan a hechos reales o posibles; lo importante es que tales palabras sean capaces de inspirar terror. Está acertado Kissinger al afirmar que el «lenguaje apocalíptico» es una parte esencial de la estrategia de disuasión.

     Convendrá, pues, revisar y dejar reducido a sus verdaderos términos el nuevo tipo de guerra que ahora se presenta como posible. La denominación más adecuada para el mismo puede ser la de «guerra en el espacio» que no tiene el carácter tremebundo de las anteriores. Pero habrá también que fijar su sentido con alguna precisión. ¿Qué entendemos por «guerra en el espacio»? ¿A qué «espacio» nos referimos con esta expresión?

     Aunque la cosa es sumamente compleja, puede afirmarse obviamente que el hecho más característico de la guerra en el espacio es la ampliación del «espacio bélico» a la atmósfera exterior y al ámbito sublunar.

     Notemos que este fenómeno de la extensión del espacio bélico ha venido produciéndose en todos los tiempos, a medida que avanzaban la técnica y la civilización humanas.

     El mar no perteneció al espacio de la guerra hasta que se inventaron las grandes armadas, cosa que ya había ocurrido en la época de las guerras médicas y, probablemente, varios siglos antes. A partir de ese momento hubo que empezar a hablar de la «guerra por tierra y mar».

     Pero la invención del avión militar hizo que la atmósfera —al menos la baja atmósfera— se incorporase a su vez al espacio bélico. Se habló, pues, de la «guerra por tierra, mar y aire». Más aún, la aparición de los sumergibles dio lugar a que las aguas submarinas fuesen también incluidas, sin género alguno de duda, en el escenario de la guerra.

     Hagamos también notar que hasta el siglo XX no había habido verdaderas guerras mundiales o planetarias. Las guerras del 14 y del 39 sí lo fueron en buena medida: desde el fondo de los mares hasta la troposfera, el planeta entero fue un auténtico escenario de guerra.

     En el momento actual, el hecho de que los misiles intercontinentales estén volando ya por encima de la estratosfera, nos obliga a reconocer que el escenario de una guerra posible debe ser ampliado a la atmósfera exterior o ionosfera, e incluso hasta niveles de orden de los ciento cincuenta mil kilómetros, sin que en esto haya exageración alguna. Una batalla entre misiles en esa zona sublunar es perfectamente concebible en el estado actual de cosas y podría tener lugar en el contexto de una guerra entre las dos superpotencias que estallase en este momento.

     A partir de ahora podrá, pues, hablarse con cierta verosimilitud de «guerra en tierra, mar, aire... y espacio».

     Actualmente se especula mucho sobre una presunta «militarización del espacio», pero nadie sabe en realidad lo que esta expresión quiere decir exactamente. ¿En qué va a consistir esa pretendida militarización? Y, por otra parte, ¿qué derecho tiene ningún estado para realizar un acto de esta naturaleza y para invadir el «espacio» sin el consentimiento de los demás?

     La militarización del espacio y la guerra en el espacio, si es que alguna vez llegan a producirse, no deberían escapar al ámbito del Derecho y de lo que llamamos la «civilización».

     Ahora bien, no existe todavía una definición estrictamente jurídica del «espacio». Desde el punto de vista del Derecho internacional, ¿qué es el espacio? ¿Dónde comienza y hasta dónde llega? Habrá algún día que establecer una frontera jurídica entre el «aire» y el «espacio» e incluso entre los distintos espacios «ionosférico», «sublunar», «lunar» y «planetario».

     A partir de 1957, es decir, del lanzamiento del Sputnik, los Estados y la Organización de las Naciones Unidas, se han preocupado del «espacio» en acuerdos y decisiones de desigual valor coercitivo[9].

     El 14 de noviembre del citado año la ONU votó una resolución recomendando un sistema de inspección del «espacio» para evitar que el lanzamiento de satélites desbordase el campo puramente científico y pacífico.

     En una nueva resolución, adoptada cuatro años más tarde, la Organización de Naciones Unidas planteó tres principios sobre el espacio extra-atmosférico: el Derecho internacional y la Carta de las Naciones Unidas tienen aplicación fuera de la atmósfera; ese dominio puede ser libremente explorado y explotado pero —tercer principio— no puede ser objeto de apropiación por parte de ningún Estado.

     Mucho más minucioso que esta resolución y, sobre todo, con auténtico valor obligante, es el Tratado del 27 de enero de 1967, el cual había sido ya firmado por 91 estados a fines de 1983. En las cláusulas de este tratado se garantiza «la libre exploración y utilización del espacio atmosférico, de la Luna y de los demás cuerpos celestes», si bien se establece que éstos «no pueden ser objeto de apropiación, por proclamación de soberanía, por vía de ocupación o de utilización o por cualquier otro medio».

     El tratado del 67 prohíbe la instalación en el «espacio» de armas nucleares o de cualquier otro tipo de destrucción y el establecimiento de ningún tipo de instalaciones militares sobre los «cuerpos celestes». Los estados adheridos a este tratado se comprometen a prestar ayuda a todo astronauta en situación difícil y a devolver prontamente a su país a cualquiera de esos exploradores del espacio que se hayan visto en la necesidad de efectuar un aterrizaje forzoso en algunos de los citados estados.

     Finalmente, el tratado afirma la responsabilidad internacional de cualquier estado que efectúe un lanzamiento espacial o ayude a otro a realizarlo, en lo que se refiere a los daños que el objeto lanzado pueda causar a otro estado o a personas físicas y morales representadas por éste.

     Según la referencia que acabamos de citar, posteriormente al tratado del 67 y como consecuencia del mismo, se han firmado otros varios acuerdos importantes sobre el retorno y salvamento de astronautas (1968), la responsabilidad por daños causados por objetos espaciales (1972) y la matriculación obligatoria de todo objeto lanzado al espacio (1975).

     El Tratado SALT de 1972 prohíbe expresamente la instalación de armas anti-misiles en el espacio.

     Ahora bien: ¿respetarán las dos superpotencias estos acuerdos? ¿Podrá ser frenado por medio de ellos la militarización del espacio? He aquí algo que parece más dudoso, por diversas razones y, en especial, por el hecho de que existe una evidente ambigüedad, en lo que a actividades espaciales se refiere, entre las investigaciones puramente científicas y las que apuntan directamente a la utilización bélica del espacio exterior.

     Resulta difícilmente creíble que las Administraciones soviéticas y norteamericanas realicen gastos tan grandes como los que la investigación espacial origina, si no es a causa del interés militar de la misma. Extender la guerra al espacio es, sin duda alguna, el objetivo prioritario que ambos estados mayores persiguen, aunque no se más que como hipótesis estratégica para el futuro.

     Debemos interrogarnos, sin embargo, sobre la efectividad de la pretendida militarización del espacio. ¿Qué hay de cierto en todo ello? El montaje de plataformas, satélites «matadores» de misiles, naves espaciales, aviones orbitales, etc., ¿puede tener una utilidad militar efectiva?

     De toda la «maquinaria» espacial, las plataformas permanentes son, sin duda, el proyecto que más impresiona a la opinión pública y, por tanto, el más rentable desde el punto de vista propagandístico. La idea de que estas plataformas puedan convertirse en un futuro próximo en bases militares o verdaderos castillos volantes, desde los cuales las poblaciones terrestres podrían ser bombardeadas a mansalva, obsesiona en este momento a millones de personas.

     Tras haber fracasado en su apuesta con los americanos sobre el viaje a la Luna, los soviéticos renunciaron —al menos por el momento— al proyecto de viaje espacial y los sustituyeron por otro, no menos ambicioso que el anterior: la orbitalización de grandes plataformas orbitales a una altura de varios cientos de kilómetros, que pudieran estar en permanente comunicación con la Tierra.

     La primera experiencia de este género fue realizada por los rusos en 1971 y consistió en el lanzamiento de la plataforma Saliut, la cual ha ido perfeccionándose a través de nuevas generaciones hasta llegar a las Saliut 6 y 7, puestas en órbita en los años 77 y 82 respectivamente.

     La idea central de este proyecto consiste en que la plataforma permanezca inmóvil, es decir, en «órbita geosincronizada» —girando alrededor de la Tierra al mismo tiempo que ésta— pero manteniéndose su comunicación con la superficie terrestre por medio de dos navecillas, en constantes viajes de ida y vuelta, destinada una de ellas al transporte de viajeros y la otra al aprovisionamiento de víveres y materiales. Esto es lo que se ha llamado el «transbordador espacial».

     La plataforma comporta, pues, todo un sistema complicado, en el que los soviéticos parecen haber llegado ya a excelentes resultados. A la primera asociación Saliut-Soiuz, dotada de una sola nave auxiliar, la Soiuz, se agregó en 1977 una segunda nave, la Progress, formando así el complejo Saliut-Soiuz-Progress.

     El acoplamiento, en pleno vuelo, de unas navecillas con otras, o de las mismas con la propia plataforma, ha debido de plantear serios problemas, pero parece estar ya plenamente resuelto.

     En 1983 empieza a utilizarse una nueva nave auxiliar, la Cosmos-1443, de dos compartimentos, de la que los soviéticos se muestran, al parecer, muy orgullosos. También se han producido sucesivas generaciones de Soiuz, que alcanzan actualmente la Soiuz-10.

     En un principio, los viajes fueron realizados por dos cosmonautas, pero este número se ha ido ampliando hasta la cifra de seis, que es el record de permanencia simultánea de tripulantes sobre la plataforma. El número de «visitantes» y de tripulaciones rotatorias es mucho mayor: once tripulaciones internacionales, por lo menos, han pasado por la Saliut, efectuando, sin mayor novedad, los viajes de ida y vuelta desde la Tierra.

     La URSS ha experimentado especialmente las permanencias espaciales de larga duración. El record correspondiente lo tienen los soviéticos Berezovoi y Lebedev, con una estancia de 211 días sobre la plataforma.

     Los americanos empezaron a interesarse en este género de proyectos en 1970. Comenzaron entones a planear la construcción de la nave de enlace para el transbordador, que era la pieza esencial del proyecto y que ofrecía más dificultades que la propia plataforma habitable. Fabricar ésta y situarla en órbita era, en efecto, más sencillo que poner en acción un vehículo capaz de efectuar viajes de ida y retorno de modo continuado, como si se tratase de un medio banal de transporte. La decisión definitiva de construirla fue adoptada por la Administración americana en 1972 y su primer viaje tardó casi diez años en realizarse.

     Dada su misión, la nueva navecilla fue designada con el nombre de Shuttle (lanzadera) siendo su denominación completa la de la sigla SSTS («Space Shuttle Transportation System»). Se trata de un vehículo muy manejable y muy dotado, capaz de transportar hasta siete viajeros del espacio en recorridos de ida y retorno a la plataforma.

     La plataforma o estación orbital americana Skylab fue puesta en funcionamiento en 1973, dos años más tarde que la primera plataforma rusa, Saliut. Era más grande que ésta y estaba concebida de diferente manera, ya que los fines inmediatos que perseguían los americanos en estas primeras experiencias de plataforma espacial eran distintos que las de los soviéticos. Estos insistían, sobre todo, en someter a prueba la posibilidad de permanencias de larga duración del hombre en el espacio, es decir, las condiciones biológicas y médicas de habitabilidad de ésta para la especie humana. Los americanos, por el contrario, se han interesado más en la realización de experimentos científicos de todo tipo que los astronautas deben llevar a cabo durante su estancia en la plataforma.

     El par Skylab-Shuttle es, pues, simétrico u homólogo del Saliut-Soiuz. La concepción de base de ambas experiencias es la misma.

     El 25 de enero de 1984, en su discurso sobre el estado de la Unión, el presidente Reagan anunció la decisión de construir y poner en órbita una nueva plataforma espacial. La novedad importante de esta nueva estación orbital consistía en que la misma estará acondicionada para albergar a una tripulación permanente, a diferencia de la experiencia rusa que se ha limitado a la realización de estancias pasajeras, de seis meses como máximo.

     La idea de esta estación orbital permanente, que costará nueve mil millones de dólares a la Administración americana, fue muy discutida en aquel momento. ¿Qué utilidad puede tener el hacer vivir a un hombre en el espacio?, se dijo. Una vez experimentadas las condiciones biológicas de la ingravidez, la presencia continuada de seres humanos en la estación orbital no servirá apenas para nada. Los experimentos que ellos puedan hacer y las observaciones que realicen desde la plataforma las llevarían a cabo de modo mucho más perfecto y seguro unos robots diseñados al efecto. La presencia del hombre deberá ser, incluso, evitada en las futuras «fábricas espaciales» ya que, según algunos, los menores movimientos del mismo pueden introducir aceleraciones que alteren en muchos casos el proceso intentado.

     Parece ser que al proyectar estas espectaculares actividades los rusos, al igual que los americanos buscan, sobre todo, el efecto político. Es evidente que entre todas las realizaciones espaciales los viajes astronáuticos y la instalación de hombres en el espacio son las que mayor impresión causan en la opinión pública de todo el mundo, incluso en la de la Unión Soviética, cuya superioridad científico-técnica sobre el resto de la Humanidad es una de las claves de la ideología rusa actual. Y algo parecido puede decirse de la América de Ronald Reagan.

     La razón de prestigio es, sin duda, la que más cuenta para que se siga llevando adelante este género de proyectos cuyo futuro parece más que problemático.

     En cuanto a la utilidad militar de las plataformas espaciales, es algo que no tardará mucho en ser desmentido, si no lo ha sido ya en suficiente medida. La fragilidad y vulnerabilidad de las plataformas es conocida y, en caso de guerra espacial, las mismas tendrían que ser rápidamente retiradas por constituir un blanco demasiado fácil para el enemigo. Estos sistemas distan mucho de poder constituir un arma viable y, en algún aspecto, recuerdan a los grandullones e impotentes «zepelines» de principios de siglo, desaparecidos ya tras su fracaso en la guerra del 14.

     Otra cosa ocurre con los satélites artificiales, la mayor parte de los cuales tienen una finalidad y una utilidad técnicas bien definidas.

     Más de tres mil satélites giran en este momento alrededor de nuestro planeta, el 75% de ellos dedicados a actividades de carácter militar o pre-militar, si bien la ambigüedad y la confusión existente entre los dos campos de investigación, pacífico y bélico, hacen casi imposible esta distinción en la mayor parte de los casos.

     Determinados tipos de satélites —como los dedicados a la comunicación, el enlace radiofónico y televisivo a grandes distancias, las observaciones geodésicas y astrofísicas, la meteorología, etcétera— tienen predominantemente una utilidad práctica o científica; pero esto no excluye la posibilidad de que los mismos presten también servicios de aplicación militar inmediata.

     Entre los satélites propiamente militares, hay que destacar los de observación y reconocimiento, «satélites espías»; los satélites armados o que pueden estarlo a corto plazo, como los antimisiles, e incluso, dentro de poco, quizás, los satélites antisatélites. Son los satélites «anti-fuerzas» o «anti-armas» los que podrían servir de excusa para provocar —¿quién sabe cuándo?— una guerra en el espacio.

     Entre toda esa fauna bélica espacial, los únicos ejemplares que tienen plena realidad, y que están actuando ya de modo efectivo, son los satélites de reconocimiento y los de «alerta avanzada», capaces de informar a sus correspondientes mandos de los más ligeros movimientos del posible adversario.

     Del enorme poder captador de estos satélites espías hemos dicho ya algo al referirnos a las armas de alta tecnología. Hay que hacer notar, sin embargo, que este género de actividad es fundamentalmente estabilizador. El hecho de que ambos oponentes puedan estar al tanto de los más leves «ruidos» del presunto enemigo impide que la guerra pueda estallar por sorpresa y asegura la posibilidad de tomar medidas para hacer frente a toda situación peligrosa que se presente.

     Pero a pesar del espionaje de alta tecnología, seguirán existiendo secretos. Y la existencia de secretos en determinados campos podrá ser, por sí misma, una invitación al primer golpe.

     Mientras la desconfianza no desaparezca —y esto es prácticamente imposible por ahora— no existe otro medio para impedir la guerra que el terror de la guerra.

     El progreso de las armas nucleares ha llevado este terror hasta sus más altas cotas conocidas. Es el terror lo que nos ha protegido hasta ahora y lo que nos sigue protegiendo.

     Esto o significa, en modo alguno, una apología de la disuasión, sino todo lo contrario: la necesidad absoluta de buscar una alternativa inteligente a ésta.

     ¿Son quizás las armas posnucleares, los medios de alta tecnología y los satélites estabilizadores el medio más adecuado para realizar esta alternativa? Nuestra opinión no puede menos de ser pesimista. Si, como hemos visto, las armas nucleares no han cesado de progresar hasta ahora, este hecho no se ha producido como consecuencia de una motivación racional, sino como resultado de la convergencia de una serie de fatalidades de diversos tipos, a la que Thompson ha aplicado la denominación —generalmente mal entendida— de exterminismo.

     Al parecer no son las técnicas las que nos pueden dar una solución de estos problemas.

 

 

[Notas]

 

[8] Marceau Felden, «La guerre dans l'espace», p. 164 s.

[9] «Un droit nouveau encore en gestation», en «Le Monde, dossiers et documents», febrero 1985.

 

  • El sistema de bsqueda busca una sucesin de letras dada (no funciona con lematizador y no realiza anlisis lingstico).

  • Busca las formas que comienzan con la sucesin de letras dada, y no contempla dicha bsqueda en interior de palabra (el resultado de la bsqueda barc ser barca, barcos, Barcala, Barcelona, barcelonesa..., pero no embarcacin, embarcarse...).

  • Se pueden buscar sucesiones de palabras (pacifismo cristiano, por ejemplo, o partido comunista francs).

  • Es posible especificar el corpus: solo en textos en castellano / solo en textos en euskera / en todos los idiomas (euskera, castellano y francs).

Nodo: liferay2.lgp.ehu.es