Ciencianueva9

68
=t Revista de Ciencia y Tecnología. N° 9 / 1971 / $ 3.50 ($ 350 m/n.) ¿CONOCEMOS BIEN EL AGUA? Restauración del fresco toscano Los hipersonidos y sus aplicaciones AUTOMOVILES ELECTRICOS ' \ i ~

Transcript of Ciencianueva9

= t Revista de Ciencia y Tecnología. N° 9 / 1971 / $ 3.50 ($ 350 m/n.)

¿CONOCEMOS BIEN EL AGUA? Restauración del fresco toscano

Los hipersonidos y sus aplicaciones AUTOMOVILES ELECTRICOS

' \ i ~

Elegir un acondicionador es un problema de confianza. Fedders resolvió 8.000.000 de problemas de confianza en todo el mundo.

Aquí se llama Fedders/bgh y es el acondicionador de más venta en todo el mundo.

Sólo la marca de un a c o n d i c i o n a d o r puede garant izar con l ianza l Y sólo FEDDERS/ B G H puede c i l a r 8.000.000 de garant ías en e l mundo e n t e r o !

Su exclusivo sistema de sub-enl r iarn ien lo ca l cu lado le o t o r g a el mejor rend imiento en cond ic ionen extremas de ( r í o / c a l o r . . . Esta es una razón más para con f i a r en la marca FEDDERS/BGH!

Fácil instalación por menor superficie Frontal!

Evita roturas excesivas y su chasis desl i -zante permite el más ráp ido acceso pa ra Serv ice.

MAS MODELOS... Y UD. PUEDE LLEGAR A UNO DE ELLOS!

Hoy un plan de ventas para Usted, asi como un mode le para cada necesidad.

Sólo Fedders /BGH le da su prestigio internacional!

Antes de comprar , piense on los 8.000.000 de a p a r a t o s vend idos en l o d o el mundo . . . Qu ién puedo dec i r lo mismo?

• C o n mural la d o s i lencio

• Sub-en f r iamien lo científ icamente) c a l c u l a d o

• Desconge lado r a u t o m á t i c o en los mode los ( r í o - ca l o r

• Fi l tro germic ida i m p o r t a d o

• Con t ro l es de c a l i d a d exclusivos

• Serv ice de respuesta instantánea

Lo hace BGH De a c u e r d o - a estric tas normas de íeddurs

C o r p . de Lsludos Unido r . C o n la misma notable ca l idad . B G H p r o d u c e también Televisores M o t o r o l u , B G H , C o m b i n a d o s S tereo M o t o -r o l a / B G H , Au to -Rad ios M o t o r o l u / B G H , Sis-tomas de Radio Comun i cac iones M o t o r o l a / B G H y He laderas , B G H .

T o d o en sus modernas plantos de Mar -tínez, Pao . d e Buenos Ai res y Tucumán, Km. 1.299, rulo 9.

b g h - Biné, M i t r e 1824 - Buenos Aires

^ Marco ícyislruda de M d e i s Corp.

C l ima de v ida fe l iz aquí y en t o d o el m u n d o !

Consul te a su agen te FEDDERS/BGH

m ¿CONOCEMOS ' BIEN EL AGUA? Restauración -del fresco toscano

Loa hioersonldos •y. sus aplicaciones AUTOMOVILES ELECTRICOS

El arma química puede ser tan devastadora como la nuclear, A esta conclusión llega Nguyen Bang Tam, al analizar los efectos de la utilización de productos tóxicos con fines militares.

Nguyen Dang Tam Julio Moreno

Roberto Fernández Prini Misclia Collar

Lucía Bonadeo Jorge Sábalo

Horacio Speratti

Frangois de Closets Hilario Fernández Long

3 5

18 19 26 31

32 39 40 45

51 58 62 63 64 64

Revista de ciencia y tecnología

Misterio en Castelar La guerra química Humor nuevo El agua líquida Responsabilidad ética y social del científico Inauguración del Centro de Cómputo de la

Fundación Bariloche Restauración del fresco toscano SEGBA: Programa de investigación y desarrollo El automóvil eléctrico aún no tiene pilas Novedades de Ciencia y Tecnología 1. La fecundación de la reina 2. Los inductores de interferón 3. El reactor de neutrones rápidos 4. Microcirugía ocular 5. Generador solar 6. El puente sumergido 7. El motor Wankel se complica 8. Los microorganismos que transforman las piedras 9. Desequilibrio entre materia y antimateria La ciencia de los hipersonidos El juego del GO Libros nuevos Correo del lector Respuesta a Metegol N9 4 Metegol N9 5

De las opiniones expresadas en los artículos firmados son responsables exclusivos sus autores.

Año I / N* 9 / Abril 1971 / Buenos Aires

Av. Roque Sáenz Peña 825, 4» piso, Of. 43 Buenos Aires — Tel.: 45-8935

Ricardo A. Ferraro Eduardo A. Mari

Héctor Abrales Daniel Goldstein

Ricardo Schwarcz

Lina Mari Horacio Speratti

Isabel Carballo Femando Díaz

Julio Moreno

María Susana Abrales

Caracas: Pascual Llórente Florencia: Hernán Bonadeo

Frankfurt: Jan ICovarik Londres: Eduardo Ortiz

Nueva York: Roberto Lugo París: Jorge Schvarzer

Praga: Jan Rehacek San Pablo: Ricardo Albizuri

Santiago de Chile: J. Pablo Schifiní

New Scientist; Sciences; Science et Avenir; Science-Progrés-Découverte; Science et Vie;

_ Science Journal; Scientific World; Sapere;

C ° ° K ! 1 0 " L e í n Í q U e ; S c Í e n c e S e n , i c ^ Associated Press; ' 1 A S S ' C T K ; A D N ; Agencia DAN; ICA press.

Es una publicación de Editorial Ciencia Nueva S.R.L., Av. R. Sáenz Peña 825 4? P, of. 43, Buenos Aires. República Ar' gentina, Tel.: 45-8935. Distribuidores- en la República Argentina Ryela S.A.I.C I F y A., Paraguay 340, Capital Federal.' f e í 32-6010 al 29; en Capital Federal, Vaccaro Hnos., S.R.L., Solís 585, Capital Federal Impreso en Talleres Gráficos DIDOT S C. A., Luca 2223, Buenos Aires. Precio del ejemplar: ley 18.188 $ 3,50 (m$n 350) Suscripciones: Argentina, ley 18.188 $ 40 (rn$n. 4.000) por uño; exterior, por vía ordinaria, u$s. 15 anual. Registro de h propiedad intelectual n? 1049414. Hecho el depósito de ley. Circula por el Correo Argentino con Tarifa Reducida, concesión n- 9165, y Franqueo Pagado, concesión n* 3689. Derechos reservados en castellano y cualquier otro idioma para los trabajos originales, y en castellano para colabora-ciones traducidas.

Directores

Asesores de dirección

Secretarios de Redacción

Diseño gráfico Dibujo Humor

Secretaria

Corresponsales

Servicios del exterior

lluj¡KPipv»M'i i «/!' ' • t ' . .' ' "-'h " :í " r_ '••"..: '«i "... i£. .-«•» -

Misterio en Castelar

Una de las funciones de una revista como CIENCIA NUEVA es exaltar y alentar el desarrollo de las acti-vidades científicas y tecnológicas del país y en cumpli-miento de esa función ejerció reiteradamente su crítica contra la falta de elementos y presupuesto, contra el mal üso o aplicación de recursos dedicados a la inves-tigación.

Por ello no resulta paradójico preguntarse acerca del verdadero sentido de un monumental proyecto que se ha puesto en marcha en nombre, de la investigación científica, conocido casi esotéricamente entre los inves-tigadores argentinos directamente afectados con la deno-minación de "proyecto Castelar".

En grandes trazos, el "proyecto Castelar" implica la realización y puesta en marcha de un enorme centro de investigaciones biomédicas en edificios a construirse sobre un terreno de 25 hectáreas que posee actual-mente el INTA en Castelar. El centro estaría básica-mente integrado por varios institutos, entre otros: Neu-robiología, Biofísica, Biología y Medicina Experimental, Bioquímica, Farmacología y Medicina del Trabajo. Coxn-pletado en siete años, daría ocupación a unos mil investi-gadores.

El costo total del proyecto ascendería a 25 millones de dólares, 60 por ciento de los cuales dedicados a la construcción, 25 por ciento a la integración de equipo científico complementario y 15 por ciento a la forma-ción de personal. No se sabe que haya previsión presu-puestaria para cubrir los gastos operativos. Cuarenta por ciento del dinero necesario será prestado por el Banco Interamericano de Desarrollo y el 60 por ciento restante provisto por el Consejo Nacional de Investigaciones Científicas y Técnicas.

Es precisamente en el CNICT donde ha surgido este piramidal proyecto que habría nacido contra la opinión de los doctores Houssay y Leloir y a instancias de fun-cionarios administrativos. El proyecto entró en la prime-ra etapa de realización en abril de 1970, cuando sin con-curso y en un costo que se estima en ocho millones de pesos viejos, se encargó el anteproyecto de arquitec-tura a una firma que ya habría realizado su trabajo, in-cluyendo una maqueta que circuló por las oficinas del CNICT.

Un proyecto de tal magnitud merecería, por nuestra parte, un análisis detallado, más allá de los límites que impone un comentario editorial, pero aquí surge la prin-cipal irregularidad: fuera del estrecho círculo de perso-nas involucradas directamente en el proyecto, nadie co-noce la realidad del mismo, nadie ha visto textos, des-cripciones ni cifras, algunos de los investigadores nomi-nados en carpeta apenas han llegado a tener entrevistas verbales con personas que conocen parcialmente el pro-yecto; otros ni siquiera han sido informados de la tarea que les ha sido asignada en el "proyecto Castelar". Tam-poco en la Universidad, en el CONACYT o en el Mi-nisterio de Educación parecen estar suficientemente in-formados en este proyecto que de alguna manera los involucra y que debió necesariamente, en alguna etapa, transitar los ministerios de Economía, Educación y Re-laciones Exteriores. Esta irrealidad aparente del "pro-yecto Castelar" es lo único concreto. Todo lo demás son suposiciones, informaciones que se filtran fuera del ce-rrado grupo que maneja el proyecto, indefiniciones. Es por ello que debemos dar a toda aquella información el precario carácter de postulado, para poder apoyar un jui-cio crítico tentativo.

No escapa a nadie la magnitud económica del proyecto que requeriría la inversión total de los recursos actuales del CNICT durante cuatro años, más la posterior devo-lución del préstamo del BID y de sus intereses —que no son magros— más los costos operativos. Además toda esta inversión estará destinada predominantemente a la biología y bioquímica, ignorando las eventuales necesida-des de otras ciencias puras y de todas las aplicadas que, en muchos casos, pueden tener mayor urgencia y mayor mérito económico frente a las necesidades reales del país.

La distribución de gastos también llama la atención: 60 por ciento de 25 millones de dólares es mucho di-nero invertido solamente en instalaciones inmuebles. Y algunas versiones afirman que el 25 por ciento corres-pondiente a equipo complementario presupone el tras-lado de los investigadores de sus actuales lugares de trabajo hacia Castelar, junto con los equipos actual-mente en servicio. Esta pretensión implicaría el des-mantelamiento de algunos laboratorios y especialmente de los laboratorios universitarios. De cualquier manera es obvio que el proyecto separará inevitablemente la investigación de la labor docente, lo que puede, implicar

3

un peligroso e irrecuperable cercenamiento de la activi-dad universitaria.

Es esencialmente esta característica del "proyecto Cas-telar", el alejamiento de los investigadores de la función docente hacia laboratorios de ciencia pura, culturalmen-te esterilizada, la que marca una de sus mayores contra-dicciones.

El proyecto pretende tener, en un plazo de siete años, alrededor de 1 000 investigadores trabajando en el lu-gar. Pero se da el caso de que el CNICT tiene, en la actualidad, 410 investigadores (más 260 becarios) y el total de investigadores que trabajan en la actualidad en laboratorios y universidades de todo el país y en todas las áreas, rio supera en mucho esa cifra.

¿Cómo podrán formarse e integrarse en siete años los 600 ó 700 investigadores adicionales que requerirá el "proyecto Castelar"? ¿Es lógico tener muchos más in-vestigadores trabajando en bioquímica y medicina que en todo el resto de las áreas sumadas, en todo el país? ¿Tiene acaso sentido la enorme inversión que requiere la puesta en marcha de este gigante y los ingentes gastos que exigirá su funcionamiento, cuando una simple gene-rosidad presupuestaria y una partida de refuerzo para renovar equipos e instalaciones bastarían para brindar lo necesario a este sector de la investigación científica ar-gentina? ¿No es paradójica la realización de este proyec-to hipertrofiado frente a las carencias de todo tipo que sufren los institutos de investigación y las universida-des? El alejamiento de los investigadores científicos de las tareas docentes, ¿no compromete acaso desde su mis-

ma iniciación el futuro de este proyecto que necesitará una adecuada realimentación de profesionales de alto ni-vel proveniente de las universidades?

Todos estos interrogantes surgen de los trascendidos de un proyecto que no ha tomado estado público, que no ha sido discutido abiertamente frente a los interesa-dos que ni siquiera han tenido acceso a ^información necesaria y cuyos objetivos políticos y económicos a cor-to y a largo plazo sólo pueden conjeturarse.

Se puede conjeturar sobre las intenciones discrimina-torias de los sostenedores de este proyecto, sobre las am-biciones personales en juego; acerca de un progresivo debilitamiento de las universidades ante la incapacidad de los gobiernos militares para congeniar el fantasma revolucionario que le atribuyen con la adecuada capaci-dad de formación de técnicos y dirigentes que le quita-ron. Se puede aún conjeturar sobre la posibilidad que significa impulsar la producción científica en un área es-trecha de un grupo ele gente que ya tiene nivel interna-cional, para contrapesar los efectos de la intervención universiraria, ele la discriminación ideológica, de la cen-sura y de otras agresiones contra la cultura del país. Pe-ro todas estas conjeturas no serán más que un juego dialéctico que puede generarse, precisamente, en la falta de información concreta.

Quizá ante todo —y a colación de este proyecto— co-rrespondería preguntarse otra vez la razón de ser del CNICT y del CONACYT como organismos indepen-dientes y, a su vez, independientes ambos de las uni-versidades y del Ministerio de Educación.

4

L

La guerra química Nguyen Dang Tam

En su mayoría, los armamentos modernos basan en las propiedades explosivas de cier-tas sustancias y, en definitiva, toda arma es "química". Sin embargo, se ha reservado el nombre de guerra química a la utilización directa de productos tóxicos contra el hom-bre u otras formas de vida. Revelada por la guerra de 1914-1918, considerablemente perfeccionada después y producida en can-tidad industrial, el arma química es motivo de preocupación tanto para la opinión públi-ca mundial como para los expertos milita-res. La Conferencia de Ginebra de 1970 de-bió concluir con la prohibición absoluta de las armas químicas y biológicas. Nguyen Dang Tam expuso en la revista francesa "La Recherche" los problemas que plantea su empleo.

Nguyen Dang Tam nació en los alrededores de Hanoi; estudió agronomía en Parts y química en Tübingen. Ex asistente del Instituto Max Planck de Munich y en la actualidad j e f e de investigaciones del CNRS, el autor se ha dedicado particularmente al estudio de la utilización militar de cierto¿ productos tóxicos y a los problemas éticos que deben encarar los. científicos.

Durante el mes de mayo de 1969, cierto número de parlamentarios liberales norteamericanos lanzaron una campaña contra la producción y la experimentación de armas químicas y bacteriológicas en los EE. UU. De esta manera ellos continuaron con la obra ele más de cinco mil investigadores de su país (entre los cuales hay 17 premios Nobel y 127 miembros de la Academia de Ciencias de Nueva York) quienes, desde 1966, vie-nen cuestionando el empleo de productos fitotóxicos sobre los bosques y campos de Vietnam. A pesar del secreto en que se los mantuvo, los numerosos accidentes acaecidos en centros de investigación y sobre terrenos de ensayos militares llegaron a ser de dominio público; el más espectacular fue la muerte de 6.000 corderos, el 14 de marzo de 1968, en Dugway (Utah), sobre los cuales el viento hizo derivar una nube artificial de un producto neurotóxico.

La oposición a este estado de cosas también está co-brando importancia fuera de los Estados Unidos. En In-glaterra, el Parlamento obligó al Gobierno a intervenir, mediante una comisión investigadora, un centro de in-vestigaciones sobre la guerra química y biológica, el de Porton. Una conferencia nacional reunió en Edimburgo, ^ comienzos de 1969, a un apreciable número de cien-tíficos. En julio de 1969 algunos soldados norteame-ricanos se intoxicaron con gases almacenados en Oki-nawa. Sólo entonces el pueblo japonés pudo enterarse de que el ejército norteamericano los había deposita-do allí ante el desconocimiento del mismo Gobierno de Tokio. En mayo de 1970, por segunda vez en doce meses, la Asamblea legislativa de Okinawa reclamó la evacuación total de tan peligroso "stock". La ONU realizó una encuesta cuyos resultados fueron publicados en 1969 y en 1970. Las protestas de los países extran-jeros reforzaron la oposición a la guerra química des-atada en Estados Unidos. Fueron enviadas misiones in-vestigadoras a Vietnam y después a Camboya para es-tudiar las consecuencias de la defoliación de vastas ex-tensiones de bosques, plantaciones y cultivos (ver CIENCIA NUEVA N? 5, N. de la R.).

En Francia se realizó .una reunión en la Facultad de Ciencias de Orsay el 21 de febrero de 1970: investi-gadores del CNRS y médicos presentaron una aprecia-ble cantidad de informaciones tanto sobre los agentes químicos como sobre los desastres ecológicos y los efectos teratógenos provocados por las defoliaciones en Vietnam.

Estos movimientos de protesta demuestran que un número creciente de científicos y de políticos han to-mado y toman conciencia de los peligros de la guerra química, cuya inquietante intensidad nos revela el con-flicto vietnamita.

De la guerra de trincheras a la guerra química

Sin embargo, hace ya más de medio siglo que se pone en práctica este tipo de guerra. El enorme desarrollo de la química orgánica hacia fines de siglo y la posibilidad de obtener en cantidades industriales los productos más tóxicos no podía dejar de tentar a los expertos milita-res. En 1899, en la Conferencia de la Paz mantenida en

- La Haya, se prohibió el uso de las armas químicas. En realidad, la Primera Guerra Mundial fue la ocasión ideal para utilizarlas. En agosto de 1914 las tropas france-sas se sirvieron de ellas empleando bromoacetato de etilo, gas lacrimógeno. Más tarde —y no fue por a z a r -hizo su aparición el cloro, materia industrial importan-te, el 22 de abril de 1915. Ese día, por consejo del profesor Fritz Haber, autor de la síntesis del amoníaco y director del departamento de guerra química, el co-mandante alemán hizo derramar sobre las líneas fran-cesas 168 toneladas de cloro contenido en cilindros be produjeron 5.000 muertes entre los 15.000 soldados afectados. Esta fecha tiene el triste honor de marcar el comienzo de a guerra química. Se instalaron plantas para mejorar la eficacia del gas, idea que volveremos a encontrar cincuenta años más tarde en el Vietnam Se hizo necesario inventar medios de protección. Fue de esta manera como se desencadenó la carrera de los ar-mamentos químicos, carrera que ya no se detendría más.

En ambos campos, los laboratorios se encargaron de esta investigación aplicada". Hacia fines de 1915 el fosgeno otro producto industrial importante, más fácil de manipular que el cloro, comentó a reemplazarlo! U n , e sf 1 I e n a " * municiones de artillería y granadas empleancbse alrededor de 150.000 toneladas&en tres anos El fosgeno fue responsable del 80 % de los casos mortales debidos a las armas químicas. También se utüi-

d W f n ° 7 d 0 r °P l c r i n a - D u r ante la ofensiva sobre ü Somme, en marzo de 1918, la artillería alemana arro-P , en 10 días, 500.000 obuses de iperita sobre las tro-

™ tooo n C e S a s - L f s o I d a d o s a " e c t a d o s I » ' d m o b s t ó t e 7 , ? ? P e m S ° ] o f Pr°dujeron 7 muertes. No W n r e t í r S T ^ * k **?*> l ° S d e p ó s i t 0 s n o

r eron_ retirados. Se puso en evidencia una gran pre-ocupacion por la prohibición de este tipo de armas £ S e t d T í : MUnÍda Cn G Í n e b f a e n ^ P°" la So-un p l t ^ í r 1 ^ r e C° g í Ó d 1 7 d e í - i o mediante

Protocolo redactado en ese sentido la a d h e r í p é n H Z ^ f 3 ' ^ ^ l 0 S Atados U n t o ° y j í S ' se señ il d e k S e 8 u n d a G u e " a

s S d e M í r ^ f ^ - ^ ^ S í ejército dp IV - d e , loS , C u e r p o s m á s A l a n t e s de e S o s t o t t o r ^ T d e S a f o i r a d ™ t e C a r e c í a

en octubre de i9¿u'. oportunidad se dio en los obuses J ' ^ ? P a c t o s mortales

pecialmente sobre lT'viíl Í V f ^ ch in a s> es" del río Yang sé ^ S Í t U a d a a I s u r

1. El ejército utilizó diferentes formas de protección contra los gases. La fotografía muestra algunos artilleros franceses munidos de cogullas antepasado de las famosas "máscaras de gas". (Foto Roger-Viollet).

En busca de nuevas armas

En el período comprendido entre las dos guerras, las in-vestigaciones y la producción de productos tóxicos no cesaron y la Alemania del III Reich realizó notables progresos en este campo. Se sabe que gran parte de la producción alimentaria mundial es destruida por los insectos: actualmente se calcula en 30 millones de to-

a Q° ' i 0 3 i n s e / c t o s P l a g a n también muchas enfermedades peligrosas (malaria, fiebre amarilla, etc.). La preparación de insecticidas constituye una de las ac-S S r V i " * 3 h ° n o r a b I e , s y también más lucrativas que S í n l R GS s o f P r e " d e n t ? e n tonces que los estable-cimientos Bayer, que formaban parte de la célebre IG

L i o í m V Y a í r e r e S a d ° ? n f1Jos> más que Derrmi S , ' d e d i v i s a s extranjeras no permitía importar insecticidas como el polvo de piretro

SSn A 1C°n l0S, pMásÍt0S' redbÍÓ de la d u Z Z t V 3 1f1S1Ófl d e s i n t e t i 2 a r a l a n o s pro-ductos activos. Particularmente se interesó en el flúor Í¿Tlo? :oPmO C r° 'C 0 1 1 0 C Í d 0u H Í Z ° fluomros de ro TraL o i l T ? p m e b a s biológicas. Estos prime-ros trabajos le permitieron comprobar que tanto en la se-

Figura 2, Un ejercicio de defensa contra los gases, en Parts, durante la guerra 1914-1918. (Foto Harlingue-Viollet).

ríe de los fluoruros de metansulfonilo como en la del íluoretanol había numerosos insecticidas en potencia. Desgraciadamente ellos eran demasiado tóxicos para los animales de sangre caliente. Estos fracasos, aunque interesantes desde el punto de vista científico, obliga-ron a Schracler a volverse provisoriamente hacia los plastificantes y otros productos destinados a la indus-tria del caucho sintético, campo tradicional de Bayer. Por casualidad hizo algunas pruebas, con los ésteres y amidas del ácido fosfórico; los ensayos de estos deri-vados fosfóricos revelaron una propiedad hasta enton-ces poco conocida: su extraordinaria toxicidad.

Schrader logró preparar el paraoxón o E 600, prepa-ración que después permitió determinar las condiciones estructurales de dicha toxicidad, o sea las de la inacti-vación de la colinesterasa. Pero desafortunadamente los animales y los hombres no escapaban a ella. Todos los esfuerzos se concentraron en el problema de la prepa-ración de un producto que fuera tóxico para los insec-tos peto inofensivo para el hombre y, las bestias.

Hubo que esperar la finalización de la guerra y nue-vas investigaciones para encontrar una vía acertada. Los organofdsforados se impusieron en todo el mundo co-mo venenos sistémicos. Si bien la antimita amitón es todavía sumamente peligrosa para el hombre, el mena-zón y el diclorvos no lo son en absoluto. El haloxón, antihelmíntico, utilizado en medicina veterinaria, hasta puede ser suministrado por vía oral al ganado.

Hasta este punto, nada fuera de lo común. Sin em-

bargo, los estudios de Schrader adquirieron una sinies-tra reputación, quizá a causa de un decreto del gobier-no hitleriano del año 1935, que ordenaba a todos los laboratorios a someter a consideración del Ministerio de Guerra los descubrimientos susceptibles de adqui-rir una importancia militar. La historia no nos infor-ma de cómo el Estado Mayor tomó conocimiento de los resultados de Schrader: las versiones son muchas y. contradictorias. ,Arribismo, jactancia, control polí-tico de la investigación científica, espíritu de discipli-na, patriotismo, o quizá simple exceso de celo o te-mor a sanciones severas? Todos y cada uno de estos factores pudieron jugar su papel. Lo cierto es que la paciente espera de los militares fue al fin recompen-sada. Los laboratorios de Schrader en Elberfeld lograron preparar un producto que podía ser utilizado como in-secticida y enviaron un kilogramo al Ministerio. Era el tabún. Schrader estaba vinculado con el profesor "Wirth, director del Instituto de Farmacología y Toxicología Militar, de la Academia de Medicina Militar. Se exa-minaron las cualidades bélicas del tabún: eran excelen-tes. Hay que señalar que ese mismo año los estableci-mientos Bayer depositaron las patentes para las fórmu-las de los insecticidas organofosforados. Una vez re-velada su importancia, las fórmulas pasaron a ser secre-to militar y así quedarían hasta el final de la guerra. Las máscaras antigás habían sido distribuidas entre la población a partir de las primeras amenazas de guerra. Tanto para los estados mayores como para el gran pú-

blico el término tabún se convirtió en un motivo de angustia.

Mientras tanto, Schrader continuaba sus trabajos; en 1938 concluyó con la síntesis del sarín. Varios ins-titutos universitarios importantes participaron en el des-arrollo de la nueva "arma secreta". En Dyhetnfurth-am-Oder se construyó una fábrica en dos años con el trabajo forzado de 120 prisioneros de guerra. En total colaboraron 3.000 trabajadores. La producción del ta-bún (en código: Trilón, jabón en polvo) comenzó en el verano de 1941. Totalizó 11.980 toneladas en lugar de las 58.000 solicitadas por el ejército. La producción del sarín, más estable que el tabún, no pudo ser rea-lizada: el Reich sería vencido antes de la terminación de la fábrica subterránea de Falkenhagen, cerca de Ber-lín. En 1944 Schrader, siempre diligente, logró el com-puesto más peligroso de la serie, el soman. Pero ya era demasiado tarde. . .

En realidad, lio se empleó el "gas de la muerte" so-bre el campo de batalla o contra poblaciones enemigas. Pero, en cambio, se sabe bien cuál fue el uso de ciertos gases tóxicos que fueron destinados a los campos de concentración. . .

Las sustancias modernas y sus posibilidades

No cabe ninguna duda de que los aliados conocían el tabún. Hoy se sabe que desde 1940 algunos investiga-dores ingleses trabajaron también en los esteres de los ácidos fluorcarboxílicos, después en los organofosfatos y por fin en los esteres orgánicos del ácido fluorfosfórico. Apuntaron a un arma sumamente tóxica, el DFP, del cual prepararon grandes cantidades. Pero sólo después de la guerra, sin duda después de haber descubierto los documentos de Schrader y de haber capturado los de-pósitos de tabún y de sarin, las investigaciones plani-ficadas sobre los tóxicos bélicos tuvieron su verdadero comienzo. Los trabajos de Schrader servirían de modelo a todo el mundo (figura 3) . El que busca encuentra. No es menos cierto que la máquina de la investigación militar, lejos de carecer de aliento, continuó exigiendo su contingente de créditos y de talentos y que los labo-ratorios, norteamericanos, esta vez, y también suecos, pudieron anunciar a las autoridades respectivas el descu-brimiento de productos extraordinarios, los llamados agentes V. Se estaba muy lejos de la investigación de nuevos insecticidas o de nuevos herbicidas, motivación inicial de tan inquietantes estudios.

Actualmente, las grandes potencias están dotadas de un arsenal químico tan terrible como su panoplia ató-mica o biológica. Ahora bien, ¿de cuáles armas quími-cas dispone actualmente un estado mayor? Antes de responder esta pregunta sería interesante conocer los elementos de reflexión que guiaron la elaboración de esas armas. En los laboratorios y fábricas se puede en-contrar con facilidad una cantidad de sustancias inte-resantes; un lacrimógeno, o los cloruros de acetilo, o el benzilo podrían ser candidatos aceptables. Pero la uti-lización impone exigencias frecuentemente contradicto-rias. Como hemos señalado antes, deben tomarse en consideración, simultáneamente, varios criterios técni-cos (ver figura 4 ) .

Entre las sustancias consideradas, se comprueba la existencia de un gran número de productos que con-

Armas mortales Tabún (1937) Sarín (1938) DFP (1942) Somán (1944) Ester de Tammelin (1955) VX (1955)

Insecticidas Paraoxón o E 600 (1944) Amitón (1955) Malatión (1950) Menazón

Figura 3. Fórmula fundamental de Schrader,

tienen halógenos, arsénico, el grupo cianógeno ( C N ) , una amina cuaternaria, un resto fosfónico o tiofosfó-nico. Los glicolatos sustituidos se encuentran entre l o s alucinógenos anticolinérgicos. Los venenos naturales, como la estricnina, el curare, la aconitina y los venenos de serpientes, no tuvieron ninguna utilización mi l i t a r . En cambio, las investigaciones modernas en qu ímica estructural y en farmacología revelaron que en los v e -getales _ (ricino), los hongos (psilocibo, amanita), l o s microbios (Clo s t r i d i um botulinum y Clostridmm teta-ni), algunos peces y algunos gastrópodos mar inos (Thais flor ¿diana) existe una cantidad apreciable d e sustancias extremadamente tóxicas, por las que los e s -pecialistas manifestaron un vivo interés. Algunas h a n sido^ sintetizadas y se puede afirmar que el estudio s i s -temático de las correlaciones entre la estructura y l a actividad fisiológica benefició enormemente a a lgunas investigaciones.

Según la Organización Mundial de la Salud, la l i s ta de los productos "operativos" comprende once sustan-cias. Pero no cabe ninguna duda de que en caso d e conflicto las potencias utilizarían todas las sustancias a su disposición y las que podrían probar después, aun cuando no todas se revelasen "eficaces". Como se pue-de comprobar observando el cuadro de las páginas 10 y 11 el arsenal de las armas químicas, clásicas o moder-nas, es lo suficientemente grande como para permit ir todas las combinaciones.

8

Vietnam, campo de experimentación de la guerra química

Dosis sola facit venenum, dijo una vez Paracelso. A ba-ja concentración, el paraoxón del Schrader y el DPF de los ingleses se utilizan en oftalmología como mió-ticos y antiglaucómicos. A la inversa, sin embargo, el empleo de los defoliantes en Vietnam es una demos-tración por el absurdo de esa proposición. Los países ricos se sirven de los productos fitotóxicos para elimi-nar las hierbas malas de los cultivos y jardines. La dosis normal para el 2,4 D, por ejemplo, es de 0,75 a 1,5 kg por hectárea.

En Vietnam, las dosis empleadas no tienen nada en común con el uso agrícola. Estos herbicidas y defolian-tes se convirtieron, en las manos de los expertos mili-tares norteamericanos, en armas devastadoras que no

sólo destruyen hoy las fuentes vegetales alimenticias e industriales, sino también comprometen seriamente el porvenir del país esterilizando el suelo —que es el efecto del monurón y del bromadlo—, transformando el medio, provocando la erosión o la transformación de las plantaciones y de los campos en regiones desérti-cas carentes de toda vida animal. Es necesario recordar que estos efectos se suman a los de los bombardeos masivos (figuras 8 y 9 ) .

Efectivamente, se ha podido comprobar la acción de dichos defoliantes en los tejidos animales. La posibili-dad de accidentes graves, como abortos o malforma-ciones fetales, en ratas y ratones, ha sido demostrada por investigadores norteamericanos. El herbicida 2, 4, 5 T (contenido en el producto "naranja") administra-do oralmente o por vía subcutánea provoca un au-mento en la frecuencia de ríñones poliquísticos y de

Figura 4. Relaciones entre los criterios que intervienen en la selección o investigación de las armas químicas.

anoxemia

W inflamación, necrosis

v : vi ' . - x ^ ' i ^ i í ÍV'3 • V /

-*'*( inhibición de las ^ enzimas celulares

SV ,-,VcvniM«0.; V»!J •;*t 1'jgw-m. ibioq«i'micor>)

• * / / • »

clase de productos

Él alucino'genos (BZ)

lacrimógenos (CS,CN)

irritantes pulmonares (fosgeno)

(K'l'i '.'rcanosi afecir-i'ieX

^sistema nervioso" central . ly .

i.t't!i t t t t l t t M H /t'yVt :2*Ipojost nariz, garganta i-* i é * «+ • »« .<%v > 4. * O * C * .

pulmones X—....—v-a- —s—IT—t—* ,.

hemotoxicos (cianuro)

agentes letales neuro-toxicos (Sarin, VX)

veneno de los refle-jos (adamsita)

i < i t . . . " . «C if"" músculos j l^ m

!•:•:.•.•' ; •* • • piel J y .

— — . . ...—<" **

objetivos

hombres y animales domésticos

condiciones técnicas y eco-l ndmicas de producción y J

de utilización m i l i t a r ^ /

9

Código Nombre vulgar, nombre US Army y fórmulas químicos

Modo de expansión (y forma (le protección)

Acción bioquímica

Síntomas

Agentes letales Francia utilizó el cloruro de cianógeno iperita en 1917.

en 1914-1918. Por su parte, Alemania empleó el fosgeno en 1915 y la

CG Fosgeno

c i \ c—0

C l /

Gas (máscara antigás)

Tos, cianosis; asfixia por edema pulmonar.

AC Acido prúsico H—C=N ácido cianídrico

Gas (máscara antigás)

Transformación del hie-rro de la citocromo-oxidasa en un derivado desprovisto de poder catalítico.

Convulsiones, angustia, pérdida de la concien-cia, asfixia.

Cl —C=N

Cloruro de cianógeno

Líquido o gas (máscara antigás)

Lacrimógeno tóxico (dosis letal: 400 mg/nv1 en 10 tn.)

HD Iperita o gas mostaza

/CH—CHjCI s .

-CH,—CHSCI

Líquido o gas (máscara antigás, vesti-mentas especiales de protección)

Inhibición de las pep-tidasas y lipasas; esti-mulación de la respira-ción celular; acción so-bre el ADN.

Inflamaciones y ulcera-ciones en los ojos, en-rojecimiento de la piel; necrosis, asfixia, neu-

HN-3 Mostaza al nitrógeno

yCHa—CHjCI R-N

^CH,—CHaCI

Líquido, gas o aerosol (máscara antigás, vesti-mentas especiales de protección)

monía; necrosis epite-lial pulmonar; pertur-bación de las funciones de la corteza cerebral.

Agentes de "hostigamiento" e incapacitantes La cloroacetofenona se utiliza en todo el mundo para la represión de los motines y en Victnam desde 1963. En Estados Unidos, la adamsita fue propuesta como arma bélica en 1914-1918. El OCRM se utiliza para la represión de manifestaciones y en Vietnam desde 1963.

CN CAP

o-co-cloroacetofenona

Aerqsol (máscara antigás)

co—CH,CI

Reacciona con los gru-pos SH de las cisteínas en las proteínas: inhi-bición ele enzimas (pa-paína, ureasa, exoqui-nasa)

Sensación de ardor en la piel húmeda, secre-ción lagrimal abundan-te. En dosis altas pue-de ser mortal.

DM Adamsita Aerosol (máscara antigás y ves-timentas especiales)

Cloruro de fenarsacina

Fatiga, henticranta, tos, náuseas, vómitos, psi-cosis de angustia, ataca las mucosas (nariz, garganta).

CS OCBM ci

\ / o-clorobenzol malononitrilo

Polvo (máscara especial)

Sensación de ardor en la piel. Fatiga, secre-ción lagrimal abundan-te, náuseas, tos violen-ta.

BZ Aerosol Disminución de la ac-tividad física y mental. Pérdida de la orien-tación, alucinaciones. Trastornos de compor-tamiento.

10

"Agentes neurotóxicos

Acción bioquímica: Inhibición de la colinesterasa e inhibición de numerosas enzimas importantes (peptidasas, oxidasas, lipasa, amilasa. . . )

Síntomas: Trastornos de la visión y respiración. Náuseas. Vómitos, calambres, trastornos de comportamiento, coma, convulsiones, asfixia. Los VX pueden permanecer activos sobre el terreno hasta 16 semanas.

Código Nombre vulgar, nombre Mpdo de expan-US Army y fórmula químicos Vo n & ™ , a

de protección).

GA Tabún o trilón

i C H ^ — U ^ X C N

dimetilaminociano-fosfato de etilo.

GD

VX

Líquido, gas o aerosol. (escafandra autónoma).

GB Sarín

c h 3 x

.-CH —O O

CH3/ \ F

metil-fluorofosfato de isopropilo.

Líquido o gas (escafandra autónoma).

Somán

CH3

I • CH,— C — CH — O. O

I I

Líquido, gas o aerosol. (escafandra autónoma).

CH3 CH3 CH.

C,HS— O

CH. / ^ Ir

ffi S —CH2 —CHS N(CH3)3

Metil-S (2-dietilaminoetil) Líquido o aero-tiolfosfato de etilo sol. (bromhidrato)

Fitocidas

y esterilizantes del suelo

Defoliantes 2-4-D

O —CHa — CO — O — (CHS

C1

-CH,

n-butil ester del ácido Ci 2,4-diclorofenoxiacético

2-4-5-T O — CHj — CO— 0— (CH2)3— CH3

Cl

n-butil ester del ácido 2,4,5-triclorofenoxiacético

Picloram

ácido 4-amino 3,5,6-tricloro picolínico

"-COOH

cacodilato de sodio <CR,}2AS—-0 — ONa

endotal

3,6-endoxo-hexahidroftalato de sodio © ,COONa

"COONa

2-4-DNP

2,4-dinitrofenol ' OH

Ó NOj

NOj

Esterilizantes del suelo DNOC

4,6-dinitro-2-metilfenol

OH

NO2

-OH,

Monurón (CMU)

N- (cloro-4,feníl) N',N'-dimetilurea

o = c

\

> Bromacilo

bromo-5,butil-3,metil-6, uracilo

CH. I '

CH,—CH,—CH—N"

11

Establecimientos militares y actividades Instalaciones

(en millones de dólares)

Presupuesto de funcionamiento (en millones de

dólares)

Personal

Arsenal de Edgewood (Maryland) Centro de investigación de las armas químicas. Salarios de 1965: 46 millones de dólares. Arsenal de Pine Bluff (Arkansas) Centro de producción de armas biológicas, de CS y BZ. En 1969: 2.720 toneladas. Arsenal de Denver (Colorado) Producción de sarín: 10.900 toneladas en depósito. Fábrica de Newport (Indiana) Producción de VX. Polígono de ensayos de Dugway (Utah) Ensayos de armas químicas y biológicas.

300

175

200

13,5

228 (1968)

19 (1965)

3,5 (1962)

15

4.500 (1965)

1.800

1.600

Figura 5. El precio de la guerra química. Contrariamente a lo que se supone, las armas químicas y bacteriológicas son sumamente costosas. La necesidad^ de rigurosas medidas de seguridad, la automatización de un gran mímero de operaciones y un personal altamente especializado que percibe salarios elevados, aumenta su precio en forma considerable. El cuadro proporciona algunas

cifras para los Estados Unidos: el presupuesto de la guerra química sería, según la SIPRI Yearbook, 1968-69 "muy superior a los 550 millones de dólares". A simple título de comparación, digamos que la ayuda piiblica total de los países ricos al tercer mundo, para el año 1968, se aproxima a los 6.300 millones de dólares. (Informe del Comité de ayuda al desarrollo de la OCDE, 1969)

fisura palatina en el ratón, una elevación de la relación del peso del hígado con respecto al peso del cuerpo en los fetos de ratones y hemorragias gastrointestinales en fetos de ratas. Se están realizando investigaciones para determinar si estos efectos se deben a una impu-reza contenida en el producto comercial "naranja" o "púrpura", el 2,3,7,8-tetraclorodibenzo-p-dioxina1. _ Otro ejemplo del efecto de un aumento en la do-

sis aplicada lo proporciona la utilización del CS, cuyo usó se expandió en Vietnam a partir de 1964. En 1969 el ejército norteamericano compró para sus tropas 2.800 toneladas de CS en 23 tipos de municiones diferentes, desde las granadas de mano hasta las bombas para avio-nes pasando por los obuses de 155 mm y las granadas de acción retardada. Ha sido puesta a punto una bomba especial para insuflar el polvo CS en los refugios sub-terráneos (figura 6) . De este modo la dosis letal, de 25 a 150 g/mn/m3, es fácil y ampliamente superada. Por otra parte las víctimas son, con bastante frecuen-cia^ débiles y subalimentadas: ancianos, niños y mujeres encintas encerrados en los tormentos de una guerra que dura desde hace treinta años. Mientras que en los paí-ses de Europa y América las granadas con CS utilizadas en motines y demostraciones callejeras, al aire libre, por lo general no provocan intoxicaciones mortales (fi-gura 10).

Se puede deducir que las sustancias aún relativamen-te poco tóxicas se vuelven mortales si se las adminis-tra en gran cantidad y repetidamente. Si se ha hecho, .no ha sido justamente por azar, sino porque ello formaba parte de un plan minuciosamente preparado por los expertos, y la decisión de ejecutarlo no se debió a un cambio de humor de alguna autoridad. Este sistema se

1 K. D. Courtney et al, Science, 168, 864, (1970).

12

inspira, en efecto, en la teoría de la guerra total de Ludendorff, según la cual "los mejores medios a em-plear para quebrar la voluntad anímica de resistencia del pueblo enemigo, son la destrucción de la economía y de la población adversaria".

Con el correr de los años y a medida que la guerra se agravaba, los cerebros del ejército norteamericano, ayudados por investigadores de la industria y hasta por algunas universidades importantes, prepararon y ensa-yaron armas^ y equipos cada vez más mortíferos. La tecnología bélica realizó enormes progresos gracias, por una parte, a los colosales créditos a su disposición, y por otra a las condiciones muy variadas y reales ("l ive"!) en las que fueron realizadas las experiencias. Nadie duda que los investigadores militares norteamericanos han ex-traído de las informaciones recogidas en Vietnam, a cos-ta de la tierra y de toda la población, "preciosas ense-ñanzas que conducirán seguramente a otros "estudios interesantes" y a otras experiencias.

El escenario de un ataque químico

En Vietnam no se ha utilizado la totalidad de las ar-mas y las reservas disponibles; sin embargo, los ex-pertos y científicos consultados por la Organización Mundial de la Salud previeron el caso de que dos po-tencias en guerra utilicen sus armas químicas.

Ellos imaginaron diversas situaciones provocadas por un ataque químico (figura 12).

Por otra parte, se pudo evaluar el número de perso-nas expuestas al VX si la línea de ataque está situada a 1 km del centro de una ciudad de 5.000 000 de

u n p a í s industrialmente desarrollado: son 150.000. 80.000 morirán antes de que se los pueda

DIRT PILEO ON EDGE OF PONCHO TO INSURE A GOOD SEAL

Figura 6. La "migbty-mite" es una bomba muy potente que permite insuflar en los refugios subterráneos, grutas o túneles, un chorro de aire cargado de polvo de CS a una velocidad de aproximadamente 300 kilómetros por hora. Las dosis masivas utilizadas, así como la extrema velocidad

TUNNEL ENTRANCE UNOER PONCHO

de dispersión del polvo, hacen que esta arma sea casi siempre mortal para las mujeres, niños y ancianos ocultos en los refugios y también para los_ guerrilleros desprovistos de máscaras. (Dibujo extraído del Manual antiguerrilla del ejército norteamericano. Documento RDV).

Agente Composición Concentración

en equivalente de ácido (g/1)

Tasa de aplica-ción (kg/lia)

Vietnam USA

Efectos deseados

naranja ester de n-butilo de 2,4D (50) ester de n-butilo de 2,4,5D (50)

478,8

421,8 30,25 2,24

Defoliación general de bos-ques, matorrales y plantas de cultivo de hojas anchas.

púrpura ester de n-butilo de 2,4D (50) ester de n-butilo de 2,4,5T (30) ester de isobutilo de 2,4,5T (20)

478,8

250,8

171,0

Defoliación general como la precedente. Producto inter-cambiable con el agente na-ranja.

blanco sal de triisopropilamonio de 2,4D picloram

228,0 61,5

6,72 0,56-2,24 Defoliación de los bosques a largo plazo.

azul cacodilato de sodio (27,7) ácido cacodílico libre (4,8) cloruro de sodio agua

353,4 10,42 5,6-8,4

Defoliación rápida a corto plazo, destrucción de pastiza-les y arrozales.

Figura 7. Composición química, tasa de aplicación y efectos de los herbicidas. Datos proporcionados

por los Ministerios de Defensa y Agricultura ae tos Estados Unidos. (Según G. H. Orians y E. W. P f e i f f e r ) .

13

Figura 8. Defoliación en la selva vietnamita. Los herbicidas y defoliantes se convirtieron, en manos de los expertos militares, en armas devastadoras que transforman ios campos en regiones desérticas.

Figura 9. Superficie de selvas defaliadas y cosechas destruidas en Vietnam, según los cálculos de la fuerza aérea norteamericana, citados por Orians y P f e i f f e r (Science, 168, 545, 1970) y por Meselson (Scientific American, mayo de 1970, 22). En Vietnam del Sur, la superficie total de las selvas es de aproximadamente 5,6 millones de hectáreas y la de las tierras cultivadas alrededor de 3,2 millones de hectáreas.

14

SUPERFICIE ( 1 0 0 0 HA)

1 9 6 2 1 9 6 3 1 9 6 4 1 9 6 5 1 9 6 6 1 9 6 7 1 9 6 8

socorrer y 35.000 tal vez puedan salvarse si se les suministra rápidamente atropina y un e n é r g i c o trata-miento de recuperación. Los restantes 35.000 quiza_ lo-gren salvarse gracias a los medicamentos y a tratamien-tos eficaces" (informe del OMS).

En un caso semejante, ¿podemos imaginar que se pueda intervenir a tiempo (es decir en p o c o s minutos) entre decenas de miles de personas inmovilizadas en los embotellamientos provocados con toda segundad por el pánico v la muerte de los conductores alcanza-dos en plena marcha? Los mismos hospitales serian contaminados, los médicos y el personal muertos, ¿be contaría con suficientes salvadores bien equipados? Es-tos necesitarían, en efecto, escafandras especiales, her-méticas, con las que los movimientos y el tamo de acción se ven necesariamente limitados. ¿Adonde se-rían transportadas las personas afectadas y por b tan-to portadoras del veneno? La zona afectada serw mor-tal durante un período de 1 a 16 semanas, según las condiciones climáticas. Finalmente, el número de muer-tos superaría el mencionado en el informe de la ÜMjs. ¿Qué hacer entonces con un número tan elevado de cadáveres? En realidad, los efectos de un ataque de este tipo, lanzado sin embargo con tan pocos medios —un solo bombardero, 20 toneladas de bombas— se-rían verdaderamente aterradores y cabe preguntarse si habría realmente sobrevivientes después de una guerra real, en la que no se escatimarían toneladas. El Gobier-no del país y los órganos superiores de la organización administrativa podrían contarse entre las primeras vic-timas y así, de golpe, el país entero se vería sumergido en el caos más profundo,

Figura 10. El gas CS no sólo se utiliza en los campos de batalla; como agente de hostigamiento, se ha convertido en una de las armas principales para la represión de manifestaciones. Muchos biólogos y médicos han cuestionado su empleo, en razón de sus conocidos efectos secundarios y de los riesgos que puede presentar si se lo utiliza en dosis elevadas. Su empleo por parte de la policía parece tener efectos más bien contrarios a los esperados, provocando la exasperación de los manifestantes y la reprobación general de los testigos. (Foto líenri Bureau-Gamma)

En consecuencia, no sería exagerado afirmar que el arma química puede ser tan devastadora como la nu-clear. ¿Quién la posee? En primer lugar los Estados Unidos y la Unión Soviética, después Gran Bretaña, Suecia y probablemente otros países provistos de una industria química y fábricas de armamentos importan-tes, tales como Francia e Italia. Tanto las dos Alema-nias como Japón podrían, si lo juzgasen necesario, ad-quirirla rápidamente. Y nadie duda que ciertos países harían lo posible para fabricarlas de inmediato o por lo menos para adquirir la tecnología, aun cuando ello les signifique la imposición de nuevas privaciones, ya que si bien no se puede comparar con el arma ató-mica, su costo es aún relativamente caro.

Desde el momento que las armas nucleares, biológi-cas y químicas existen y son operativas, debemos re-signarnos a analizar los riesgos a los que estamos ex-

15

S = 40 Km2

15 20 niebla mortal

S = superficie cubierta por vientos de 2,5 m/s

Figura 11. Efectos de un ataque efectuado en un frente de 2 km utilizando hasta 4 toneladas de agentes químicos cuyo lanzamiento exige de 15 a 20 toneladas de proyectiles. Estos se colocan en un frente perpendicular a la dirección media del viento y explotan a nivel del suelo. El aerosol de VX es supuestamente monodisperso y estaría compuesto por partículas de 5 micrones de diámetro. (OMS, 1970.)

puestos, mediante una especie de Kriegspiel, de simu-lación analógica o de escenario. Del examen de la lista de la OMS y sobre todo de la clasificación militar, se desprende que dominan los agentes letales, seguidos por los agentes de hostigamiento o neutralizantes y un solo incapacitante psicotrópico. Supongamos que dos potencias industrializadas quisieran enfrentarse. La fi-fura 12 presenta las situaciones posibles.

Se puede comprobar que el arma química letal (VX) si bien no es un "arma de papel", no podría servir pa-ra mucho en el caso de dos países muy poderosos pero situados a unos 8.000 km uno del otro y de fuerza equivalente. En el mejor de los casos, podría interve-nir en una operación de represalia —en el caso de que ninguno de los adversarios posea armas nucleares— pa-ra sembrar el terror en el campo enemigo.

La situación podría cambiar si A y B fuesen vecinos inmediatos. A podría utilizar neutralizantes y agentes letales, si no sobre las ciudades, por lo menos contra las concentraciones de tropas en el frente. Pero, en realidad, en el mundo actual, habiendo armas atómicas tácticas, el agredido tal vez no quiera perder tiempo en preparar con esmero su respuesta. Lanzará un ki-lo tón nuclear, tanto más que la opinión pública así lo exigirá por conocer las terribles consecuencias de un ataque químico. Estamos así en el caso de la guerra nuclear. Si B no posee armas nucleares, tendrá un protector que se las proporcionará o ejercerá él mismo las represalias sobre A, rápidamente. De este modo volvemos al caso precedente.

Si con el arma química se ha pensado poder perma-necer en un grado de violencia aceptable para el ad-versario y evitar la agravación del conflicto, se ha caído en el error de acunar peligrosas ilusiones. El arma química o biológica servirá más bien como detonador

16

para la gran conflagración final. Nadie duda que en ese caso la humanidad asistirá a su propio fin. En efec-to, es necesario recordarlo ya que la opinión pública lo olvida con demasiada facilidad, los Estados Unidos y la Unión Soviética disponen actualmente de 3.854 y 2.155 ojivas operativas, respectivamente y si no inter-viene ningún acuerdo de limitación ellos habilitarán la red de los MIRV (Múltiple independently targeted reentry vehicle), cohetes cuyas ojivas múltiples pueden dirigirse sobre objetivos diferentes, independientemen-te unas de otras. Hacia 1975 estas dos potencias po-seerán en conjunto 16.559 ojivas, que permitirá des-truir un país 66,2 veces más grande que cualquiera de ellas. De esta manera, el arma química y bacterio-lógica es, por la ley de simetría que rige la carrera ar-mamentista y las respuestas en caso de agresión, tan utilizable como el arma nuclear entre grandes potencias o alianzas equivalentes.

Esto es exactamente lo que piensa un gran número de científicos y políticos norteamericanos. Ante la Aca-demia de las Ciencias de Nueva York, reunida el 13 de octubre bajo la presidencia del profesor Meselson, de la Universidad de Harvard, H. Swyter, alto fun-cionario del Ministerio de Guerra, declaró que una guerra en Europa es sumamente improbable. El con-cluyó que aparte de las armas letales, que en rigor se podrían conservar como medio de disuasión o de re-presalias, los Estados Unidos no necesitan ni armas químicas ni bacteriológicas.

En la última conferencia de Ginebra, Estados Uni-dos y Gran Bretaña no desearon suscribirse a la abo-lición ni a la prohibición del arma química en todas sus formas, aconsejadas por los mismos científicos norteamericanos. Estas dos potencias desean guardar-se el derecho de utilizar a voluntad, tanto en sus paí-ses como en el extranjero, los lacrimógenos (CS, DM) y los herbicidas. Hay que señalar que son estos justa-mente los productos utilizados en Vietnam, en condi-ciones que los hacen mortales. En consecuencia, si los estados mayores así lo consideran y si su oposición en la conferencia de Ginebra fue tan grande, es que en realidad el arma química constituye un elemento im-portante, si no esencial, de una estrategia moderna so-bre la cual el estudio de la historia de los últimos cua-renta años nos proporciona valiosas enseñanzas. Las armas químicas fueron utilizadas, lo hemos visto, en Etiopía y en China. ¿Pía sido casual que en ambos ca-sos los agresores —asociados en una alianza que com-prendió la Alemania de Hitler, la Italia mussoliniana y el Japón militarista—• fueran poderosos, mientras que sus víctimas eran países agrícolas atrasados desde el punto de vista industrial? Si consideramos objetiva-mente la actual guerra de Indochina, nos vemos obliga-dos a reconocer que el arma química está manejada bajo un camuflage semántico por la mayor potencia del mundo contra países también esta vez subdesarrolla-dos, desprovistos de industrias.

La "diseminación química" puede ser muy peligrosa para la humanidad; tenemos motivos para creerla aún más peligrosa que la diseminación nuclear.

¿Qué hacer?

¿Qué pueden hacer los científicos del mundo ante el peligro que representan las armas químicas y bacterio-

Sarín

VX

dirección del viento » | I l

, Sr: 2 KrnJ

i

= 6 Km2

Toxina botúlica

VX en aerosol

¡gfljf i = 12 Km2

0 5 10 distancia de propagación de la

Ataques de A Armas disponibles en cada campo AN AN + AC AC y (*'•• ) AC sin ICBM (***)

Ataque por AC (ICBM) ICBM

AN » AN AN (*) AN (*) AN

AN4- AC o

"O tn ra

AN AN (*) AN (*) AC (ICBM) o AN

AC + ICBM <u 3 a AC? AC? AC AC

AC sin ICBM cu « O O AC (***) AC (***)

AN = arma nuclear AC = arma química ICBM = cohete intercontinental. (••') El sistema de alerta de B no le permite distinguir si un proyectil es químico o nuclear.

(**) Históricamente este caso no tiene sentido, ya que las potencias que poseen los ICBM (cohetes intercontinen-tales) también tienen armas nucleares.

{***) Ataque aéreo o por submarinos, a lo largo de las costas, mediante cohetes de doble alcance.

lógicas? ¿Habría que renunciar a toda investigación sobre los productos tóxicos? ¿Habría que denunciarlos? ¿Quién lo hará? Hemos mostrado toda la ambigüedad de la noción de toxicidad en los casos relacionados con el tema. Hemos mostrado también que los pro-ductos tóxicos no se convierten en armas bélicas si no es por una decisión no solamente técnica sino esen-cialmente política. De todo lo dicho se desprende la necesidad de que los investigadores se informen sobre los peligros señalados, que tomen conciencia de su gran responsabilidad ante todos los hombres y que no den como pretexto de su debilidad la necesidad de refu-giarse en sus trabajos. La comunidad científica nor-teamericana, que merece un sincero homenaje, demos-tró que una acción informativa, determinada y pacien-te, puede conducir a progresos importantes. El Pre-sidente de los Estados Unidos, después de señalar que ella ayudó al Gobierno a formarse una opinión al res-pecto, anunció el 25 de noviembre de 1969:

1?) que los Estados Unidos reafirman su renuncia, repetida con frecuencia, al uso de armas químicas letales;

2?) que extienden esta renuncia al uso de los inca-pacitantes químicos;

3°) que su administración someterá a consideración del Senado la ratificación del Protocolo de Ginebra de 1925, que condena el uso de gases asfixiantes, tóxicos u otros y los métodos de guerra bacteriológica;

4°) que ha decidido que los Estados Unidos re-nunciará a todas las formas de guerra biológica, leta-les o no;

5°) que limitarán sus investigaciones a medidas de-fensivas tales como la inmunización y la seguridad;

6?) que pidió al Ministerio de Guerra proponer la destrucción de las reservas existentes de armas bac-teriológicas.

Debemos congratularnos por tales intenciones y ad-herirnos a otra proposición del Gobierno norteamerica-no, del año 1952, que dice que "las principales garan-tías contra las armas biológicas —nosotros agregamos las armas químicas— se lograrían mediante un sistema continuo y efectivo de divulgación y verificación de to-das las fuerzas armadas y de todos los armamentos", nosotros incluiríamos los centros y programas de inves-tigaciones y los campos de ensayo. La ONU, que ya ha trabajado en este sentido, debería encargarse de di-chas verificaciones, ella debería también centralizar la

Figura 12. Situaciones hipotéticas de una guerra química. "A" ataca con las armas de que dispone (arriba); las posibles respuestas de "B" están indicadas en las casillas inferiores. Se supone que la distancia del centro de A al centro de B es de 8.000 km.

documentación y publicarla. Y una de las medidas más útiles, una de las demostraciones más convincentes del retorno a la razón, sería la detención definitiva —y no la simple suspensión— del uso de productos fitocidas y del empleo de los incapacitantes en Indochina, Ade-más, nos gratificaría enormemente presenciar el día en que todas las naciones prohiban, sin ninguna reserva, la fabricación, el almacenamiento y la utilización de armas químicas y biológicas.

En este mundo armado hasta el exceso de artefactos de muerte y de destrucción masiva, la paz depende, es necesario repetirlo, del esfuerzo de cada uno. La co-munidad científica no debe avergonzarse de experimen-tar un sentimiento de solidaridad humana, sólo porque sea irracional. Debemos reafirmar, con el profesor Mo-nod que "lo más valioso y grande de la ciencia reside en la ética que es su fundamento. ( . . . ) La ciencia es ante todo una actitud moral".O

Lecturas sugeridas

Nigel Calder, Les armements modernes, Flammarion, 1970.

General Ludendorf, La guerre totale, Flammarion, 1936. Naciones Unidas, Las armas químicas y bacteriológicas

(biológicas) y los efectos de su eventual utilización, N? A 7575/Rev. 1, Nueva York, 1969.

M. S. Meselson, Scientific American, 222, 22, 1970. S. Franke, Lehrbuch der Militarchemie, Deutscher Mili-

tarverlag, Berlín, 1967. A. Albert, Selective íoxiáty, cuarta edición, Methuen,

Londres, 1968. G. H. Orians y E. W. Pfeiffer, Science, 168, 545, 1970. M. S. Meselson, G. Bunn, H. Swyter y E. L. Bennett

Jr., "A symposium on chemícal and biological warfare", Proc. Nat. Acad. ScL, 65, 250-279, 1969.

J . Cookson y J , Nottingham, A survey of chemical and biological ivarfare, Sheed y Ward, Londres, 1969.

Humor Julio Moreno

l a

ÜKÍ'"

El agua líquida.

Roberto Fernández Prini

1

/

¡ •j

3

¿Conocemos bien el agua? Esta pregunta puede parecer sorpren-dente. Sin embargo, el gran nú-mero de investigaciones realiza' das y en curso de realigación sobre su estructura y sus propie-dades, indica que aún tenemos mucho que aprender sobre esta sustancia fundamental para la vida sobre la Tierra.

Roberto Fernández Prini es Doctor en Química de la Facultad de"Ciencias Exactas de la UBA y recientemente realizó investigaciones sobre soluciones acuosas en el Departamento de Química de la Universidad de Maryland, EE.UU.

Debido al papel fundamental que el agua desempeña en los procesos bio-lógicos y en muchos procesos tecno-lógicos, se ha dedicado un esfuerzo mayor a su estudio que al de ninguna otra sustancia. Los alquimistas acep-taron el concepto aristotélico de los cuatro elementos que forman la ma-teria y explican sus transformacio-nes: uno de estos elementos era el agua, Podría parecer que el agua es una sustancia que no concita interés científico en un siglo como éste, ca-racterizado por tan vertiginoso ade-lanto científico y tecnológico. Sin embargo, este líquido tan común muestra características muy peculia-res. Recién en 1933 se propuso el primer modelo del agua líquida y ello significó un gran avance en nues-tro conocimiento de tan importante compuesto.

En nuestros días el elevado nú-mero de trabajos científicos que se publica anualmente y que trata sobre propiedades del agua o de soluciones acuosas, es un claro índice del inte-rés que el tema despierta hoy en los científicos y del ñúmero apreciable de problemas que no están aún com-pletamente dilucidados.

En esta nota sólo nos referiremos al agua pura dejando de lado el im-portante capítulo de las soluciones acuosas. La reciente descripción del agua anómala o poiiagua, no convie-ne incluirla en un mismo contexto con el agua común, debido a sus cu-riosas propiedades y a su controver-tida existencia.

¿Es un líquido normal?

En general se afirma lo contrario. El agua es "anormal" en el sentido

que muchas de las propiedades que manifiesta el líquido agua no son comunes a otros l íquidos que se de-nominan simples o normales. El agua es Ja única sustancia en estado líqui-do con que estamos familiarizados a través de la experiencia diaria. Esto seguramente contribuye a dificultar la comparación de sus propiedades con las de otros l íquidos.

La más conocida propiedad anó-mala del HaO es que el sólido (hie-lo) tienen a la temperatura de fusión (0°C) una densidad menor que la del H « 0 líquida ( a g u a ) . La figura 1 ilustra la variación ele densidad del hielo y del agua l íquida con la tem-peratura. Que el hielo flote en el agua y que al congelar agua dentro de un recipiente cerrado muchas ve-ces éste reviente, son dos obvias con-secuencias del anormal aumento de volumen que sufre el agua al conge-lar (a 0°C el volumen molar del hielo es 19,6 cm3 y 18,0 cm3 el del agua). Aunque menos obvia, tam-bién ésta es la causa de la facilidad con que se puede patinar sobre el hielo así como del fenómeno cono-cido como resolidificación del hielo. Si apretamos fuertemente dos trozos de hielo uno contra el otro y luego dejamos de presionar, ambos trozos permanecerán unidos. Lo que ocurre es que al ejercer presión sobre el hie-lo (con el filo de ios patines o con otro trozo de hielo) , la fase menos voluminosa (agua l íquida) se estabi-liza respecto de la más voluminosa. En consecuencia, la temperatura de fusión del hielo disminuye y el só-lido comienza a fundir . Al quitar la presión, la temperatura de fusión vuelve a ser 0°C y el líquido for-mado se congela. Este hecho está cuantitativamente expresado por la relación termodinámica de Clapey-

19

Temperatura (SC)

Figura 1. Variación de la densidad del hielo y del agua liquida con la temperatura.

Figura 2. Variación de la viscosidad del agua con la presión, a la temperatura de 10°C.

Px10"3 Atm.

ron que para el equilibrio de fusión se puede escribir:

d (presión) ._ df _ AH/

d (temp. fusión) dTf ~ TfÁVf

donde AH/ es el calor latente de fu-sión del H 2 0 y AV/ el cambio de volumen que acompaña este proceso. Como en este caso AH/ es positivo y AV/ negativo, un aumento de pre-sión produce una disminución en la temperatura de fusión del H2O.

En general los líquidos simples son más viscosos cuanto mayor es la presión que soportan. El agua, sin embargo, a temperaturas menores de 30 °C disminuye de viscosidad al aumentar la presión (figura 2) . La compresibilidad del agua también es anómala pues presenta un mínimo a 45°C, y sólo después de alcanzar esta temperatura la compresibilidad aumenta en el agua líquida al ser ca-lentada, como ocurre en los líquidos simples.

También se observan anomalías en las propiedades térmicas del agua. Su punto de ebullición y su calor la-tente de vaporización (9,7kcal. por mol.) son mucho mayores que lo es-perado. Al fundir el hielo la capaci-dad calorífica del HaO prácticamen-te se duplica.

20

Unión hidrógeno

En la molécula de agua, el ángulo

H /

O es de 105° en el vapor y 109° \

H

(el ángulo tetraédrico) en el sólido. Debido a la electronegatividad del átomo de O, los electrones involu-

V K / 1

5+ '•..'-. \

5 +

O Oxígeno

# Hidrogeno Figura 3. Estructura de la molécula Hs0.

erados en las uniones O—H están desplazados hacia el oxígeno. Por otra parte, el oxigenó tiene dos pa-res de electrones solitarios (que no intervienen en las uniones quími-cas), fundamentalmente localizados en un plano perpendicular al plano

H /

O (figura 3) . La molécula de \

H HaO tiene por lo tanto un momento dipolar permanente de 1,84 X 10"1S

ues. cm. Cuando la concentración de molé-

culas de HaO aumenta, aún en fase gaseosa, la interacción entre los di-polos de moléculas vecinas contri-buye significativamente al valor ex-perimental del segundo coeficiente de virial del vapor de agua; este coeficiente manifiesta las primeras desviaciones de los gases de la idea-lidad.

En el líquido y en el sólido la gran proximidad entre las molécu-las produce una interacción inter-molecular mucho más fuerte que en el vapor. Esta ya no puede expli-carse por interacciones entre los di-polos moleculares; en la orientación más favorable de los dipolos (un caso poco real pero que sirve para

•i•"ísk-SP;/- 5SSÍBÍ ^ - í ' ^ i s - f - i » , ! ^

O £ ra o

c 'O o ra

"CZ o a ra > o "D

O ra

O

4

t o

i

o Of

-o ' o

X I a>

100

0 -

| -100 £

H,0

-T-2

—j— 3 —r

4 Período

TeH2 SbH3 IH SnH4

"i r 2 3

Figura 4. Comparación entre las temperaturas de ebullición y los calores de vaporización de bidruros de elementos pertenecientes a distintos grupos de la tabla periódica.

Período

fijar una cota máxima a la energía dipolar) las interacciones dipolares harían esperar un calor latente de sublimación de 2 kcal. por mol. Es-te valor es mucho menor que el experimental de 12 kcal. por mol. Esta diferencia energética se atribu-ye a la presencia de uniones hidró-geno entre las moléculas de HaO.

La existencia de uniones hidróge-no fue postulada en 1920. Bragg, en 1922, infirió de diagramas de rayos X que en el hielo debía haber unio-nes hidrógeno del tipo -O-H . . . O-(el trazo lleno representa uniones covalentes, el punteado uniones hi-drógeno ). Para que se formen unio-nes hidrógeno del tipo -X-H.. .Y-es necesario que X e Y sean átomos muy electronegativos. Las uniones

• hidrógeno típicas son aquellas en que X e Y son átomos de flúor, oxí-geno o nitrógeno. En términos elec-

trostáticos puede decirse que la unión hidrógeno se forma porque hay un déficit de electrones sobre el átomo de hidrógeno unido cova-lentemente al átomo electronegativo X. Es decir, la unión X-H está po-larizada, Al acercarse otra molécula con el átomo electronegativo Y, el H es atraído hacia Y; cuando ambos átomos están suficientemente cerca se forma la unión hidrógeno.

En el agua la unión -H . . . O- es tal que el H está más cerca del oxí-geno al que está unido covalente-mente. Cada unión hidrógeno invo-lucra una energía de entre 2 y 6 kcal. por mol. de uniones hidrógeno rotas. Por lo tanto son bastante más dé-biles que las uniones típicamente químicas, pero más fuertes que las interacciones electrostáticas entre dipolos.

El efecto de la formación de unio-nes hidrógeno sobre las propieda-des físicas de las sustancias se mani-fiesta claramente al comparar una serie de sustancias con átomos de un mismo grupo de la tabla perió-dica (Figura 4). Las temperaturas de fusión y ebullición, y los calores latentes de vaporización de los hi-druros, disminuyen en general al dis-minuir el peso del átomo central den-tro de un grupo dado. Sin embargo, los hidruros de los primeros miem-bros de cada serie, excepto el meta-no, tienen valores mucho mayores de estas propiedades que las que ca-bría esperar en base a sus pesos mo-leculares, Justamente son los ele-mentos que encabezan cada grupo los que cumplen con las condiciones de electronegatividad requeridas para la formación de uniones hidrógeno. El C que encabeza el grupo IV no pre-senta anomalías porque este átomo no es lo suficientemente electrone-gativo.

La estructura del hielo

Como ilustra esquemáticamente la Figura 3, el oxígeno del HaO puede considerarse en el centro de un te-traedro con los H en dos de sus vér-tices y los dos pares de electrones no compartidos dirigidos hacia los otros dos vértices del tetraedro. Es-ta configuración permite que cada molécula de H2O participe de cuatro uniones hidrógeno: donando sus dos hidrógenos a otras tantas mo-léculas y aceptando dos hidrógenos de moléculas vecinas.

21

n p f , P f o c e s o d e formación de unio-nes hidrogeno entre un número ca-

t n - r d e moiécuias de üata luga i a una estructura tridi-mensional donde cada H>0 está en el centro de un tetraedro'cuyos vér-tices están ocupados por moléculas ae agua que forman uniones hidró-geno con la central. La Figura 5 i lustra la estructura cristalina del hielo. Debido a que dos uniones hi-drogeno deben romperse por molé-cula para sublimar el hielo, la exis-tencia de uniones hidrógeno en el hielo explica el gran calor de subli-mación del H2O. Como muestra la Figura 5, la estructura cristalina del hielo es muy "abierta" . Cada mo-lécula t iene sólo cuatro vecinos in-mediatos (o primeros vecinos), mientras que en una estructura cris-talina con máximo empaquetamien-to, cada molécula tiene 12 primeros vecinos. Para una red cristalina con máximo empaquetamiento, las par-tículas (consideradas esféricas) acu-pan el 75 % del volumen total de la estructura. Por otra parte, sólo el 50 % del volumen de una red cris-talina tetraédrica está ocupada por sus partículas. Una importante ca-racterística de la estructura cristali-na del hielo es la existencia de cavi-dades que forman canales a lo largo de la red cristalina. Las cavidades es-tán comunicadas a través de anillos hexagonales como el a, b, c, d, e, f en la Figura 5, y tienen un radio de 3 . 5 A ( l A = 10-° metro) . La distancia entre dos HjO vecinas en el hielo es de 2 .78 A .

La estructura cristalina abierta del hielo (que corresponde a la va-riedad cristal ina del SiOa conocida como t r id imi ta ) , explica su baja den-sidad.

La es t ruc tura del agua

¿Cuál es la estructura del agua lí-quida? A pesar del enorme esfuer-zo dedicado a esclarecer este pro-blema, aún no está resuelto aunque mucho se ha avanzado hacia el es-tablecimiento de la estructura del agua l íqu ida .

En 1892 Rontgen propuso una explicación de las propiedades anó-malas del agua. Para ello, supuso que el agua era en real idad una so-lución de moléculas con la estructura intermolecular presente en el hielo disueltas en agua l íquida (moléculas de H a O sin asoc iar ) . Este modelo cual i tat ivo lia s ido reformulado de-

22

Figura 5. Estructura cristalina del hielo.

talladamente por distintos autores y hoy forma la base de los modelos de mezcla para el agua líquida.

El alto punto de ebullición del agua y su gran calor latente de va-porización permiten inferir que en el líquido todavía existe un gran numero de uniones hidrógeno entre las moléculas. Para vaporizar agua es necesario romper estas uniones in-termoleculares. Debido a las eviden-cias que indican que en el agua lí-quida persisten en gran medida las uniones hidrógeno existentes en el hielo, es que muchos modelos su-ponen la presencia de estructuras cristaloides en el líquido, Esta es-peculación está fundamentalmente basada en los resultados obtenidos mediante experiencias de difracción de rayos X por el agua.

•Esta técnica permite calcular la función de distribución radial g ( R ) de las moléculas de agua. Si R es la distancia en el líquido desde una molécula central dada, el número medio de moléculas, dn, en el cas-quete esférico de radio R y espe-sor dR es

¿« = 4nR2^(R) dR

£0 es la densidad de partículas en el seno del líquido y g ( R ) la función de distribución radial. Cuando las moléculas están distribuidas al azar g ( R ) = 1 y la densidad del líquido a cualquier distancia de la molécu-la central es %0: la distribución de las moléculas es homogénea. En ge-neral en un líquido es g ( R ) = 1 en los casquetes esféricos muy aleja-dos de la molécula central. Las ca-racterísticas de g ( R ) dependen del

tamaño y forma de las moléculas así como de las energías intermolecula-res que están en juego. En un líqui-do, donde las moléculas tienen gran movilidad, es lógico que al alejarse de una molécula central, la influen-cia de ésta sea cada vez menor. Pot-es to g ( R ) se hace igual a la unidad para valores de R grandes. Sin em-bargo en las cercanías de la molécula central g ( R ) 1. Valores de g ( R ) mayores que la unidad indican una densidad local mayor que l 0 y lo opuesto es válido para g ( R ) < 1

En un sólido cristalino (como por ejemplo^ el hielo), las posiciones de las moléculas están relativamente fi-jas por el tipo de red cristalina que caracteriza al sólido. En un líquido, las moléculas tienen gran movilidad y esto hará que se pierda en gran medida el orden existente en el cris-tal. La Figura 6 muestra el valor calculado de g ( R ) en función de la distancia a una molécula central pa-ra H s O a 25°C.

Como adelantáramos, a grandes distancias g ( R ) se aproxima a un valor unitario. En las regiones más cercanas a la molécula central, sin embargo, g ( R ) es distinta ele la uni-dad lo que demuestra que existe un cierto grado de orden (orden de corto alcance). El primer máximo de g ( R ) corresponde a la distancia donde se encuentran en promedio los primeros vecinos (2.8 A ) que es muy cercana a la distancia entre primeros vecinos en el hielo. El se-gundo máximo se encuentra a una distancia similar a la de los segun-dos vecinos en el hielo. En el líquido hay en promedio 4,4 primeros veci-nos, lo que implica un 10 % de aumento respecto a los 4 vecinos en la estructura tetraédrica del hielo. Es por lo tanto evidente que el or-den de corto alcance observado en el agua es reminiscente de la estructu-ra cristalina del hielo. Una diferen-cia entre ambos se manifiesta en la existencia de un pequeño máximo a 3.5 A en el líquido que está ausente en el sólido.

Los modelos de mezcla

Bernal y Fowler (1933) basándose en experiencias de difracción de ra-yos X, elaboraron en detalle un mo-delo de mezcla para el agua. Ima-ginaron que el agua está constituida por un componente con estructura cristalina de simetría tetraédrica y un componente formado por mole-

Figura 6. Valor de la función de distribución radial en el agua, g(R)¡ en función de la distancia R a una molécula H-¿0 central, a la temperatura de 25°C.

culas de HaO libres (que no parti-cipan en uniones hidrógeno). , Frank y Evans (1945) postularon un modelo de mezcla muy pictórico que describía al agua líquida como teniendo témpanos de hielo en el se-no de un fluido formado por H 2 0 libre. Este modelo fue especialmente utilizado para explicar ciertas pro-piedades de las soluciones acuosas.

Estos modelos de mezcla son capa-ces de explicar en parte las anoma-lías observadas en el agua.

En esencia, los modelos de mez-cla consideran que en el agua exis-te un equilibrio entre dos o más es-pecies de moléculas de HaO que son estructuralmente distintas. El equili-brio puede representarse esquemáti-camente por:

A ^ B ( I )

A denota una estructura de tipo cristalino, voluminosa y en general similar a la del hielo, donde las mo-léculas participan extensamente de enlaces hidrógeno. B denota la espe-cie densa o compacta representada por moléculas libres de H 2 0 sin uniones hidrógeno intermoleculares. Al proceder el equilibrio ( I ) , de iz-quierda a derecha, se produce una disminución en el volumen del sis-

tema y en el número de uniones hi-drógeno presentes. El equilibrio ( I ) es sensible a variaciones de presión y/o temperatura (así como a la pre-sencia de solutos). Estas variaciones perturban el equilibrio de acuerdo a las características del proceso se-gún el principio de Le Chatelier. U11 aumento de presión desplazará el equilibrio ( I ) hacia la derecha, fa-voreciendo la especie menos volu-minosa. En la misma dirección se desplaza el equilibrio al aumentar la temperatura: se rompen enlaces hi-drógeno. _ Cerca de 0°C prepondera la espe-

cie A. Al calentar el líquido tienen lugar simultáneamente dos efectos: a ) la especie cristalina se dilata, b ) el equilibrio ( I ) se desplaza hacia la formación de B que por ser más den-sa produce una disminución del vo-lumen del sistema. Hasta los 4°C predomina el segundo efecto v el re-sultado del incremento de tempera-tura será una reducción del volumen del líquido. A temperaturas mayo-res predomina el primer efecto, y el agua se dilata al ser calentada. Así se explica que el agua tenga máxima densidad a 4°C y que su comprensi-bilidad disminuya con la tempera-tura.

La fluidez del líquido aumentará con la fracción de moléculas de HaO libres (especie B ) , pues la especie A por sus características cristalinas debe ser muy rígida. Resulta lógico entonces, que un aumento de presión que estabiliza a la especie B, lleve a una disminución de la viscosidad del agua.

Por último, el gran calor específi-co del agua se debe al hecho de que para elevar su temperatura 110 sólo hay que entregar energía para au-mentar la agitación térmica de las moléculas, sino que además es nece-sario romper uniones hidrógeno de-bido a la existencia del equilibrio ( I ) .

Hasta aquí los modelos de mezcla parecen explicar satisfactoriamente la estructura y propiedades del agua. Sin embargo estos modelos son exce-sivamente rígidos para un líquido. Medidas de relajación dieléctrica y de relajación estructural (ultrasoni-do) , indican que cualquier equilibrio que exista en el agua pura debe es-tablecerse muy rápidamente (el tiempo de relajación del equilibrio ( I ) debería ser menor que ÍO"11 se-gundos a 25°C) .

Frank y Wen (1957) extendieron el modelo de los témpanos imagi-nando un proceso dinámico para el establecimiento del equilibrio ( I ) . El componente voluminoso fue de-signado con el nombre de cúmulo oscilante (flickering cluster). Las moléculas que forman parte de los cúmulos están unidas entre sí por uniones hidrógeno; la simetría de la especie es tetraédrica pero no tiene ya por qué parecerse a un trozo de hielo. La propiedad más novedosa asignada a estos cúmulos es su ca-pacidad de formarse y romperse muy rápidamente de acuerdo con un me-canismo cooperativo. Debido a que la formación de una unión hidró-geno entre dos moléculas produce una delocalización de los electrones involucrados en la unión, la forma-ción de una segunda unión hidróge-no se vería facilitada y así sucesiva-mente. La primera unión hidrógeno dispararía un proceso de formación de nuevas uniones hidrógeno alrede-dor de la primera y así se generarían los cúmulos. De manera análoga la ruptura de una unión hidrógeno-en el cúmulo desencadenaría la ruptura de todo el cúmulo. El esquema de formación y ruptura del cúmulo es el siguiente:

23

•„ „ H H H H H H H O H 4 - O -I I x o H ^ O — H . • • O — H + O—H ^ O - H . . . O - H . . . O - H

La existencia del e f ec to c o o p e r a t i v o en !a fo rmac ión de un iones h i d ró -g e n o no esi.í ; iún to t a lmen te estable-cida, pero r ec i en t e s e s tud ios t eór i cos í P o p l e y De lHene , .1970) p a r e c en c o n f i r m a r l a , por lo menos en gru-p o s de has ta se is mo l écu l a s de a g u a , E l mode lo d e los cúmu lo s osc i l an -tes í a e t r a t a d o c u a n t i t a t i v a m e n t e p o r Nérne thy y Seheraga ( 1 9 6 2 - 6 4 ) y tuvo p r o t u n d a in f luenc i a en las i d e a s q u e se m a n e j a r o n en q u í m i c a d e so luc iones acuosas , e spec i a lmen -te en sus a spec tos b io lóg icos .

E n Jos ú l t i m o s años e l e n o r m e r e f i n a m i e n t o de las técnicas e x p e r i -m e n t a l e s ( d i s p e r s i ó n ine l á s t i c a d e n e u t r o n e s , e spec t roscop i a s i n f r a r r o -ja y R a m a n , r a yos X ) ha p e r m i t i d o p o n e r en duela la ex i s t enc i a d e ag r e -g a d o s m o l e c u l a r e s d i sc re tos en e l •agua l í qu ida . El agua no p a r e c e fo r -m a d a por d i s t i n t a s espec ies p u e s t o q u e e x p e r i m e n t a l m e n t e no se obse r -v a n m i c r o r r e g i o n e s h e t e r o g é n e a s e n e l l í q u i d o ,

El modelo intersticial

Pople (1951) propuso un modelo continuo para el agua líquida. Al pa-sar de hielo a agua (o cuando ésta se calienta), las características es-tructurales del hielo se conservan, pero las uniones hidrógeno se defor-man doblándose, lo que permite así a algunas moléculas ocupar parte de las cavidades vacías existentes en el hielo.

El último tipo de modelo pro-puesto para el agua que analizare-mos es el modelo intersticial, for-mulado detalladamente por Samoi-lov ( 1957). Este modelo ha conci-tado mucha atención en los últimos años, especialmente por no tener características que estén en abierto conflicto con los resultados de las medidas experimentales más recien-tes .

Samoilov observó que el hielo no es el único sólido que al fundir se contrae. Esto es común también a elementos que, como el galio, bis-muto y germanio, tienen estructuras cristalinas abiertas con un número de primeros vecinos menor que 10. Según Samoilov la disminución de

26

volumen que se produce al fundir el hielo sería una propiedad común a la fusión de otros sólidos, a condi-ción que sus cristales correspondan a estructuras abiertas. Si se dispone una serie de esferas rígidas en una estructura que corresponda al máxi-mo empaquetamiento y el volumen de la estructura es V», al agitar el sistema (equivalente mecánico de aumentar su temperatura) se desor-denara la estructura y el volumen resultante V será necesariamente mayor que V„. En cambio si las es-feras se ordenan en una estructura abierta (por ejemplo tetraédrica), al agitar el sistema algunas esferas irán a ocupar los huecos que quedaban en la estructura primitiva. Si la agi-tación no es excesivamente brusca, V > V0; al aumentar la agitación V aumenta llegando eventualmente a sobrepasar V„.

El modelo intersticial propuesto por Samoilov es capaz de explicar casi todas las anomalías del agua. En este modelo el agua se imagina co-mo poseyendo la estructura del hie-lo aunque algo desdibujada debido a la agitación térmica y al gran mo-vimiento de las moléculas en el lí-quido. La estructura tiene defectos, pues algunas moléculas pueden pa-sar de los sitios que ocupaban en la red cristalina a las cavidades que existen en el cristal. Esto explica el gran aumento de capacidad calorífi-ca al fundir el hielo porque las mo-léculas intersticiales que aparecen al fundir pueden rotar libremente de-bido a que no tienen uniones hidró-geno con otras moléculas.

Puede pensarse que en el modelo intersticial el componente más volu-minoso de que hablan los modelos de mezcla es la red cristaloide que domina todo el líquido; las partícu-las intersticiales constituyen el com-ponente más denso. Hay sin embar-go una diferencia esencial entre el modelo intersticial y el de mezcla. En el primero no existen agregados moleculares que puedan caracterizar-se como especies distintas. En reali-dad el modelo intersticial es más bien un caso extremo del-modelo de Pople: hay uniones hidrógeno tan deformadas que permiten a algunas moléculas penetrar totalmente en las

cavidades y debido a su gran defor-mación puede considerarse que la unión hidrógeno está rota.

El modelo de Samoilov explica en forma muy natural el máximo observado a 3,5 A en Ja función de distribución radial que no existe en el hielo. A esta distancia se encuen-tran los centros de las cavidades existentes en el hielo, las que serían parcialmente ocupadas por HaO in-tersticial al fundir el sólido. A este fenómeno también se debe el hecho que al fundir el hielo, el número de primeros vecinos de una molécula de IdaO aumente un 10 %.

Hacia un mejor conocimiento del agua

Aún hoy tienen vigencia los dos ti-pos de modelos descritos: modelos de mezcla y continuos (incluyendo el intersticial). Los primeros repre-sentan un extremo que corresponde a un punto de vista químico, mien-tras que los modelos continuos re-presentan el punto de vista físico; en buena medida esto se refleja (con excepciones) en la aceptación que entre químicos o físicos tienen los distintos modelos. Ambos pun-tos de vista están cada vez más cerca y en muchos casos las diferencias parecen fundamentalmente semánti-cas y son importantes en cuanto al detalle de las propiedades del líqui-do. La diferencia yace en la respuesta a la pregunta: ¿Cuándo pueden con-siderarse dos moléculas de una sus-tancia que están en distintos ambien-tes moleculares como dos especies distintas?

De cualquier manera, hay dos ca-racterísticas fundamentales que de-berán estar presentes en todos los modelos que se propongan para el agua. Debido a la presencia de unio-nes hidrógeno la estructura del agua líquida debe tener básicamente una simetría tetraédrica, como fue seña-lado por Bernal y Fowler. Las unio-nes hidrógeno pueden deformarse (Pople) haciendo que los tres áto-mos que la forman puedan desviarse de la linealidad sin que ello impli-que necesariamente la ruptura de la unión hidrógeno. O

FATE presenta la primera calculadora electrónica creada en el país: CIFRA 311.

ÍÉfllfB ^HHHpHMB

MiPiÉÍOTSiff i

Fate - División Electrónica presenta al pais CIFRA 311, la solución con que ingenieros y técnicos argentinos respondieron a las exigencias de precisión y caudal de cálculo de las empresas modernas. CIFRA 311: Mayor potencialidad operativa.

Manejo expeditivo, inspirado en el orden lógico de pensamiento del operador. Lógica de circuitos integrados de 3a generación. Memorias con circuitos Integrados de 4a- generación. Total prevención electrónica de errores.

25

Responsabilidad ética y social

del científico

Mischa Cotlar

La horrible matanza desatada du-rante las dos guerras mundiales a causa del uso de la ciencia y la tec-nología para fines bélicos, ha produ-cido un fuerte movimiento de opi-nión acerca de la responsabilidad social del científico. Así los aconte-cimientos de la Primera Guerra Mundial provocaron las declaracio-nes y estudios de A. Einstein, G. N i c o l a i B . Russell y la formación de importantes asociaciones de in-telectuales y pacifistas, como la In-ternacional de los Resistentes a la Guerra, cuyos trabajos han traído mucha claridad sobre los horrores, mentiras e inmoralidades de las gue-rras y sus orígenes en los grandes intereses creados de naciones o gru-pos poderosos, en los particularismos refractarios de pequeñas naciones y en las pasiones de los individuos.

La reacción a la Segunda Guerra Mundial fue más fuerte aún y desde 1948 se está propagando en forma ininterrumpida e intensa una corrien-te de inquietud por la responsabili-dad ética y social de los científicos, propulsada por las declaraciones de

Mischa Cotlar fue profesor titular en la Facultad de Ciencias Exactas de la Universidad de Buenos Aires, de 1957 a 1966. Fue profesor visitante en las universidades de Niza, Chicago, Rutgers y Washington, y presidente de la Asociación por la Responsabilidad Social del Científico de Buenos Aires.

26

A. Einstein, B. Russell, L. Pauling y los 52 laureados Nobel, por los trabajos de la Conferencia de Pug-wash, por asociaciones como la Fe-deración de Trabajadores Científi-cos, la Society for Social Responsa-bility in Sciencie o la Boston Area Faculty Group, por publicaciones co-mo el Bulletin of the Atomic Scien-tists y New University Thought, por los esfuerzos de científicos e intelec-tuales como Max Born, Joliot-Curie, C. Powell, J . Bernal, L. Szilard, A. Szent Georgi, Laurent Schwartz, S. Smale, N. Wiener, C. Coulson, E. Fromm, N. Chomsky, J. P. Sartre y por un gran número de grupos uni-versitarios.

No será exagerado afirmar que si un número suficientemente grande de investigadores y profesores llegan a compenetrarse con los propósitos de esta corriente y a traducir su com-prensión en actos adecuados, podría producirse uno de los cambios más importantes de la historia de la hu-manidad. Sin embargo, las dificulta-des que deben vencerse para que esto ocurra, son de una naturaleza totalmente diferente a las que suelen presentarse en la ciencia.

El problema de la responsabilidad de los científicos es tan solo un caso particular del problema fundamen-tal de la humanidad: la responsabi-lidad ética del hombre y la compren-sión plena de las raíces de la violen-cia en el mismo. La ética, como la inteligencia, está latente en la natu-raleza del hombre, pero su necesidad no puede demostrarse. Tan sólo se puede ayudar a despertarla señalan-do los catastróficos efectos de su ausencia que han producido un tris-te panorama, cuyas líneas principa-

1 E. Relgis, George F. Nicolai, Bue-nos Aires, 1965.

les perfilan justamente los científi-cos. En efecto, los científicos y los universitarios en general, tienen una responsabilidad especial pues son los depositarios de los incalculables te-soros de la cultura. Por lo tanto ellos deben ser los guardianes y divulga-dores de ese patrimonio, o sea han de ser los maestros de los pueblos. Así, si los gremios obreros han sido capaces de paralizar más de una vez las actividades en algunas metrópo-lis para lograr aumentos de sueldos y mayores seguridades, también po-drían por ese mismo medio impedir la construcción de bombas y de ar-mas de todo tipo. Pero no podemos esperar tal actitud de parte de los obreros mientras los científicos no den primero el ejemplo en forma cla-ra y terminante; del mismo modo que no podemos responsabilizar al peón por el derrumbe de un edifi-cio sino al ingeniero, de cuya con-ducción depende la estabilidad del mismo.

Por eso los científicos que no se manifiestan claramente contra el uso de la ciencia para fines bélicos, con-tra la carrera armamentista, contra todas las formas de agresión, irracio-nalidad, violencia, censura, control ideológico o represión contra estu-diantes, intelectuales u obreros por parte de los grupos de poder, asu-men frente a la colectividad una gran responsabilidad que no pueden esperar eludir. Como dijera Einstein, "el individuo no puede justificar sus actos por el hecho que ellos le fue-ron dictados por su Gobierno o la sociedad; en los juicios de Nurem-berg se consideró como evidente la idea de que la presión externa puede tan sólo limitar, hasta cierto punto, pero nunca eliminar la responsabili-dad individual" (Einstein, Science, Dec. 1950).

Los males de la indiferencia

Muchos males se hubieran evitado si no fuera por la indiferencia o pol-la autocensura de intelectuales y científicos. Quien pasó por la escue-la y la universidad no puede decir que desconoce las causas reales de las guerras o los motivos que mue-ven a gobiernos para deformar las mentes o controlar el pensamiento. Un médico no puede desinteresarse por la salud mental del pueblo y quedar indiferente a manifestaciones brutales de represión o torturas de estudiantes, obreros y colegas uni-versitarios. En esta época singular, todas las energías, todos los descu-brimientos, todas'las capacidades son usadas, directa o indirectamente pa-ra la guerra y la existencia misma de la humanidad está seriamente ame-nazada a causa de tal uso. Por con-siguiente ningún trabajador científi-co puede despreocuparse totalmente de estos problemas alegando que su trabajo particular no tiene que ver con organizaciones o fines bélicos. El desarrollo bélico moderno sólo puede ser conducido por físicos, quí-micos^ ingenieros que poseen el más alto nivel de conocimiento, mientras que la importancia para la guerra de la estrategia militar clásica, o de los militares profesionales, es ahora in-significante.

Por eso es inconcebible que en es-ta época haya profesores, intelectua-les y científicos que no estén cons-tantemente denunciando las aberra-ciones de las sociedades y gobiernos, que no se mantengan constantemen-te activos en los problemas de res-ponsabilidad social. El progreso de la ciencia y la solución de los pro-blemas importantes es realizado por un pequeño número de científicos excepcionales; el resto sólo hacemos una labor de formación cultural o de perfeccionamiento de detalles^ que muchas veces es desviada hacia te-mas superficiales o complicaciones artificiales, fomentados por intereses creados (ver a este respecto el libro de O. Varsavsky, Ciencia, política y cientificismo, donde se plantean cuestiones que considero de suma importancia, si bien no concuerdo del todo con el autor). Por lo tanto sería de gran provecho para la so-ciedad si el docente y científico co-mún dedicara a los problemas ético-sociales el mismo interés y número de horas que al trabajo estrictamente profesional, siguiendo el ejemplo que después de A. Einstein, B. Russell

o L. Pauling, nos han dado tantos hombres de valor. No se debe con-fundir la renuncia a la violencia, que es no dañar, con la indiferencia que puede ser causa de grandes daños y cómplice de la violencia. Y por su-puesto no se debe confundir el ver-dadero sentido de palabras como violencia, paz, etc., con el sentido desfigurado que suele dárseles cuan-do se llama violencia a actos de pro-testa de universitarios que se organi-zan en manifestaciones o interrumpen el tránsito mientras no se considera violenta la matanza de millones de seres humanos con bombas de na-palm o por el hambre, o las repre-siones de la policía o de la censura.

Sin embargo, los errores acumu-lados a "través de los siglos, hacen que los gobiernos y sociedades pre-sionen para que las universidades se limiten a producir en masa especia-listas estrechos con enorme capaci-dad técnica para fabricar armas y artículos de consumo, y para que no cuestionen aquellos aspectos de la sociedad que contradicen a los pre-ceptos culturales. Esta es tal vez una de las causas principales de la cre-ciente hostilidad hacia los estudian-tes y universitarios conscientes que se observa ahora en todo el mundo.

Al servicio de la guerra

Por otra parte la ciencia confiere un poder extraordinario que puede usar-se para solucionar los problemas del hambre, enfermedades e ignorancia, pero que también puede ser puesto al servicio de las fuerzas degradantes de la irracionalidad y del crimen.

'El mal uso que se hizo de la ciencia en lo que va del siglo es realmente deplorable y alarmante. Por penoso que sea es necesario recordar algu-nos hechos a este respecto, por su-puesto no con intención de menos-precio o de hacer acusaciones por faltas de las cuales somos todos res-ponsables, sino para una mejor com-prensión del problema.

En 1914 se produjo la primera gigantesca colaboración entre hom-bres de ciencia y las fuerzas de la destrucción. Paralelamente a los ejér-citos se han enfrentado, además, emi-nentes intelectuales, científicos, es-critores, y hasta militantes socialistas, glorificando la matanza en nombre de un nacionalismo estrecho, mien-tras que los sacerdotes bendecían los cañones. Sin embargo bien pron-to quedó claro que se trataba de la guerra más estúpida e injustificada

que sólo benefició a algunos sectores interesados en el lucro. En los años que siguieron, el enorme progreso de la ciencia ha devuelto la fe en la actividad científica. Es así que du-rante el período 1920-1945 el estu-dioso y el investigador sólo se pre- • ocupaban por la verdad científica "en sí", con plena fe en que las ¡ aplicaciones de la ciencia harían más feliz al mundo. Pero bien pronto ¡ quedó claro cuánto peligro puede ! presentar el uso de la ciencia por hombres que no lian profundizado los problemas éticos.

Cuando el nazismo estaba en su : apogeo en Alemania y el resto del mundo vivía en el terror de ser sub- [ yugado por Hitler quien abiertamen- j te sostenía una ideología contraria a los principios humanitarios, una gran parte de los científicos alemanes, no ¡ sólo no se pronunciaban entonces en > contra del hitlerismo, sino que tra- 1

bajaban febrilmente para lograr su victoria, participaban en la persecu- j ción de científicos judíos o polacos ¡ y hasta usaron a sus colegas extran- | jeros para experimentos en sus labo- ; ra torios. ¡

Los científicos alemanes y euro-peos que se refugiaron en los Esta-dos Unidos, convencieron a Einstein de escribir una carta al Presidente Roosevelt para advertirle sobre el peligro de que Alemania se adelan-tara en la construcción de la bomba atómica. Se movilizaron entonces to-dos los recursos científicos y técni-cos imaginables y se logró construir el primer reactor nuclear antes que Alemania. Szilard y un pequeño gru-po de científicos encabezados por J . Franck, advirtieron al Presidente y al Secretario de Guerra sobre los peligros de un mal uso de la bomba recién construida. Pero un grupo mucho más numeroso de científicos, técnicos, políticos y militares los convencieron de que debían hacer explotar la bomba sobre ciudades japonesas. Esta decisión suele justi-ficarse diciendo que ella aceleró la terminación de la guerra salvando así la vida de centenares de miles de soldados de ambos bandos. Sin embargo se' ha sacrificado, en la for-ma más espantosa, a otros tantos centenares de miles de civiles y lo peor es que no hubo ninguna nece-sidad de arrojar la bomba sobre ciu-dades densamente pobladas, pues hubiera bastado con una demostra-ción en un área desierta. Si los cien-tíficos no hubieran estado de acuer-do con la decisión de los políticos

27

Albert Einstein Linus Paulina

i ' a t 11 ik 11 bom

iu^ri I p n t l . i f i r d u e ñ o s y m a n i f

i ! r t i ( I qu_ 1,0 ! i » m i, t , i , ¡ l a I i , M! ' ' i I r i t • ' n i t i - ' , í

x i'1! i tu i n . mi n u indi i n ! i, ' u n ' M'imln i

i i ">1 t 'UC »m p n nore metí

' ' 1 » I ' ! llll>! 1 'c¡! I I I i t ' I 1 i MI 1.11 ll 1

nm ,i n di ! 1 I ^ «raí de un i 1 !t' i t*' i J J il uniii nto iL ¡ «. «ü i u i m t 11 h lu '1 umos

^ l ¡un J 'I s ' d t q i ^ í 1 ujient il Ii'

d ! 1 l- t 1 ll t u > p'tUplt ido P » ti n. t' i i! i i , i ( ü l fu * un Km n¡ i i i< . ni! i 11 ! i t ni i ^"i '"i i' < ai ü f t l i u n di t i ' i i ih un iplicuon ' i ' k 1 i m f.n ** i ti i ú pues I 11 lit tn i i d s- l fus mu m II i J 'l d 1 1 ll lliíl

i ir < ' i ! i i i ni i 11 ll l. 1 ' 1 II t 1 ll Itt ' iw ¡ll 1

f i 11 ii i ii i dtl tnun n i ' 1 •> i LI i ' i i

u! 1 \ i K 11. n i 1 1 - 1 ii i !o >i.)

1 ' i i t | 11 1 >r if t \ di. lv 11 ' i > i \u mi t in

" 1 t ' ir J l u i ' i 1 m i! . !n.i

ii' i ! ' i un int d 1 ! mu i i<' ' n u ! 1 nK * ilt i

i i i (.1 ni d i ! f ) 1 i i u i i i n ' i i i ' i t i ' m i

i. di > i a i t Ljili. vi di K d 1 ít I w > ¡ni i n, 1 i i din ititL ll ' II 1 < t i > Mu 'i 1 n t 11 itt ! i ti in i'i • i v i i i i i m

d i ' t < i n i i i tiuii i dit ni il nuil ta d i ntilico-, tu til thdk I i I V id t l i l i un tí'ií I in di itu t 1 t • ll ttn t liH 1

28

exterminar toda vida del planeta. Ja-más ha enfrentado la humanidad un peligro parecido de total aniquila-miento y de torturas inimaginables. Aun si tenemos fe en que tal aniqui-lamiento no llegará a producirse, es enorme el daño ya ocasionado, apar-te del tremendo presupuesto inverti-do improductivamente, que alcanzó a 200 mil millones de dólares en 1969.

La información deformada

Así, para poder continuar justifican-do este nuevo y mal uso de la cien-cia, se ha desplegado una red de propaganda sutil que pinta al público un enemigo monstruoso que amenaza la civilización aún más que el nazis-mo, de una degeneración tal que va-le más bien morir en un ataque nuclear con todos sus horrores que dejarlo expandir o arriesgar la posi-bilidad de que pueda conquistarnos. Se han desatado en esta forma odios y difamaciones que han creado un clima moral insano. El público así sugestionado no se daba cuenta que al mismo tiempo se estaba imitando al enemigo en sus adelantos cientí-ficos, métodos educacionales y otros aspectos que la sociedad valora, lo que naturalmente implica que tam-bién el enemigo llevaba una vida digna y muy similar a la de sus de-tractores.

Hubo que dar a la población la sensación de que recibía la más am-plia información mientras que en rea-lidad la misma era intencionalmente fragmentada y distorsionada con el objeto de generar confusión cuando no falsas certidumbres respecto a la situación real y concreta.

Hubo que excitar por medios suti-

les a la opinión pública en contra de los intelectuales responsables que cuestionaban toda esta situación.

Entre los intelectuales de ambos bloques prosperó la autocensura, una subordinación contraproducente de gente capaz a otra inferior; sociólo-gos, psicólogos y periodistas se pu-sieron al servicio de los grandes in-tereses creados para elaborar técnicas de sugestión para fines comerciales o para la remodelación de la opinión pública con fines políticos.

La necesidad de ir poniendo a prueba l a s armas ha llevado a gue-rras limitadas inmorales, al apoyo a dictadores y mercenarios, al aumento del espionaje, de vuelos de reconoci-miento, satélites espías y satélites con cargas atómicas múltiples, a la expansión del sistema policíaco y del militarismo.

Es necesario mencionar todavía el peligro d e una guerra nuclear por accidente, no provocado por la vo-luntad de los gobiernos. En efecto, ahora los ataques pueden efectuarse con tan enorme rapidez que unos minutos de ventaja pueden resultar decisivos, y si llegara a producirse una guerra nuclear, la misma duraría apenas unas horas en las que el pla-neta quedaría destruido. Esto obliga a mantener incalculables fuerzas des-tructivas listas para entrar en acción a la menor señal. Pero la señal de un radar puede ser mal interpretada, sin que haya tiempo tal vez para verifi-caciones más precisas. Esta situación de tensión permanente hace que la guerra pueda desencadenarse por un e«or mecánico o humano. _ El hombre de la calle difícilmente

tiene la oportunidad de compenetrar-se con el real peligro que le amena-za; si bien los órganos de difusión

bras pee»1'

ju'ii'ii» < ¡l,K l,h <

CM 3l i, lito-¡,w'n • p i u i

menre • Mil- !

tai, . liltlf! ib li ; rJr-rom! i«ii,- \' iíthv': Vi ü-uiílir

Cí'il

wn i. ÜSr Ciin.! •

hablan ya de los peligros atómicos, como toda noticia seria queda ahoga-da en un mar de superficialidades, y a causa de las técnicas sugestivas, el hombre de la calle continúa tran-quilo en su desaprensión, orgulloso de que sus hermanos más inteligen-tes hayan logrado llegar a la Luna. Por otra parte los más responsables, los que están trabajando en la cons-trucción de armas nucleares, parecen sentirse totalmente inocentes, ya que la ciencia es para ellos una herra-mienta al margen de consideraciones éticas.

La prostitución de las palabras

Por fortuna, algunos de los más grandes representantes de la cultura y un gran número de científicos e intelectuales se han movilizado para frenar esta locura y, como ya dijimos antes, esto ha producido un movi-miento renovador cuyos efectos son aún difíciles de prever. Como lo in-dicaron los promotores de este movi-miento, es esencial que el mismo des-canse sobre bases éticas lo más estrictas posible. Las siguientes pala-bras de Max Born resumen los as-pectos esenciales del problema:

"No hemos de buscar lejos para hallar una base sólida para nuestras acciones; es el principio común a to-das las grandes religiones y en el que concuerdan todos los filósofos mora-les, el que es enseñado por la doc-trina cristiana; el que Gandhi realizó ante nuestros propios ojos: la renun-cia al uso de la fuerza para fines po-líticos . . . Hace 50 años esta decla-ración hubiera sido considerada utó-pica y tonta; hoy puedo expresarla sin que me crean loco. Probable-mente mañana serán considerados tontos los belicosos y no los pacifis-tas, pues los acontecimientos de los últimas años han dejado un impacto en la mente de la gente. . . ¿Qué podré agregar a las palabras de los grandes profetas de nuestros tiem-pos: Schweitzer, Einstein, Bertrand Russell y otros sabios?. . . Ahora sus voces ya no se extinguen sin ser es-cuchadas, pues el hombre de la calle y tal vez también alguno de los gran-des del mundo les prestan aten-ción. No cierro los ojos a las dificul-tades políticas, conflictos de intere-ses, ideologías, razas y religiones. Pero, ¿cuándo tales problemas fue-ron jamás resueltos por una guerra? Sistemáticamente cada guerra sólo condujo a otra guerra. ¿Existe acaso

algún objetivo político que justifique el riesgo de una guerra nuclear? Po-líticos y periodistas suelen contestar a las advertencias de los expertos di-ciendo que se trata de histeria atómi-ca y derrotismo; esa gente es miope o fanática o representa a aquellos grupos que se benefician con la pre-paración para la guerra. . . ; estos son fabricantes de armas, militares, o físicos, químicos e ingenieros que inventan y construyen nuevas armas. Es imposible solucionar la presente crisis sin inspirar a esta clase de gente otros objetivos en la vida. . . Estoy convencido que la única forma de evitar la destrucción total es la renuncia general al uso de la fuerza, combinada con un desarme progresi-vo y una vigorosa difusión de escla-recimiento sobre la naturaleza de la guerra."2

Creo que estas sabias y sencillas palabras son representativas de las intenciones que animan a dicho mo-vimiento de responsabilidad social y señalan lo más importante del pro-blema. Imagino que algunos lectores exclamarán desilusionados e impa-cientes: "¿Esto es todo lo que se propone? Estamos cansador de oír decir lindas palabras a todas las igle-sias y a otros cómplices de los explo-tadores. Entonces, si un Hitler ata-cara al mundo, o si un tigre estuviera por lanzarse sobre mi familia, no de-beríamos defendernos por la fuerza. Además, no vemos en esto esbozado ningún plan concreto de acción."

Conviene examinar ahora estas preguntas que se oyen muy frecuen-temente y que tal vez apuntan a las dificultades fundamentales. En pri-mer lugar es necesario distinguir en-tre las verdades básicas de las reli-giones y las religiones organizadas con intereses creados que suelen ser la negación de aquéllas. Obviamente no estamos discutiendo aquí el rol de las religiones. Lo que pasa es que palabras como paz, amor, libertad, fraternidad y otras que están en la base de las religiones, han sido tan prostituidas que al sólo oírlas^ des-confiamos, y buscamos las soluciones en otras ideas cada vez más sofisti-cadas y artificiales que frecuentemen-te dan carta blanca a la violencia.

Como dice Max Born, aquellas verdades permanecen esenciales y di-fícilmente podrán darse soluciones que las evadan. E. Fromtn dice a este

2 Max Born, Man and the Atom, Bu-lletin of the Atomic Scientists, junio 1967.

respecto: "Los grandes guías espiri-tuales como Buda, Jesús, Isaías y muchos otros, han expresado los más profundos anhelos del hombre con notable semejanza en sus ideas. Ellos penetraron el cascarón de la costum-bre, la indiferencia y el temor me-diante el cual la mayor parte de la gente se protege de la experiencia auténtica y encontraron adherentes que despertaron de su modorra para seguirlos en sus ideas. . . Pero des-pués de un tiempo, esas ideas per-dieron su fuerza, convertiéndose en actitudes cerebrales en vez de conti-nuar siendo auténticas vivencias."8

El sentido de la violencia

El problema es que los intelectuales admitan estas verdades con la misma seriedad con que respetan sus axio-mas, como el de la necesidad lógica y ciertos principios de la Física. Pues todo está ahora en manos de los científicos que potencialmente tienen el poder del mundo, ya que el ma-nejo de las armas modernas requiere grandes conocimientos y es muy po-co lo que puede influir el resto de la humanidad; los científicos pueden provocar la destrucción del planeta o por lo contrario ofrecer la máxima contribución para la construcción de un mundo mejor. En sus tareas espe-cíficas los científicos respetan cuida-dosamente los aspectos morales, tales como la veracidad, honestidad, res-ponsabilidad y conocen el valor que para la creación científica tiene la fe, entusiasmo, fervor y sentido de be-lleza. Todo depende de que los cien-tíficos se decidan a dar un paso más: cuidar celosamente del buen uso de la ciencia y , sobre todo, profundizar la comprensión del problema de la violencia traduciéndola en acciones tomadas voluntariamente.

Es necesario observar que dos obs-táculos fundamentales se interponen en la decisión de dicho paso. Él pri-mero es el error generalizado, refor-zado por la herencia de nuestro pa-sado oscurantista, según el cual es tal el cúmulo de violencia que siem-pre ha habido, que poco importa que una nueva dosis de la misma venga a agregarse, si es que puede contri-buir a la solución de los problemas. Como en el pasado hubo contados casos de soluciones por medios pací-ficos, se comete el error de afirmar que toda solución basada en la abs-

3 E. Fromm, ¿Podrá sobrevivir el hom-bre?, Paidós, Buenos Aires.

tención de la violencia es ingenua y destinada a fracasos, como si nuestra condición biológica y nuestras expe-riencias primitivas fuesen inmutables y obstáculo insalvable para ensayar nuevas formas originales de pleno sentido humano.

En realidad es tan solo aparente el hecho de que alguna vez se haya lo-grado un progreso por la violencia. Por ejemplo, en el caso de la revolu-ción francesa, el progreso fue debido a la difusión de verdades iluminato-rias por" los enciclopedistas y hom-bres como Rousseau y Voltaire, mien-tras que el desborde de violencia que siguió fue una negación de dicho pro-greso y un regreso al pasado. Lo que quedó como legado permanente es la comprensión y los anhelos desperta-dos.

El acto de matar es la máxima de-gradación a que puede llegar el ser humano y no hay ideal político que lo justifique; habría que ver si los ideales políticos que exigen tales ac-tos no constituyen en parte una pro-yección inconsciente de la violencia que está profundamente arraigada en cada uno de nosotros. No tiene mu-cho sentido hablar de libertad y dig-nidad mientras uno es esclavo de la violencia que bulle dentro de uno mismo en forma de apetitos insacia-bles y deseos de sobresalir y domi-nar. Así como la gente desea la liber-tad y la no violencia, también las teme y trata de esquivarlas (con re-ferencia a esto último ver los libros de E. Fromm, El miedo a la libertad, y ¿Podrá sobrevivir el hombre?).

El hombre se ha mostrado capaz de superar los problemas más difíci-les, pero no se anima a probar sus fuerzas en la empresa más importan-te que se le presenta: la de afrontar los problemas sin engendrar violen-cia y enemistad. Esto requiere una intensa y continua indagación indivi-dual en el problema de la violencia y un ferviente deseo de no dañar.

El otro obstáculo es la resistencia natural a poner en duda la sensatez del ambiente, de la sociedad y de los hombres de capacidad y talento; a tal punto que más bien se toma co-mo distorsión todo lo que se aparta de la actitud de aquéllos. Me refiero al hecho de que no nos animamos a cuestionar la cristalización, en la so-ciedad, de las violencias introyecta-das en los individuos, que asume la forma de respetabilidad y de lega-lidad.

Es así como la violencia y el cri-

30

men dejan de ser condenados cuando son organizados por la sociedad y ejercidas en nombre de Dios, de la libertad, del honor, de la familia, de la propiedad etc. Una madre queda-ría horrorizada por vida si su hijo matara a un compañero; pero, no se-ría tal su sentimiento si lo viera re-cibir honores por haber destruido enemigos en la guerra. Se habla de la libertad individual pero no se ob-jeta la existencia de la conscripción obligatoria que es la negación del primer derecho del individuo: vivir y disponer de la propia vida. Se pro-testa por crímenes cometidos por individuos; pero, se permite que en todos los países existan organizacio-nes legalizadas para el arte de matar. Una vez permitida la guerra, todos los otros crímenes serán derivaciones secundarias de este mal mayor.

Creo que estas consideraciones contestan también la pregunta de si no se debe usar la fuerza contra un Hitler o un tigre que nos ataca: del resumen de los hechos ocurridos si-gue claramente que el tigre no esta-ba tan sólo en Alemania; nos gusta hacer aparecer que el tigre está siem-pre en el país vecino, y no en el nuestro. Pero, la verdad es que el tigre está en todas partes del mundo y en cada uno de nosotros, y, si la solución se consigue eliminando al tigre, entonces habría que destruir sucesivamente a todos los países del mundo. Hitler no hubiera podido hacer nada si no hubiera estado apo-yado por millones de seres; entre ellos, grandes artistas, pensadores y científicos que no tenían nada que envidiar a otra gente del mundo. Hitler ha sido, simplemente, una consecuencia natural e inevitable de nuestra civilización basada en la vio-lencia, y de la indiferencia y negli-gencia de la masa de los intelectuales que durante los años 1918-1838 na-cía hizo por la causa de la paz, te-niendo en sus manos el enorme po-der de la ciencia.

No vale la pena entrar a discutir si en épocas pasadas la violencia era realmente inevitable y ofrecía una solución razonable para los conflictos entre naciones, en la cual los milita-res jugaron el papel de héroes. Lo que importa es que ahora nada puede solucionarse mediante la violencia; todo está en manos de los científicos y tecnólogos; los militares ya no tienen más importancia, pues son los tecnólogos los que crean ahora las nuevas estrategias bélicas, aunque si-

Antes de que surjan LOS INGENIEROS DE VARIAS PIERNAS. Antes de que surjan los mutantes que anuncien cambios genéticos im-previsibles, c o n v i e n e planificar la marcha de toda obra; simplif icar sus caminos; impedir , en suma, que haya que dirigirse hacia v a r i o s o b j e t i v o s al mismo t i e m p o . Afor tunada-mente, los especialistas en organización indus-trial del país y del ex-terior han perfecciona-do el Método de Ca-mino Crítico: tenemos 15 profesionales y téc-nicos para asesorarlo sobre él. Aval : 90 obras progra-madas, que cubren más de 300.000 m2, y 15 profesionales y técni-cos a su servicio.

Estudio ALSZ

Diagonal Norte 846, p l io 39, Oficina 302 - Bueno» Aira»

Tel. 40 - 6375 y 6294

guen rindiendo pleitesía a la casta que en el pasado estaba encargada de esta tarea.

El camino del compromiso

Realmente, mucho puede hacerse si se sigue la línea ética de la cual habla Max Born. Si, venciendo las divisio-nes creadas por las creencias e ideo-logías a las que se aferran los indivi-duos, se comienza a analizar seria-mente, en forma muy intensa y con-tinua, los aspectos ético-sociales arri-ba mencionados que comprometen la vida humana, entonces se podría for-mar una unión internacional de inte-lectuales para una tarea conjunta en beneficio de la humanidad la que se pondría en marcha para realizar, por ejemplo, el programa siguiente: Con-seguir que todas las Universidades se adhieran a esta unión, dirigiendo en forma oficial sus programas; esto im-plicaría la formación de una Univer-sidad internacional, lo que en par-ticular impediría la intervención de las autonomías universitarias por go-biernos dictatoriales. Elevar la com-prensión de los pueblos, especialmen-

te en lo que se refiere a las causas, orígenes y naturaleza de las guerras, la distorsión de información, lavados de cerebro, pensamiento patológico, la miseria y sufrimientos en el mun-do y las posibilidades que los pue-blos tienen para cambiar el rumbo equivocado de los gobiernos. Para tal fin se podría editar un diario, en todos los idiomas principales, con propósitos de difusión y sin fines de lucro, redactado por los mejores re-presentantes de la cultura, destinado al gran público de todos los países. Se podrían crear extensiones univer-sitarias de carácter internacional pa-ra hacer efectiva la obra de difusión y de instrucción.

Los trabajos de una tal unión de intelectuales podrían hacer más fac-tible, ante todo, la suspensión de la carrera armamentista, luego el desar-me general. Ya en 1946 comenza-ron negociaciones sobre el desarme y hubo importantes propuestas en 1954 ,1959 y 1961; pero, hasta aho-ra no se han logrado progresos sen-sibles. En los diversos informes pu-blicados se indica que la causa prin-cipal de este estancamiento es la

desconfianza m u t u a que es acentua-da por la propaganda q u e crea senti-mientos de enemis tad , por la crea- . • > ción de nuevos focos bélicos, bases ; / militares, vuelos de reconocimiento, espionaje, por ac t iv idades contradic-torias de los políticos, etc. La pre- « sión continua que^dicha unión ele in-telectuales e jercer ía sobre los gobier-nos podría debi l i ta r , sino eliminar, todos estos factores que traban las negociaciones.

Más aún, e l l a podr ía resolver el problema más d i f í c i l , que es el de hacer factible la inspección y control de armamentos, pues los miembros : de la unión pod r í an , ellos mismos, ¡ efectuar tal control , cada uno en su país, superando así la dificultad crea-da por la desconf ianza . Entonces se habrá dado el paso decisivo para el , desarme. De l a misma manera se ha- ; ría más factible la formación de un ; gobierno mundia l q u e es imprescin-dible para una paz estable. Y no hay ¡. duda que el e j e m p l o de los intelec-tuales despertará la conciencia de los pueblos, qu ienes le darían su apoyo para asegurar nueva s bases a nuestra j civilización.O f

Inauguración del Centro de Cómputo de la Fundación Bariloche

El 3 de abril próximo, la Fundación Bariloche inagura oficialmente el Centro de Cómputo, dependiente del de-partamento de Matemática, dirigido por el Dr. Hugo Scolnik. La idea de instalar un centro de computo que contribuya al desarrollo de la región surgió en 1967.

A partir de setiembre de 1970 se inició la contrata-ción de profesionales competentes, contando actualmen-te el programa con seis matemáticos, siete programa-dores y un asesor comercial. Se contrataron ademas cuatro profesores extranjeros y existe particular inte-rés en preparar técnicos locales y crear la fuente de trabajo necesaria para lograr el retorno al país de cali-ficados científicos argentinos que actualmente se encuen-tran en el exterior. ^ ,

El equipo que se contrató, es una computadora BULL-GENERAL ELECTRIC 415, que permite crear un servicio técnico-científico, el único con e^as caracte-rísticas, que actualmente se presta en el país. El centro de cómputo ya está operando dentro de las actividades de la Fundación Bariloche para el departamento de Ma-temática en los siguientes temas: análisis n ^ e n c o teo-vía de la aproximación, teoría de autómatas inteligcn-

a artificial, investigación operativa, apheacton de com-putadoras en ingeniería y matemática pura. P ^ ^ partamento de Sociología opera en modelos matemáticos

que permiten acelerar los procesos de investigación. P a -ra el Departamento de Recursos Natura les existe el p ro -yecto de crear un banco de d a to s geológicos mundial .

Presta servicios a empresas d e l ámbito local y nacio-nal, como ser INTA, para el que está preparando un s i s -tema para establecimientos agropecuarios, la Cooperati-va de Electricidad de San Car los d e Bariloche p a r a agilizar sus trámites administrativos y poder ofrecer u n mejor servicio, y la compañía aérea Austral, para p r o -cesar los datos de una encuesta realizada entre sus p a -sajeros. Se ha realizado un programa para Ducilo, c u y o objeto es optimizar la producción d e celofán. La c o m -pañía de Fósforos Sudamericana también utiliza sus s e r -

Vl<La computadora posee una m e m o r i a central de 1 6 . 3 8 4 caracteres y una memoria d e discos magnéticos d e 23 040 000 caracteres. La ve loc idad de trasmisión d e datos entre los discos magnéticos y la memoria c e n t r a l es de 200.000 caracteres por segundo . Asimismo p o s e e un lector de tarjetas perforadas de 6 0 0 tarjetas por m i -nuto y una impresora de l ínea que imprime a razón d e

730 líneas por minuto. Velocidades de cómputo: Suma-Resta , 17,S " i t e r ó s e -

gundos; Multiplicación, 21,4 microsegundos; D i v i s i ó n , 32,9 microsegundos. O

3 X

Restauración del fresco toscano Lucía Bonadeo

í o r S f -de P i n t u r m m u r a l m al f reSCO h(1 P^mUido rescatar documentación de va-lar historico, asi como recuperar obras de alto valor estético que, por su deterioro

t l a Z n t ¡ m r S - PerdÍdm' E$te, Í n f 0 r m e CS la ^ünuacUn y c J m p l l Z l , Z ¡ £ trabajo de la misma autora publicado en el número 7 de CIENCIA NUEVA.

Los orígenes del mal

En el articulo precedente describimos la técnica del tosco toscano en su período más brillante, del 1300 al 1540; los frescos más antiguos de esa escuela han sido entonces pintados hace más de seis siglos. A diferencia de la pintura sobre tabla o sobre tela, libre ele ser fácil-mente desplazada de su lugar original, el fresco en gene-ral ha tenido que identificar su historia con el destino de la pared donde ha sido pintado. Muchos de los edifi-ticios decorados con frescos han desaparecido, otros han sufrido importantes reformas para adaptarlos a nuevos estilos artísticos y otros cambiaron sus funciones pasan-do, por ejemplo, de lujosos palacios a cuarteles de bom-beros o garajes con los imaginables inconvenientes para la conservación de las pinturas existentes.

Además de esta destrucción más o menos involuntaria los frescos sufrieron las consecuencias de los afanes ele

renovación", especialmente en los siglos XVI y XVII ya mencionados en el artículo anterior. Un ejemplo de estos puede verse en la figura 1, con frescos de Orcagna casi totalmente destruidos por la colocación de soportes para inmensos cuadros, partes centrales de altares El numero ele frescos remanentes es, a pesar de todo im-portante, pero el estado en el cual se encuentran es muy variable. La mayoría de ellos presenta problemas de diversa importancia y, en general, necesitan ser restau-rados. Analicemos cuáles son las causas del deterioro de un fresco a fin de comprender las medidas que se toman para su restauración.

, L ? humedad es el factor desencadenante de la mayo-ría de los deterioros. Los microorganismos, hongos, algas y liqúenes se desarrollan rápidamente al superarse el 65 % de humedad ambiente. Estos pueden manifestar manchas o puntos que parecen picaduras superficiales de color diferente y , en los casos más graves, alterar las capas de pintura y de revoque provocando la caída de los mismos. La eflorescencia de sales sobre la superficie de fresco produce la pulverización de la capa de pintura y del ligante de la misma (carbonato de calcio) El pro-ceso se acelera cuando las sales forman hidratos- la ganancia o perdida del agua por parte de los cristales vendrá ^acompañada por un cambio en el estado de hi-drataron que está asociado con una variación de volu-men; las oscilaciones de la presión efectuada sobre la superficie del fresco ocasionan la rotura de la misma. La presencia de humedad hace que se produzcan depósitos.

32

Las sales pueden provenir del interior del muro o crearse en la superficie por transformaciones químicas de disueltos en el aire.

Consideremos Ja primera posibilidad. El muro f o r

mado por materiales porosos, permite la circulación in-terna del agua; Ja pared puede considerarse constituid-por un sistema de capilares comunicantes entre sí que la recorren en todas las direcciones. Existiendo humedad estos capilares contendrán soluciones de sales como sub tato de potasio, sulfato de magnesio, sulfato de calcio o yeso, sulfato férrico, cloruro de sodio, cloruro férrico nitratos de potasio, sodio y calcio provenientes de lo. constituyentes del muro o del suelo. Cuando las condi-ciones de temperatura y humedad relativa entre el muro y el aire lo permiten, se produce una corriente de la< soluciones hacía la superficie del fresco. Al contacto con el aire parte del agua se evapora dejando un remanente de sales cristalizadas en la superficie. El proceso de cristalización y parcial redisolución de las sales i-racias al atinjo de nueva solución desde el i n t e r i o r será' nnsiblr mientras exista una fuente de humedad. Este juego'será fatal para la estabilidad del fresco.

La Maestá de Simone Martini e n el Palacio Público de Siena presenta un ejemplo particularmente notable d e los electos de la eflorescencia. En el subsuelo húmedo del palacio existía en el medioevo un depósito de sal en contacto con el muro de 1 metro de espesor en c u v a parte superior dos pisos más arriba (unos 15 metros) fue pint do el fresco Pese al grosor del muro v a la enorme distancia que debió recorrer, el cloruro d e sodio ^encuentra en gntncles cantidades sobre el fresco; de e-netanclo algunos de los pigmentos

Gases como SO, y CO,, disueltos en el aire reaccio-nan con l a humedad de la superficie del fresco ttan or-

^ CO C ° 3 H 2 ' S O i ' I t , y S Q l H : i - E s t o s Sdcls atacan el COaCa.conviniéndolo en bicarbonato de cal-

S o e n ? El Veso ha sido individu -a d o en casi todos los frescos analizados en Florencia Fn un estudio sobre los frescos de Giotto en la Cap 11

« T l T l t P 8 d U 1 SC c o " i e l «™nó la presencia del veso con la existencia de un alto porcentaje de SO, en la atmosfera, proveniente de fábricas de los alreeíeelores

S í a i r e T n f ^ í ' p I o d u C Í d a ^ k - n t l t a c ó n 1 Z b a t i r p T " , 1 1 0 7 C ° m ° k , m i í S 1 , l a r ™ n t e V difícil

Figura 1. Estado en el cual fueron encontrados los frescos de Orcaena en vi L, parte central ausente corresponde a uno de los tiraLs de a p ^ T L ^ S S d l ^ Z r n e n t e .

Figura 2. Detalle de una pintura efectuada a la r„ ,i . , . . , luz rasante y agrandado. Las portel oscuras J ? P ! " d ,el tíabaJ° 5n Ia

corresponden al "intonaco", los claros a la capa pictórica x , T a ^ P l l a documentación técnica y literaria 1 sobre la obra. El control de la temperatura y de la

humedad del local donde se encuentra el fresco, así Técnicas de restauración c . o m o ^ análisis de secciones del muro tomadas en

determinados puntos para detectár el porcentaje de Es necesario dividir la restauración de frescos en dos a § u a contenida en éstos, son parte de los datos nece-penodos, separados por la Segunda Guerra Mundial. An- f M 0 S P a r a conocer la procedencia de la humedad. La tenormente a ésta, el objeto principial del trabajo era f o t ° g r a f í a e s de gran utilidad en esta labor preparatoria-dar a la obra un aspecto brillante, "lindo", renovarla c o n l u z infrarroja se pueden poner en evidencia las sin mayor preocupación por las causas reales que pro- f a P a s d e pintara subyacente, el dibujo trazado sobre el vocaban el deterioro o, en. muchos casos, por la con- mtonaco" o cualquier cambio realizado por el artista-servacion del estilo del artista. Las recetas' existentes e l e x a m e n de fotografías con luz rasante (f igura 2 ) per-eran empíricas, transmitidas tradicionalmente de padre m i t e u n control de la adherencia del color y un cono-a hijo Una de ellas, por ejemplo, indicaba la necesidad cimiento del estado de la superficie de la pintura La de alimentar el fresco, para darle su brillo original ! o t ° g r a f í a con luz ultravioleta permite distinguir entre con huevo disuelto en vinagre; estos productos se con- l o s «¡toques posteriores y la pintura original- finalmen-vertian, en cambio, en seguro alimento para los micro- íe> lar fotografía con luz normal (figura 3 ) , constituye organismos En el año 1700, cuando a un fresco se le l a ^formación básica a la cual se debe acudir antes de caía un pedazo se reproducía la parte que faltaba sin cualquier intervención.

f 5 3 Í t i l o " ¿ t & S , M 1 8 0 0 t r p f b a n d e G r a C k S / U n a n á l i s i s d e d Í f r a c d Ó n d e r ^ o s X en h Z un resco f a l s o e n d c n ^ T , / g g T ' ^ T - ® ' ^ T ^ d e p m t u r a ' s e identifican los pigmentos utili-P , : ^ 1 í r e s c o í a l s o f a e I p a l f restaurador reprodu o : zados y los componentes del "intonaco" El mismo oro

- « ' p ^ ' á K S S Í í ^ ^ £ a i l ° fíanseadet°ecta ffS^»' ? * aoT°8ar

Durante la S e g a d a Guerra Mundial se dañaron consi- cola, e ^ K ^ ^ é f ^ J S S S d d S durablemente muchos frescos toscanos. Dado que la pér- de técnica pictórica utilizada E l f f T dida de estas obras era inminente, fue necesaria uní informa s o b f e í a S t e n c a d e ' ^ u ^ S ^ Í J ^ rapida intervención. Los restauradores, conscientes de la estado de la pintura o a m t a S d S S gravedad de a situadón ensayaron nuevas técnicas y épocas anteriores. Todo ¿ t e ^ S S ^ Í Í S Í ; S recurr I e r o n a l o s científicos en busca de nuevas solacio" condiciones del soporte (muro del C T í S L t o nes. La experiencia adquirida en ese período fue muy de calcio) y de la pintura S a así r Z f l ! , ™ S importante y con el tiempo fue aumentada y perfeccio- deterioro y las soluciones S í e s nada. Hoy la restaurac ón es precedida ñor un comnlein T „ • , , / ractimes. estudio al que contribuyen h iLr i adores 'de arte q £ i P s e g ú n & í a u e " 0 J ^ T S 0 ¡ V e n t e S

eos, microbiólogos, etc. 4 , , q u e s e d e s e e eliminar. Generalmente s e procede del siguiente modo:

Figura 3. Detalle de la Creación de Adán, de Paola Uccello, en el Claustro Verde de Santa' María Novella, Florencia, lisie es un claro ejemplo de un fresco deteriorado.

35

Figura 4. La crucifixión, de Beato Angélico, en el museo de San Marcos. Fresco salvado gracias a la aplicación de un nuevo método.

1. materias grasas (provenientes de retoques al óleo, por ejemplo) se trata con sal diluida en amoníaco (10 a 20%), butilamina (10 a 20 % ) , etc. 2. cera (en el siglo pasado muchos frescos se revistieron de una capa de cera, esperando así protegerlos), con te-tracloruro de carbono o tricloruro de etileno. 3. resinas (provenientes de barnices a base de ellas), con dimetil formamida, acetona, etc. 4. cola animal (aplicada como goma arábiga, etc.), con agua caliente, solución de amoníaco, etc.

Los depósitos orgánicos tales como excrementos de murciélagos, particularmente frecuentes en iglesias, se eliminan con bisturí hasta que, convertidos en una fina película, se disuelven con la solución amoniacal.

Una vez que las fuentes de humedad han sido elimi-nadas, la pintura se preserva de la aparición de nuevos microorganismos mediante una ventilación e iluminación correcta y la aplicación de un fungicida que debe reunir las siguientes condiciones: baja concentración, transpa-rencia, baja presión de vapor y especialmente ser neu-tral, física y químicamente, a los componentes de la pintura.

El tratamiento de la eflorescencia depende de la solu-

bilidad de las sales que la componen. Para lás sales solu-bles se -utiliza el método de la pulpa de papel, que consiste en cubrir una porción de la superficie del fresco afectado con pulpa o pasta de papel húmeda (celulosa u otro material apropiado). El agua contenida en la pulpa se introduce en el muro desplazando hacia el interior del mismo las sales en solución. Posteriormente, al se-carse la pulpa, se produce un movimiento en dirección contraria, hacia la superficie: las sales migran con el agua hacia la pulpa de papel donde se depositan y cristalizan. El procedimiento debe repetirse varias veces para dis-minuir la concentración de las sales en el muro. Si la capa de pintura o el "intonaco" presentan tendencia a disgregarse, es necesario fijar los mismos, previa utiliza-ción del métotdo. Para sales poco solubles como el yeso, se utiliza el bisturí, o sea un tratamiento mecánico su-perficial y difícil.

Para la restauración de la Crucifixión del Beato Angé-lico, en el monasterio de San Marcos, en Florencia, se probó un nuevo método. Este fresco (figura 4) se en-contraba en condiciones precarias: tenía un alto porcen-taje de yeso y el "intonaco" se pulverizaba. Fue aplicada una variación del método de la pulpa de papel, reem-plazando el agua por una solución de carbonato de amonio. El yeso, transformado en sulfato de amonio, sal soluble, con una segunda aplicación de la pulpa de papel embebida en hidróxido de bario es convertido en sulfato de bario, sal insoluble e inerte. De este modo se obtu-vieron dos resultados positivos: eliminación del yeso de la superficie y fijación del "intonaco" gracias a la re-constitución del carbonato de calcio.

36

SOiCa — 2HaO + CO ; !(NH.,)2

CO;tCa + SO . i (NH4 ) 2 + 2HaO

[;,1 procedimiento de regeneración del carbonato de calcio ha dado resultado sólo en ciertos casos particu-lares. La selección de un fijador que permita adherir las secciones de la capa pictórica que tienden a desinte-grarse y a devolver la consistencia al "intonaco" que se pulveriza, es uno de los problemas más graves de la restauración. No son pocos los requisitos que este fijador debe reunir: además del poder de adhesión y capacidad de penetración profunda del muro, debe ser transpa-rente, resistente a la abrasión y a los microorganismos, inerte a los componentes del fresco, flexible y no debe sufrir transformaciones de sus propiedades con el tiem-po. Fijadores tradicionales tales como la caseína o el liuevo han debido ser descartados: no eran resistentes a los microorganismos y formando una película continua, fuertemente adherente al calor, por juego de contraccio-nes y dilataciones diferentes a los de la capa subyacente, provocaban el arranque de la capa de color, arrastrando a veces parte del "intonaco".

Sccr.iún de una pintura

pigmento

El shellac, otro producto comúnmente usado, producía cambios en la pintura durante su aplicación y su poste-rior oxidación.

Hoy en día se tiende a enfatizar las ventajas de las resinas sintéticas; algunas de éstas, por ejemplo: poli-butil metacrilato, Bedacryl 122x y Paraloid B 72, pa-recen reunir las cualidades requeridas. Sin embargo, también éstas presentan algunos inconvenientes y nece-sitan ser investigadas más profundamente.

Aplicaciones Computacionales

— Ingeniería civil

— Organizaciones

— Economía y finanzas

— Ingeniería de sistemas

— Modelos matemáticos

— Programación de aplicaciones científicas

— Sistemas de información

— Centros de cómputo

— Estadística aplicada

ASESORES CIENTIFICO TECNICOS S. A.

A v . R. Sáenz Peña 825 - 9° piso - of ic ina 94

Tel. 45 - 9054 / 6349 - Buenos Aires

Figura 7. Colocación sobre un nuevo soporte.

La increíble transposición

Cuando la capa de color ha perdido su cohesión a un punto tal que la consolidación "in situ" se vuelve impo-sible, o cuando el "intonaco", debido a problemas del muro, se desintegra irremediablemente, es necesario efectuar la transposición de la pintura a otro soporte. Hoy en día existen tres técnicas para efectuar esta operación:

1. Strappo: separación de la capa pictórica únicamente; 2. Stacco: separación de la capa pictórica y del "into-naco", y

3. Stacco a mosella: separación del "intonaco", "arric-cio" y parte del muro.

strappo, el método más rápido y espectacular, per-mite el arranque, en una sola pieza, de grandes superfi-cies y conserva además intacta la posible sinopia. Para poder realizar la operación, primeramente es necesario preparar la superficie del fresco, rellenar lagunas de pin-tura, eliminar incrustaciones, depósitos grasosos. Cuan-do el fresco está preparado, por medio de un pincel se aplica una cola densa de modo que asegure una contrac-ción fuerte al secarse. Esta cola se recubre con una gasa, luego se repite la operación y a este preparado se le agrega una cola más líquida colocando una tela encima. Gasa y tela van siendo aplicadas en bandas de abajo hacia arriba hasta cubrir la superficie que se desea tras-poner. Esta operación es llamada "facing".

El arranque de la pintura se realiza cuando el "facing" está seco, pero, no demasiado duro. Se tira fuertemente a partir de uno de los ángulos inferiores, enrollando la tela a medida que se libera de la superficie. Así se ha logrado transponer pinturas de hasta 20 metros cuadra-dos en una sola operación. Luego se desenrolla el fresco sobre una superficie horizontal con la tela apoyada sobre ésta y se elimina todo resto de "intonaco". En este momento el fresco es visible invertido, es decir desde atrás.

(Continúa en página 57)

SEGBA: Programa de investigación y desarrollo

Hace pocos días, cuando cerrábamos es-te número de CIENCIA NUEVA, tuvi-mos ocasión de conversar con el Prof. Jorge Sabato, Presidente del Directorio de SEGBA (Servicios Eléctricos del Gran Buenos Aires). Durante esa charla nos adelantó la primicia de las característi-cas del "Programa de investigación y desarrollo" que SEGBA ha decidido crear.

"Recientemente el Directorio de SEGBA ha aprobado la creación y puesta en marcha de un PROGRAMA DE INVESTIGACION Y DESARROLLO. Es un "progra-ma", es decir, que no es ni una Dirección ni una Ge-rencia, ya que una aspiración del Programa es que sus actividades no se desarrollen todas dentro de SEGBA sino que sea capaz de movilizar gente, equipos y recur-sos fuera de su entorno, a través de contratos de inves-tigación para problemas definidos. Tratamos que esa mentalidad rija desde el comienzo para que no se cree una estructura que luego —como es tradicional en la Argentina— tienda a cerrarse en sí m i sma . . . Somos concientes que la estructura que proponemos para el Programa tiene graves peligros, porque en una empre-sa como SEGBA el no tener una posición precisa en el organigrama pone en peligro su existencia, pero la con-trapartida es que una definición demasiado exacta aca-rrea los vicios que ya conocemos."

"El Programa depende directamente de la Vicepresi-dencia Ejecutiva, lo que le permite una gran flexibilidad para llegar a una máxima coordinación con el mínimo de dependencia de las Gerencias que va a servir. Por su-puesto es un ensayo de "cohabitación", ya que SEGBA —como toda empresa— tiene como preocupación fun-damental la producción."

"El campo de acción del Programa comprende todo lo que sea materiales, servicios, equipos, procesos que sirvan a la generación, producción, transmisión y distri-bución de electricidad, con los métodos actuales o fu-turos. Para empezar, hay una gran cantidad de equipos y materiales para estudiar, teniendo presente que la preocupación del Programa no es sólo conocerlos sino ayudar a que se produzcan en el país en la calidad y costo que permitan su empleo racional en el servicio; por eso el Programa debe conectarse con los proveedo-res e inducir en ellos una actitud nueva frente a la tec-nología. Creo que es importante recordar que el área de los materiales es una de las más desprovistas de investi-gación en el país y que los materiales ocupan muy poco lugar en la formación del joven ingeniero, que se recibe con un "desamparo" notable sobre sus propiedades y una ignorancia total de lo que ha pasado en los últimos afios en la física del estado sólido, porque estos proble-mas todavía no figuran en los programas de enseñanza. Las propiedades magnéticas y eléctricas de los materiales siguen siendo un profundo misterio para nuestros inge-nieros y esto se traduce en la producción. . . "

"Si el programa tiene éxito éste podrá medirse por la capacidad de generación de tecnología propia con el tiempo o, al menos, en una buena capacidad de juicio de la tecnología que se importe. Esto es evidente por-que actualmente, en el sector que nos provee, la investi-gación es casi cero. . . al menos como actividad siste-mática."

"Al principio el Programa no tiene muchas más li-mitaciones que la de la imaginación de la gente y la inteligencia con que se dosifique su accionar: el Pro-grama tiene que ganarse su lugar en la Empresa, ya que es muy fácil legislar sin implantar. Actualmente existe sólo como pieza de legislación; que llegue a "existir" depende exclusivamente de la capacidad de quienes lo dirigen." ' "Los fondos son 100 % SEGBA; para comenzar se han puesto a su disposición, a partir de abril, doscientos millones de pesos viejos."

"Por el momento lo que hemos hecho es definir el Programa en sus grandes rasgos, aprobarlo, darle presu-puesto y contratar a los dos primeros investigadores: el Capitán de Fragata Amílcar J . Funes y el Dr. Leopoldo Becka."

39

El automóvil eléctrico aún no tiene pilas

Horacio Speratti

El motor más adecuado a la tracción mecánica es, sin comparación, el mo-tor eléctrico aunque, por problemas ajenos al motor mismo, el único sec-tor de la locomoción que cubrió am-plia y masivamente es el de los fe-rrocarriles-. Entre las ventajas del motor eléctrico para esta tarea se destacan: sencillez constructiva, má-ximo par a velocidad de arranque, disponibilidad instantánea, buen fun-cionamiento en condiciones críticas de temperatura y presión atmosféri-ca, mínimo de piezas mecánicas ro-zantes y alternativas, facilidad de re-paración, rendimiento mecánico su-perior al 90 por ciento.

Resulta evidente entonces que, si la tracción eléctrica no invadió otros campos —especialmente el del trans-porte automotor sobre ruta— no fue debido a las limitaciones del sistema de tracción en sí, sino a los proble-mas que surgen cuando se trata de alimentar ese sistema con una fuen-te de energía adecuada a las necesi-dades y a las posibilidades del trans-porte automotor.

Los vehículos de tracción eléctrica obtienen su energía según tres sis-tematizaciones diferentes. Los ferro-carriles llevan un equipo generador de electricidad, movido por un mo-tor de combustión interna; el motor eléctrico, directamente corfectado a las ruedas hace funciones de caja de velocidades o, más exactamente, de convertidor continuo de par. La se-gunda posibilidad consiste en tomar la energía por contacto de una línea eléctrica paralela al camino; así se utiliza en ferrocarriles, subterráneos, tranvías y trolebús. El tercer méto-do es el de transportar en el mismo vehículo acumuladores o generado-res electroquímicos de energía eléc-trica. Por razones prácticas está úl-tima sería la solución ideal, pensada en función de una electrificación ma-

40

siva de los automotores, pero hasta el momento queda aún por resolver el problema de la producción a nivel y costo industrial de baterías o pilas capaces de suministrar la potencia requerida por un automóvil de ta-maño y peso (incluyendo esos ge-neradores) adecuados a las posibili-dades de utilización de ese mismo vehículo.

Una vieja historia

El primer intento de aprovechar la electricidad para facilitar la locomo-ción terrestre fue realizado en 1842 en_ Edimburgo, por A. Davidson. Utilizó pilas húmedas y dos motores rudimentarios, uno en cada eje, com-puestos por sendos tambores de ma-dera con tres barras de hierro lon-gitudinales cada uno y dos pares de electroimanes colocados diametral-mente a ambos lados de cada cilin-dro.

Serían necesarios aún los aportes de Gramme a la dínamo y de Planté y Faure al acumulador, para que un vehículo de este tipo fuera operable. Y ello sucedió recién en 1881, gra-cias a los trabajos del ingeniero Trouvé. El triciclo Coventry-Rotary motorizado por el ingeniero Trouvé realizó, según testimonios histórica-mente válidos, varios viajes cortos a una velocidad superior a los 10 kiló-metros por, hora.

En la misma época el carrocero francés Jeantaud comenzó a trabajar < en automóviles eléctricos con la co-laboracióndel ingeniero Raffard y, en 1893, sus trabajos habían alcanzado el desarrollo técnico suficiente como para competir con los otros dos sis-temas de propulsión en uso entonces en automotores: el motor de vapor y el motor de explosión. Los ve-hículos de Jeantaud y poco después los de Krieger, se contaron entre los

automóviles más refinados de su época.

El automóvil eléctrico de los al-bores del siglo ofrecía puesta en mar-cha inmediata y sin esfuerzo físico, manejo sencillo, funcionamiento ino-doro y silencioso, una velocidad aceptable para la época —20 a 30 kilómetros por hora de m á x i m a -ai costo de una reducida autonomía que raramente superaba los 80 ki-lómetros y de un largo proceso de recarga de las baterías de plomo-áci-do.

Esas mismas dificultades son las que enfrentan aún los técnicos, casi 70 años después. Todo el progreso técnico en materia de baterías, de motores eléctricos, de sistemas de comando y de mecanismos en ge-neral, no ha sido tan rápido como el crecimiento de las posibilidades del automóvil moderno y la distan-cia entre los deseos de construir un automóvil eléctrico competitivo y las posibilidades de realizarlo, per-manece aproximadamente constante e igual a la de 70 años atrás.

En aquella época, el rápido pro-greso del motor de combustión in-terna pronto superó sus limitaciones, desplazando del mercado los siste-mas de tracción eléctrica y de va-por, El actual interés en el motor eléctrico, obedece a otras razones.

La densidad de tránsito en las grandes ciudades, hace que se pro-yecten nuevos sistemas de transpor-te individual más adecuados a las posibilidades reales de esas ciudades que los automóviles actuales y la tracción eléctrica parece más adecua-da para mover esos vehículos. Pero es esencialmente el problema de la polución atmosférica —a la que el motor de combustión interna con-tribuye generosamente— el que ha llevado a replantear las posibilidades de la tracción eléctrica.

La carrera (le los técnicos

La historia del desarrollo técnico del automóvil está estrechamente ligada a la competencia deportiva y uno de los hitos de ese desarrollo fue es-tablecido —curiosamente— por un automóvil eléctrico.

Construido por la casa Rotschild según las indicaciones del técnico y corredor belga Camille Jenatzy, te-nía forma de torpedo naval y su tínico objetivo era batir el record absoluto de velocidad terrestre. Con este vehículo llamado "La jamais contente", Jenatzy fue el primer hombre que superó los 100 kilóme-tros por hora, el 1? de mayo de 1899 (Su velocidad promedio para el kilómetro lanzado fue de 105,850 km/h).

Con parecido espíritu deportivo, estudiantes y técnicos del California Institute of Technology y del Mas-sachussets Institute of Technology disputaron, en octubre de 1968, una carrera de costa a costa de los Es-tados Unidos, con automóviles eléc-tricos.

El Caltech utilizó una camioneta Volkswagen Kombi en la que el mo-tor original fue reemplazado por un motor eléctrico, conservándose el embrague y la caja de velocidades. El MIT preparó un automóvil Corvair (cedido por General Motors que es-taba interesada en la experiencia) con una caja manual de cuatro ve-locidades, pero sin embrague. Ambos vehículos utilizaron un motor de tracción Baker, de bobinado en se-rie, capaz de entregar 20 HP con 120 volt, a 4.500 revoluciones por minuto, pero confiaron el suminis-tro de energía a dos fuentes dife-rentes.

Los técnicos del Caltech utiliza-ron 21 baterías de plomo-cobalto, de seis volt cada una, con un peso to-tal de 862 kilogramos y una capa-cidad de descarga máxima de 350 ampere. El costo total de las baterías fue de 600 dólares. La gente del MIT prefirió una solución más so-fisticada: utilizaron 320 celdas Gui-tón de niquel-cadmio de 1,2 volt y 75 Ah cada una, cuyo peso total era de 816 kilogramos, a un precio abo-minable: 18,500 dólares. En com-

1 pensación podían contar con una co-rriente instantánea teórica de 7.500 ampere (lo que exigió una cuidadosa manipulación del cableado) y un tiempo de recarga de sólo 15 mi-nutos.

Si a estos vehículos les cupo el

relativo mérito de ser los primeros automóviles de tracción eléctrica que realizaron el viaje de costa a costa, las innúmeras dificultades, el bajísi-mo promedio realizado en el recorri-do y el alto costo de la operación, sólo sirvieron para demostrar que* el automóvil eléctrico dista mucho aún de ser una posibilidad prácti-ca. Aunque con un valor puramen-te anecdótico, debe mencionarse que ganó el automóvil del Caltech.

Los proyectos recientes

Todos los países industrializados producen vehículos eléctricos desti-nados a usos especiales: camionetas de reparto a corta distancia, vehícu-los para movimiento interno de fá-bricas, patios de carga, andenes de ferrocarriles, etc. Quizá el más di-fundido de estos vehículos eléctricos de aplicación limitada, sea el peque-ño triciclo o cuadriciclo utilizado pa-ra trasladarse en los campos de golf. Una docena de fabricantes en los Estados Unidos cubren un mercado de golf-carts que se estima que su-perará al millón de unidades anua-les antes de terminar esta década. Para esos fabricantes pasar de la producción del golf-cart a la de un pequeño automóvil urbano, signifi-ca solamente un cambio de escala. Claro que ellos no pueden resolver el problema de la fuente de energía porque, por el momento, el uso de baterías comunes no impone en sus

• productos ninguna limitación apre-ciable.

Otra es la situación de las grandes fábricas de automóviles que deben proveer una respuesta integral al problema del automóvil eléctrico.

El automóvil urbano GM-512 es un buen ejemplo de una solución heterodoxa. Esta versión experimental impulsada por un sistema híbrido, ha sido también realizada con un pequeño motor de combustión interna de limitada emisión de gases nocivos o con tracción eléctrica pura y baterías de alto rendimiento.

Precisamente fueron las "dos gran-des", Ford y General Motors, las primeras en publicitar sus trabajos en esta área, alrededor de 1966. El proyecto de Ford de Inglaterra, el City-Car tenía una autonomía de 80 kilómetros y una velocidad máxima de 65 kilómetros por hora con ba-terías comunes. El City-Car no fue más que un ejercicio de ingeniería para adelantarse a la puesta a punto de las fuentes de energía necesarias, trabajo que Ford confió entonces a la General Dynamics. La "superba-tería" de Ford y GD necesitaba de 5 a 10 años de trabajos de desarro-llo, pero ya han pasado cuatro y la máxima autonomía prevista para una carga no supera los 230 kilóme-tros y a un costo inicial prohibitivo.

General Motors de los Estados Unidos construyó dos vehículos ex-perimentales sobre la base de ve-hículos de serie: el Electrovair y el Electrovan (descendientes respecti-vamente del Corvair y Corvan de se-r ie) . El primero estaba impulsado por baterías de plata-zinc, pero el Electrovan fue un paso más adelan-te en el futuro, ya que utilizó pilas de combustible, es decir, un disposi-tivo que admite combustible y en-trega electricidad. Los trabajos de Ford y cíe General Motors se conti-

41

cámara de aire de baterías inductor del motor

baterías ainc-

cargadores de balerías

/( l;J!l entrada

ventiladores

- caja de cambios

-motor corriente continua

refrigeración • de motores

- controles

- tomas de aire

-baterías de plomo-ácido

El dibujo radiográfico desmiente la aparente sencillez del automóvil electrico. Asimismo da una idea de los volúmenes ocupados por los distintos equipos, en este caso instalados sobre un automóvil de serie Opel Kadett en reemplazo del motor de combustión interna.

nuaron en otros vehículos experi-mentales que, sin resolver los pro-blemas básicos de exceso de peso y carencia de energía suficiente, apor-taron diversos perfeccionamientos a Ja idea básica.

La puesta "de moda" del automó-vil eléctrico llevó al Salón del Auto-móvil de Turín de 1967 varios ve-hículos experimentales con propul-sión eléctrica. Algunos, como el Giannini y el Moretti, se basaron en la posibilidad de electrificar un au-tomóvil actual de tamaño mínimo en este caso, el Fiat 500. Otros, co-nro el Urbanina y más especialmente el Rowan/De Tomaso/Ghia, resul-taran ejemplos de lo que debería ser un automóvil eléctrico para uso ur-bano, producido en gran serie, cuan-do exista la fuente de poder adecua-da.

Un nuevo concepto

Estos proyectos, así como los más recientes de las grandes fábricas muestran que no se trata solamente de reemplazar el motor de combus-tión interna por su equivalente eléc-trico, sino que la solución eléctrica

42

se aplicaría a través de un automóvil de nuevo concepto. Un vicepresi-dente de Bendix Corporation, firma estrechamente ligada a la industria automotriz, señaló —hace ya cuatro años— que la tecnología automo-triz es relativamente arcaica cuando se la compara con la de otros campos de la técnica. Señaló el mérito de los ingenieros por haber desarrollado y refinado hasta tal grado las solucio-nes ^técnicas tradicionales, pero su-girió que el continuo refinamiento de viejas ideas será insuficiente para proveer a las necesidades sociales económicas y políticas de los próxi-mos años.

El presupuesto técnico básico de ese nuevo concepto en automóviles iue definido con precisión por un equipo de estudio de la General Mo-tors de Estados Unidos como sigue:

1. Los componentes y materiales deben estar al alcance de la tecnolo-gía actual y lograrse al mínimo costo posible.

2. El vehículo debe proveer a las necesidades mínimas de transporte personal y no necesita brindar el confort, el lujo, el espacio ni la pres-tación de los actuales automóviles de pasajeros.

3 Se considera adecuada una ve-locidad maxima de 50 a 70 kilóme-tros por hora, con una capacidad de aceleración aproximada de 0 a 50 k l ™ r ° s P°r hora en 16 segundos.

4. Debido a su pequeño tamaño, su baja velocidad y s u limitada ca-pacidad de aceleración, estos auto-móviles no se mezclarán en el trán-sito actual y requerirán un sistema separado de calles, zonas separadas

en las calles y rutas existentes o áreas de operación restringidas.

5. Los standard de seguridad ac-tuales no son aplicables a un vehícu-lo tan radicalmente diferente

En otras palabras, se busca crear un vehículo de transporte personal de aplicación exclusivamente urbana que minimice el problema de la con-taminación atmosférica y del apro vechamiento. del espacio útil, tanto en operación como en estaciona-miento.

Las fuentes <le energía

Los trabajos para alcanzar una fuen-te de energía eléctrica apta para uso en automotores se dirigen hacia tres objetivos diferentes: baterías, siste-mas híbridos, pilas de combustible

l a r a ser utilizadas conveniente-mente en automóviles las "superba-terías" deben alcanzar una relación peso/potencia significativamente más baja que la de las actuales baterías de plomo-ácido, a un precio accesi-ble y con posibilidad de recarga rá-pida. La aviación utiliza desde ha-ce tiempo baterías de niquel-cadmio —adoptadas también en los automó-viles deportivos— que, en vista de los objetivos perseguidos, apenas re-presentan una mejora.

Ford estuvo trabajando en una batería de sodio-azufre, capaz de en-tregar 330 watt-hora por kilogramo de peso, pero requería una tempera-tura de trabajo de 250 a 300 grados centígrados lo que implicaba la ne-cesidad de calentamiento previo y elevado riesgo de utilización. _ El Dr. George Hoffman, un espe-

cialista de la Universidad de Califor-nia, sostiene que la batería metal-aire sería adecuada para este uso. Esta batería deriva su energía de la conversión de un metal en su óxido. El tipo estudiado por el Dr. Hoff-man utilizó zinc como metal activo y alcanzó un rendimiento de 132 watt-hora por kilogramo. Esta cifra se compara muy favorablemente con los 20 watt-hora por kilogramo de las baterías corrientes, pero estas ba-terías experimentales están lejos de las posibilidades prácticas. Posible-mente un avance más real sea el rea-lizado por Delco-Remy con su bate-ría de plomo-ácido que pesa 25 por ciento menos y ocupa un volumen 32 por ciento menor que el de las ba-terías convencionales de capacidad equivalente. Este es el resultado de una tecnología aplicable inmediata-mente; los otros casos son ensayos

de laboratorio o, por su alto costo, están limitados a la aviación, la técnica espacial u otros usos sofis-ticados,

.Los denominados "híbridos" son aquellos que integran dentro de un mismo vehículo un sistema de trac-ción eléctrica, un sistema de acumu-ladores y un equipo generador mo-vido por un motor de combustión. A pesar de su aparente complicación, este sistema tiene algunas posibili-dades notorias.

Como los acumuladores y el ge-nerador pueden utilizarse simultánea o separadamente para impulsar al vehículo, efectivamente se requiere mucho menos potencia en el motor térmico y en baterías (y peso co-rrespondientemente menor), a la vez qué toda la energía del genera-dor que no se utiliza en la tracción (durante el frenado, o con el vehícu-lo detenido) es aprovechada para re-cargar las baterías. El motor de combustión, como trabaja a veloci-dad constante, puede ser de cual-quier concepción mecánica, quemar cualquier combustible y ser diseñado de manera tal que sus emisiones no sean contaminantes.

Un buen ejemplo de lo que el sis-tema híbrido permite es el proyecto

Stir-Lec de General Motors. Este vehículo experimental cuenta con 14 baterías de plomo-ácido de 44 am-per-hora y un motor Stirling de combustión externa y ciclo cerrado que impulsa un alternador trifásico. Circuitos electrónicos relativamente simples permiten establecer la inte-rrelación entre generador, baterías, motor de tracción y su adecuado con-trol acorde con las necesidades de utilización del vehículo.

El Stir-Lec, basado en un Opel Rekord, tiene una velocidad máxima de 80 kilómetros por hora que se reduce, para uso continuo (sin des-carga de las baterías) a 50 kilóme-tros por, hora, evidentemente muy por debajo de las performances del mismo vehículo con un motor con-vencional. Pero en otro tipo de ve-hículos, como en el ómnibus experi-mental Mercedes-Benz OE 302, la performance con sistema híbrido es similar a la del vehículo convencio-nal; aquí lo que se reduce es capaci-dad de carga que resulta dos tercios de la del ómnibus equivalente de la misma marca y modelo. El ómnibus Mercedes-Benz utiliza 189 elementos de plomo-ácido de 2 volt de gran capacidad, un motor diesel de velo-cidad constante de 65 CV y un al-

ia electrónica ha acercado las posibilidades de la tracción eléctrica. Este es el equipo de control del ómnibus híbrido Mercedes-Benz.

Para la operación eléctrica pura, el ómnibus híbrido Mercedes-Benz requiere una batería de 189 elementos de plomoácido que pesan 3,5 toneladas. La acumulación o generación de energía electroquímica es aún un problema sin solución práctica.

43

ternador trifásico. También en este caso, la combinación es posible gra-cias a dispositivos electrónicos de control.

La pila de combustible

Desde un aspecto estrechamente teó-rico, la pila de combustible es la so-lución ideal, no sólo para impulsar automotores, sino también para cu-brir otras necesidades de energía del mundo actual. La pila de com-bustible es un dispositivo electro-químico capaz de transformar direc-tamente un combustible en energía eléctrica. Esta definición implica que su rendimiento no está limitado por el ciclo de Carnot de las máquinas térmicas, que trabaja en silencio y sin emisiones nocivas y que, por ca-recer de partes mecánicas móviles, prácticamente no requiere manteni-miento.

Aquí debe precisarse que una pila de combustible de utilidad comer-cial, debe cumplir ciertta condiciones que son aún los objetivos de su des-arrollo:

1. Debe utilizar combustible y comburente que abunden en la natu-raleza.

2. Su construcción y funciona-miento no debe requerir el uso de materiales escasos o de compleja tecnología.

3. Es preferible que no contenga sustancias químicas muy activas ni requiera altas temperaturas de fun-cionamiento.

4. Debe tener una adecuada rela-ción peso/potencia y volumen/po-tencia.

5. Debe tener una vida útil com-parable a la de los convertidores de energía actuales.

Ninguna pila de combustible ac-tual cumple en conjunto estas condi-ciones. Todas son, para empezar, ex-cesivamente onerosas de producir y operar y su uso práctico está limita-do a la actividad espacial donde al-aunas de estas limitaciones no impe-ran. El tipo técnicamente más des-arrollado e s e l de las d enominada s pilas de electrolito alcalino; así son las del proyecto Apolo, alimentadas con hidrógeno y oxígeno. También de ese tipo es la pila francesa Als-thom que en su versión más desa-rrollada consume hidrazina y aire y que utilizaría, en una etapa más avanzada que los técnicos desespe-ran de alcanzar, metanol y aire. Es

importante observar que, en estos trabajos, Alsthom recibe apoyo eco-nómico de la fábrica de automóviles Peugeot.

A mediados de 1970, da firma ja-ponesa Sony presentó un desarrollo que ofrece más posibilidades prácti-cas: una batería zinc-aire con ali-mentación continua de zinc, de modo que funciona como si fuera una pila de combustible. El zinc se introduce pulverizado y un sistema mecánico lo mezcla en el electrolito y lo hace circular por la batería. La densidad de energía de esta batería es apre-ciable; puede llegar a 450 watt-hora por kilogramo, más que cualquier otro acumulador de energía comenta-do en esta nota, pero aún la mitad de lo que ofrece un motor de explo-sión. El sistema de Sony tiene, sin embargo, algunas ventajas importan-tes: opera instantáneamente, no re-quiere calentamiento y cuesta 1/300 de las actuales pilas de combustible.

El motor de combustión interna, con sus inconvenientes, cuestionado reiteradamente a lo largo de su his-toria, sigue siendo hasta el momento la única solución comercial e indus-trialmente viable para impulsar au-

tomotores. El esfuerzo dedicado a reemplazarlo —en el plano económi-co y en el técnico— no ha sido aún suficiente, por lo ya visto, para cues-tionar su liderazgo.O

Bibliografía

V. S. Bagotskii, Yu, B. Vasilev: Fuel Cells, their Electrochemical Kinetics, traducción del ruso al inglés, New York, Consultant Bureau, 1966.

Cari Bergen Handbook of _ Fuel Cell Technology, Englewood Cliffs, Prenti-ce Hall, 1968.

D. V. Ragone: Review of Battery Sys-tems for Electrically Pouiered Vehicles, SAE Paper N'1 680453, mayo 1968.

P. D. Argawal, R. J . Mooney, R. R. Toe-pel: Stir-Lec, A Stirling Electric Hy-brid Car, SAE Paper N° 690074, enero 1969.

J . J . Gumbleton, D. L. Frank, S. L. Plenslak, A. G. Lucas: Special Parpóse Urban Cars, SAE Paper N'-' 690461, tnayo 1969.

Institut Erancais du Pétrole, Les Piles <t combustible, París, Ed. Technip, 1965.

Helmut Tannenberger, Les piles a com-bustible, La Recherche N" 3, julio-agos-to 1970.

No, el cartel está bien, pero yo sigo insistiendo en correrlo unos metritos...

44

Novedades de C1CÍ1C13.

y tecnología

1 La fecundación de la reina

El Dr. Jerzy Woyke, profesor de la Escuela Central de Economía Agrí-cola de Varsovia, es un joven cien-tífico polaco quien tiene en su ha-ber dos descubrimientos importan-tes relacionados con la fecundación de la abeja reina y con el número de cromosomas de estos insectos. Sabemos que durante el vuelo nup-cial la abeja reina es fecundada en el aire y que esa fecundación basta para que deposite huevos durante toda su vida. Hace ocho años el Dr. Woyke demostró que durante el vuelo nupcial la reina es fecundada no sólo por uno sino por lo menos por diez zánganos. A la misma con-clusión llegaron también otros cien-tíficos, más o menos al mismo tiem-po, utilizando métodos diferentes. Este descubrimiento significó una verdadera revolución en la cría de especies mejoradas de abeja me-lífera.

El segundo descubrimiento es ex-clusivo del Dr. Woyke. En la fa-milia apícola los zánganos son aploi-des, es decir, poseen un número simple de cromosomas; las reinas por el contrario son diploides, tie-nen un número doble de cromoso-mas y las obreras son diploides sub-desarrolladas, podríamos decir hem-bras atrofiadas. Se concibió enton-ces para las abejas una teoría de determinación sexual según la cual los individuos con un número sim-ple de cromosomas serían machos y con doble hembras.

Esta teoría fue negada por Woy-; lee quien logró probar la posible

existencia de zánganos diploides si las abejas no los destruyesen en es-tado larval. Woyke sustrajo algunas larvas a la tutela de sus ciudadores y crió zánganos adultos con doble número de cromosomas, es decir di-ploides. Resta comprobar qué ocu-rriría si un zángano diploide fecun-dase una abeja también diploide; las características de esa hipotética des-cendencia pueden ser fascinantes. O

2 Los inductores de interferón

La explotación de las defensas na-turales del organismo ofrece una interesante perspectiva en el control de las enfermedades virales. Los productos químicos capaces de in-ducir la formación de interferón en cultivos de tejidos y en animales suscitan, desde hace cierto tiempo, un gran interés, debido a sus posi-bilidades terapéuticas.

Recordemos que el interferón es una proteína de acción antiviral, producida por ciertas células de los vertebrados en respuesta a una in-fección viral; su historia comienza en el año 1927, cuando Alick Isa-acs y Jean Indeman la descubrie-ron mientras estudiaban el fenóme-no de interferencia viral, o sea, la propiedad de un virus infeccioso de interferir en el desarrollo de otro. Es importante recordar que el in-terferón ejerce su acción únicamen-te en el interior de la célula y que, en teoría, representa el agente tera-péutico de selección de las enferme-dades virales, ya que provoca esca-

sa reacción por parte del organismo y porque es capaz de inhibir el de-sarrollo de cualquier virus en cual-quier célula. El fenómeno puede observarse en vegetales, bacterias y animales infectados por virus, quie-nes adquieren resistencia a posterio-res infecciones provocadas por otros virus. Su actividad se destruye pol-la acción de enzimas proteolíticas; su peso molecular se calcula en 60.000.

Un ejemplo que i lustra el me-canismo de defensa desempeñado por el interferón es la capacidad del embrión de pollo para responder a infecciones virales, respuestas que no se basan en la producción de an-ticuerpos, ya que este fenómeno nunca tiene lugar en una etapa tan temprana de desarrollo embriona-rio. La resistencia a las infecciones virales en el embrión de pollo se relaciona con la aparición simultá-nea del interferón y la infección. Después de los siete días la reacción se hace notable y los embriones pro-ducen gran acnticlad de interferón demostrando capacidad antiviral. Es-te proceso se comprobó al confir-marse que es el ácido nucleico viral el agente de la producción de inter-ferón en las células infectadas por virus.

Fueron varias las dificultades que retardaron las aplicaciones prácticas del interferón, especialmente pro-blemas de costo de producción, de purificación y la propiedad de es-pecificidad de la especie; por ejem-plo, únicamente el interferón que proviene de células humanas o de algunos primates tiene una acción antiviral en el hombre.

En 1967, investigadores del Ins-tituto Merck, en Pennsylvania, co-municaron que un ácido ribonuclei-co sintético de doble cadena, el áci-do polirriboinosínico-polirribocitidí-lico ("poli I: poli C" ) era capaz de

45

estimular la producción de interfe-rón en cultivos de tejidos y en ani-males. Este polinucleótido competi-ría holgadamente con otros inducto-res de interferón que se revelaron poco utilizables en clínica. Desde la aparición del trabajo (A. K. Field, A. A. Tytell, G. P. Lampson y M. R. Hilleman, Proc. Nat. Acad. Sci. US, 58, 1004-1010, 1967) el polí-mero ha sido objeto de numerosas investigaciones, tanto in vit.ro como en animales. En la actualidad se co-nocen dos mecanismos esenciales de su actividad antiviral: la capacidad de inducir la síntesis de interferón y la propiedad de estimular, en el organismo, algunas reacciones inmu-nológicas. Además, el poli I: poli C tendría un efecto antitumoral di-recto, es decir, inhibiría la multipli-cación de algunas células cancerosas.

Hoy se cuenta con una abundan-te literatura sobre la acción antiviral de este polinucleótido en animales. M. R. Hilleman (/. Infec. Dis.} 121, 196-211, 1970) dice que la admi-nistración preventiva de poli I: po-li C en ratones, por ejemplo, permi-te a estos' animales resistir, durante una semana, a la inoculación de do-sis de virus de la neumonía 300 veces más potentes que las que ha-bitualmente matan a la totalidad de los testigos. Un colirio a base de poli I: poli C impide el desarrollo de lesiones de herpes en la córnea del conejo e inyecciones repetidas del polímero disminuyen el creci-miento de diversos tumores malig-nos en los ratones.

En cuanto a la posibilidad de un empleo terapéutico en el hombre, se ha estudiado la acción antiviral del polímero en cultivos de células humanas. Se ha observado así su capacidad de proteger las células primarias del riñon contra algunos virus de la gripe y los resfríos. Al-gunas investigaciones parecen de-mostrar que la presencia continua de poli I: poli C no altera la dupli-cación de células diploides humanas durante doce generaciones, aún sí el polímero se utiliza en dosis su-periores a las empleadas contra la infección viral.

Es interesante citar también un artículo del Dr. Thomas C. Meri-gan, jefe de la división de enfer-medades infecciosas en la Escuela de Medicina de la Universidad de Stanford, California, aparecido en la revista inglesa New Scientist, en diciembre de 1970. En el citado ar-

tículo, Merigan hace referencia a sus estudios y ensayos sobre un pro-ducto químico simple, la tilorona, que estimula la producción del in-terferón y protege a los animales de laboratorio contra ciertos tipos de virus a ARN y a ADN. Uno de los aspectos más interesantes del descu-brimiento reside en que los bioquí-micos pueden modificar la molécula de tilorona —que es una amina aro-mática— para hacerla aún más efec-tiva como inductora de interferón.

Recientemente, un comité de ex-pertos convocado por la NASA con-sideró el uso de inductores de inter-ferón en viajes interplanetarios: sin embargo el comité llegó a la conclu-sión de que era necesario realizar estudios exhaustivos sobre estos pro-ductos y sus efectos en nuestro pla-neta antes de suministrarlos a los astronautas.

Es evidente que toda perspectiva de aplicación terapéutica de una sustancia exige ensayos de toxicidad. Varios laboratorios se han consa-grado a este problema en lo que concierne al poli I: poli C. En pri-mer lugar, hubo que definir las con-diciones necesarias para la obten-ción de un producto reproducible. Las preparaciones del polinucleóti-do se obtienen mediante aparea-mientos de cadenas de longitud va-riable de ácido polirriboinosínico y de ácido polirribocitidílico; el pro-ducto final dependerá de una serie de factores físicos que comprenden, además de la longitud media de las cadenas de homopolímeros en la preparación inicial, la fuerza iónica de la solución, la temperatura, etc. El control de estos factores se reve-la tanto más necesario puesto que ellos determinan la eficacia del pro-ducto, al menos en lo que respecta a la inducción del interferón. Para obtener preparaciones activas, ac-tualmente se seleccionan las condi-ciones que favorecen la estabilidad del polímero y retardan su destruc-ción por la ribonucleasa. Sobre este último aspecto, Merigan publicó un artículo en la revista Nature, volu-men 228, página 219, del añ,o 1970. Queda aún por determinar si el au-mento de la estabilidad no implica un aumento de la toxicidad.

Los problemas de tolerancia y to-xicidad de las sustancias inductoras de interferón parece que dependen, en gran medida, de la especie ani-mal considerada. El conejo y el pe-rro, por ejemplo, son mucho más

sensibles que el ratón a los efectos tóxicos del poli I: poli C; en cam-bio, el mono es particularmente re-sistente, lo que permite suponer que sería igual para el hombre. Por otra parte, en ensayos con ratones se señalaron alteraciones de la fór-mula sanguínea caracterizadas por una leucopenia transitoria, con apa-rición de formas inmaduras en la sangre periférica. En el perro, se observaron lesiones necróticas en el hígado, el bazo, la médula ósea y los huesos, como también lesiones de los aparatos digestivo y nervioso. En cuanto a la tilorona, dice Meri-gan que después de aplicarla a dis-tintas especies se observaron extra-ños gránulos intercelulares de du-doso significado en las células rno-nonucleares de la sangre y en las del tejido reticuloendotelial.

Esta toxicología no debe indu-cir a renunciar a una eventual uti-lización, en el hombre, de estos in-ductores de interferón. El proble-ma reside en encontrar las condi-ciones favorables de empleo y las vías de administración que permi-tan obtener la eficacia deseada. Los efectos tóxicos de las dos sustancias mencionadas en esta nota parecen particularmente considerables si se las suministra por vía endovenosa; son mucho mejor toleradas por vía oral, método que ofrece posibilida-des de aplicación terapéutica en ca-sos de infecciones respiratorias de origen viral. O

3 El reactor de neutrones rápidos

El Instituto de Investigación de Reactores Atómicos de Melekéss (URSS) cuenta con un alto edificio en forma de cúpula donde se encuen-tra el reactor MIR y el reactor expe-rimental de neutrones rápidos BOR 60.

Los físicos diferencian dos tipos de reactores, los térmicos y los rá-pidos, guiándose por la energía de los neutrones que mantienen la reac-ción en cadena. Los distintos tipos de reactores se diseñan tomando en cuenta que lo fundamental es preci-samente poder controlar dicha reac-

46

• •s f " ! '» . : - -» ' : . . s ; -gsssa» " i f f inaf tTrs

4

Sala central del reactor MIR-2 en el Instituto de Investigación

Científica de Reactores Atómicos, en Melekéss,

ción en cadena. Los neutrones de los reactores térmicos son retrasados ar-tificialmente con grafito o con agua pesada. Como es sabido, el combus-tible que se utiliza en estos reactores "corrientes" es el uranio 235, que en la naturaleza se encuentra solamente como impureza del uranio 238 y en cantidades insignificantes: menos del 1 % de su peso. Para obligar al ura-nio 238 a que se divida es necesario convertirlo en plutonio, más fácil de fisionar.

Dicha fisión es más efectiva si el uranio se bombardea con neutrones rápidos. Hace unos años los físicos calcularon esta reacción y resultó que de cada kilogramo de combus-tible se obtenía aproximadamente un kilogramo y medio de combustible nuevo. Aunque parezca paradójico, los reactores rápidos pueden produ-cir combustible suplementario.

Estas conclusiones fueron confir-madas por el pequeño reactor expe-rimental construido en Obninsky, en los alrededores de Moscú. Con la aparición de los reactores de neutro-nes rápidos se abrieron nuevas po-sibilidades para la energética atómi-ca. En el futuro se podrá quemar casi tocio el uranio que se obtiene en las minas y no un porcentaje ínfimo, como sucede ahora. De ese modo los reactores rápidos tendrán poten-cialmente sus recursos de materias primas durante decenas de años. Además, e.1 combustible nuclear de

esos reactores se quema a mayor pro-fundidad e intensidad.

En la actualidad el problema prin-cipal reside en el rendimiento econó-mico de los reactores de neutrones rápidos. Los cálculos demuestran que las instalaciones de mayor capacidad competitiva con otro tipo de centra-les eléctricas serán las de mayor po-tencia. Por ese motivo se está cons-truyendo cerca de Beloyarskaia (Si-beria) un bloque reactor de 600 megavatarios de potencia.

Para "domesticar" los neutrones rápidos ha sido necesario resolver muchos problemas complejos. Uno de ellos sigue siendo tema de discu-sión entre científicos de varios paí-ses y consiste en que debido a que el agua desacelera los neutrones (en los reactores comunes es el agua la que transmite el calor a los genera-dores de vapor) surgió la necesidad de otro agente transmisor del calor. Se probaron distintos gases, vapor de agua, sales fundidas, pero lo más efectivo resultó ser el sodio, metal que se transforma en líquido a la temperatura de 100 grados aproxi-madamente.

El sodio líquido circula por los circuitos de intercambio térmico del BOR 60. En el compartimiento de la sala de máquinas donde se encuen-tra una de las cuatro bombas gigan-tes, el espacio libre es reducido de-bido a los gruesos tubos envueltos en varias capas de aislamiento térmi-co. Por ellos se bombea el sodio al reactor,

A la velocidad de 10 metros por segundo el sodio "lava" las varillas de los elementos combustibles en los que se lleva a cabo la reacción. Y en ese tiempo logra absorber el calor atómico. O

Microcirugía ocu la r

En la cátedra de oftalmología pato-lógica del Instituto de Medicina de Moscú se vienen realizando desde-hace años investigaciones en micro-cirugía ocular. Uno de los triunfos más significativos de l a microciru-gía consiste en la factibilidad de la corrección de la óptica del ojo. Las estadísticas demuestran que la ma-yoría de los defectos visuales son consecuencia de imperfecciones del aparato óptico del ojo y que las per-sonas que poseen una óptica nor-mal son la minoría: apenas un ter-cio. La naturaleza es pródiga en la producción de ojos defectuosos, mio-pes o hipermetropes e incluso de defectos más evidentes, como, por ejemplo, el astigmatismo.

Hasta hoy la única solución para estos defectos consistió en el uso de anteojos y, en el mejor de los casos, de los modernos lentes de contacto. Ahora, la microcirugía per-mite alterar la curvatura del crista-lino (la lente del sistema óptico del ojo) y de la córnea, achatándola o haciéndola más prominente.

La técnica quirúrgica actualmente más utilizada es la remodelación de la córnea. La intervención consiste en extraer las capas anteriores de la córnea hasta una profundidad de medio milímetro; el tejido así ex-traído se congela y u n a vez solidi-ficado, se remodela en un torno mi-núsculo hasta que quede con la curvatura deseada, del mismo modo que se pule una lente, y luego se lo injerta nuevamente en su sitio. Mediante esta operación, la parte extraída de la córnea puede tomar la forma ele lente posit iva o negati-va, según las necesidades.

Este tipo de intervención, aparte de su amplia aplicación en casos de miopía, presbicia, astigmatismo, pue-den ser muy útiles como tratamien-to accesorio después de la extirpa-ción de cataratas. Cuando se ha ex-tirpado el cristalino, una remodela-ción de la córnea puede imprimirle una curvatura conveniente, que faci-lita la rehabilitación de l paciente. O

47

5 Generador solar

L a f o t o g r a f í a m u e s t r a un g e n e r a d o r s o l a r a s e m i c o n d u c t o r e s , r e a l i z ado po r el I n s t i t u t o Es t a t a l d e E n e r g í a d e M o s c ú . E s t e g e n e r a d o r d e ener-g í a e l é c t r i c a e s t á d e s t i n a d o a ser i n s t a l a d o en z o n a s desé r t i c a s d o n d e , c o n e c t a d o a u n a b o m b a a d e c u a d a , p o d r á e l e v a r 1 , 5 tone l ada d e agua por l iora d e s d e una p r o f u n d i d a d de 2 0 m e t r o s . O b v i a m e n t e , a l ap rove -c h a r la e n e r g í a so lar , es te e q u i p o r e q u i e r e e scaso m a n t e n i m i e n t o y n e n e un cos to d e operac ión despre -c i a b l e . Es to , a su vez , f a v o r e c e l a i n s t a l a c i ó n en zonas r e m o t a s o d e d i f í c i l acceso , s i e m p r e q u e c u e n t e n con la a d e c u a d a expos ic ión so la r . O

6 El puente sumergido

El Gobierno de Italia llamó a una licitación de anteproyectos de un puente sobre el estrecho de Messi-na. Este estrecho, que une el extre-mo_ continental de la península con la isla de Sicilia, presenta algunas dificultades particulares. Tiene 3 ki-lómetros de longitud y una profun-didad variable que llega hasta los 350 metros. Tiene además un in-tenso tráfico marítimo que la erec-ción de un puente no debe molestar.

La solución obvia resulta el puen-te colgante y cinco de las seis ideas premiadas por la licitación se refi-rieron a este tipo de construcción, en variantes de 1, 3, 4 ó 5,luces. Sólo el puente colgante de una sola luz llena plenamente las exigencias técnicas, ya que es el único que no obstruye la navegación, pero un puente así concebido debe tener sus torres de ancla¡e de una altura equi-valente a la del Empire State Builcl-ing. Además el viento movería es-te puente en forma tal que asusta-ría a los que lo transitan.

La otra idea —única presentada por una firma extranjera— fue rea-lizada por un grupo británico de

i a

ingeniería con sorprendente origi-nalidad. Los ingleses propusieron un puente sumergido y flotante. La idea de un túnel subácueo clásico tampoco era viable, no sólo por la diferencia de profundidades del le-cho marino, sino porque el puente debe servir también como paso fe-rroviario y su construcción no sería compatible con las débiles pendien-tes que son capaces de superar los transportes sobre rieles. _ El puente del grupo británico ob-

via estos dos inconvenientes porque flota a sólo 50 metros por debajo

de la superficie y no requiere mu-cho más de un kilómetro de túne-les de cabecera sobre el terreno firme. El túnel flotante, anclado al lecho del mar, tiene otras ventajas: no está sometido a cambios de tem-peratura más allá de unos pocos grados centígrados, es más fácil y más rápido de instalar que un puen-te colgante, no es afectado por los vientos. Enfrenta, sin embargo, el curso de las corrientes marinas, pe-ro ese esfuerzo se puede minimizar dando al túnel un perfil externo adecuado, así como la adecuada fle-xibilidad que le permita curvarse bajo el esfuerzo, a la manera de los pontones de un puente flotante con-vencional.

Si bien no se ha hecho hasta el presente un cálculo detallado de costos, parece ser que el puente su-mergido es la forma más barata de cruzar inconvenientes geográficos de este tipo y magnitud. La ilustra-ción adjunta muestra un corte del proyecto inglés que, para adecuarse a las exigencias de la licitación, consta de tres tubos de acero y hor-

migóri destinados, uno de ellos, al cruce ferroviario y, los otros dos, al tránsito automotor.

Si el Gobierno italiano decidiera poner en marcha este proyecto, se estima que estaría en condiciones operativas hacia fines de la presen-te década. O

7 El motor Wankel se complica

El motor de combustión interna ele pistón rotativo, patente "Wankel, es el competidor más serio que ha te-nido el motor de pistones en toda su historia y en su aplicación en au-tomotores. Si bien hasta ahora el mercado internacional ofrece unos pocos automóviles impulsados por motor Wankel (NSU, Mazda, Ci-troen), son numerosos los fabrican-íes de automóviles que trabajan in-tensamente en su desarrollo y que lo aplicarán en sus productos, en los próximos años.

También Rolls-Royce trabaja, des-de hace seis años, en un prototipo a pistones rotativos'destinado a ve-hículos militares. Ese prototipo fun-ciona según el ciclo diesel —es de-cir, de alta compresión y autoencen-dido— y presenta innovaciones mor-fológicas que sorprendieron a los especialistas.

Una de las limitaciones del motor de cámaras epitrocoidales, de alta compresión, es su elevada relación superficie/volumen. Para mejorar ese valor los ingenieron de Rolls-Royce decidieron aplicar el princi-pio Wankel en dos etapas. Cada unidad del nuevo motor consta de dos rotores que se mueven en la misma dirección y a la misma velo-cidad, con una diferencia de fase de 180 grados, aproximadamente.

El pistón o rotor inferior, de mayor tamaño, tiene superficie de trabajo planas. Aspira el aire exte-rior y lo comprime a baja presión. A. través de un canal de transferen-cia el aire es introducido en la cá-mara superior donde es comprimido hasta provocar la ignición espontá-nea del combustible. El rotor supe-

rior tiene cámaras de forma espe-cial, socavadas en sus flancos.

Los gases en expansión actúan sobre la cara del rotor superior y luego, a través de otro canal de transferencia —y a menor presión— impulsan el rotor inferior, antes de salir al exterior.

Este motor puede construirse mediante el agregado de sucesivas unidades, hasta una potencia de 1,000 HP. Inicialmente será cons-truido con sólo dos "cilindros", to-talizando un volumen aspirado de 6.500 centímetros cúbicos, con una potencia de 350 bHP a 4.600 revo-luciones por minuto, un peso de 450 kilogramos y dimensiones exteriores sensiblemente menores a las de un motor diesel de potencia equiva-lente. O

8 Los microorganismos que transforman las piedras

La geomicrobiología es una discipli-na muy reciente, que vio la luz en la Unión Soviética y que se estudia e n g r a n d a desde hace algunos años bajo la dirección del Centro de In-vestigaciones Geológicas y Mineras (BRGM).

La cantidad de organismos que vi-ven bajo la forma de microorganis-mos supera en mucho la de los ma-croorganismos. Los primeros tienen una actividad muy desarrollada, so-

bre todo en el medio orgánico, pero ejercen también una acción sobre el mundo mineral, en el que pueden concentrar elementos raros, producir energía, actuar sobre el potencial de óxido-reducción y separar los isóto-pos. Dicha actividad podría ser uti-lizada para concentrar minerales de bajo tenor o elementos raros. Se en-tiende entonces el interés por una "biomineralogía" y su importancia en geomicrobiología.

Ya han sido obtenidos resultados y en un seminario reciente consagra-do a las nuevas tendencias de la geología, el director científico del BRGM los expuso.

Desde hace mucho tiempo se co-noce la acción de los organismos vi-vos sobre un sustrato y se sabe la importancia del factor biológico en la formación de los suelos. No obs-tante, todavía resulta difícil separar aquello que es debido a los mecanis-mos fisicoquímicos de lo que resulta de un proceso biológico. Los micro-organismos actúan sobre las rocas de dos maneras diferentes; o bien de-sarrollan una acción enzknática, sir-viendo la roca de alimento, o una acción indirecta mediante sustancias secretadas por los microorganismos. En el primer caso las bacterias to-man directamente su energía por oxidación del sustrato mineral. Las bacterias autótrofas se satisfacen con esta sola fuente energética; otras bac-terias, heterótrofas, de poder reduc-tor, actúan sobre sustancias de ori-gen orgánico. La acción enzimátíca puede ser indirecta: los iones metá-licos asociados a las moléculas orgá-nicas se liberan en el momento de la asimilación de estas últimas. En el segundo caso, las sustancias produc-to del metabolismo de los microor-ganismos, ácidos o bases, actúan al contacto con los minerales. Se cono-ce la acción del COa sobre los car-bonatos y la del oxígeno y el SHa sobre el hierro y el manganeso.

El BRGM ha estudiado principal-mente las actividades bacterianas oxi-dantes o reductoras sobre los deri-vados del azufre, así como también la biocorrosión de los minerales sili-catados. Se prestó especial interés a la aptitud de las fuentes puras de tiobacilos en cambiar directamente el azufre en' ácido sulfúrico y en desarrollarse en presencia de cationes extraños al medio de cultivo natu-ral. Esta tolerancia adquirida permi-te a los organismos conservarse por reparación en los medios ricos en sales metálicas y se mide su actívi-

49

La reducción bacteriana de los iones sulfato del agua de mar origina la formación de sulfuros metálicos, por ejemplo, la pirita (bisulfuro de hierro FeS¡). Se encuentra esta última, bajo la forma de piritosferas, en celdas de foraminíferas. Aumento: 700. (Foto BRGM).

dad en los minerales molidos. La oxidación de la pirita a sulfato y áci-do sulfúrico es más rápida en pre-sencia de bacterias como los tiobaci-los. Estas bacterias se encuentran en la zona de alteración de las minas piríticas, tanto en clima tropical co-mo templado.

Las bacterias sulfato-reductoras son determinantes para la producción del SH2. Dichas bacterias frecuentan un medio anaerobio que contiene materias orgánicas y una sustancia sulfatada; este es el caso del lecho marítimo. Esta actividad es lo sufi-cientemente intensa como para que se pueda entrever la posibilidad de

una producción industrial de azufre. Basta seleccionar y aislar las bacte-rias más activas y buscar entre los desechos industriales las sustancias biodegradables que puedan servir de "materia prima". Un estudio de la composición isotópica del azufre muestra el papel que desempeña la actividad biogenética en la mayoría de los yacimientos conocidos. En el ciclo del azufre, esta actividad bac-teriana se presenta bajo un doble as-pecto; se podría concentrar un ma-terial de bajo tenor que contenga cobre y pirita por sembrado de bac-terias específicas y también se po-dría considerar una eliminación bac-teriana del azufre en los carbonos o bien una producción de azufre a par-tir de los sulfatos. La cantidad obte-nida en los laboratorios permite ya plantearse el problema de la renta-bilidad industrial de tal producción. El segundo aspecto es negativo: los sulfuros se degradan a sulfatos so-lubles, lo que conduce a un empo-brecimiento de los yacimientos y el ácido sulfúrico producido tiene un efecto corrosivo sobre las instalacio-nes y el medio ambiente. La bioco-rrosión de los minerales silicatados podría ser el origen de la solubiliza-ción del potasio o del sodio a partir de los aluminosilicatos. En el labora-torio se ha obtenido cierta tasa de solubilización del potasio y parece que la actividad de las bacterias y de los hongos sobre dichos sustratos depende de las condiciones de tem-peratura así como del pH. _ También se estudian las neogéne-

sis en medio marino: las formacio-nes de sulfuros metálicos observadas actualmente en los fondos marinos resultan de la acción bacteriana en las condiciones particulares del me-dio de sedimentación.

La explotación de nuevas fuentes minerales y la eliminación de dese-chos industriales son problemas agu-dos y aparentemente contradictorios. La utilización de los microorganis-mos permitirá desde ahora tratar los desechos como las lejías bisulfíticas de las papelerías o las aguas de las alcantarillas. De este modo podrían producirse sustancias útiles y se fre-naría la contaminación del medio ambiente. O

Jacques Auvernier La Recherche

9 Desequilibrio entre materia y antimateria

Varios científicos de la Universidad de Cambridge, Inglaterra, han es-peculado recientemente sobre la po-sibilidad de que las cantidades de materia y antimateria existentes en el universo no sean equivalentes. Gary Steigman ha demostrado que si el universo estuviera poblado por una mezcla en partes iguales de ma-teria y antimateria, el flujo de la radiación gama producido en los procesos de aniquilamiento debería ser mucho mayor que el observado. Esta conclusión, sin embargo, no elimina la posibilidad de que existan regiones de materia y antimateria tan separadas entre sí que los pro-cesos de aniquilamiento no puedan tener lugar (Nature , 224, 5257, 477).

Por su parte, Janet y Bernard Jo-nes han calculado, en base a la teo-ría cosmológica de expansión del universo conocida como "Big-Bang", la probabilidad de que ocurran con-tactos entre dichas regiones sepa-radas de materia y antimateria, su-poniendo siempre que la cantidad total de una y otra es1 la misma. Tampoco en este caso los resulta-dos coinciden con el flujo de rayos gama observado procedente de las más remotas.galaxias. {Nature, 227, 5257).

La hipótesis de que en las etapas más tempranas de la evolución del universo los dos tipos de materia se separaron en regiones distintas, ha sido planteada por muchos cos-mólogos, pero siempre partiendo de la base, aparentemente lógica, de que las cantidades totales de mate-ria y antimateria eran iguales. Los resultados de los cálculos de Steig-man y Jones replantean el proble-ma: o las teorías más admitidas so-bre la evolución del universo, como la "Big-Bang", están erradas, o bien hay un desequilibrio entre materia y antimateria ( y en este último caso sólo nos cabe esperar que haya más de la primera que de la segunda).O

50

La ciencia de los hipersonidos

Fran^ois de Closets

Más allá de los ultrasonidos, pue-den producirse vibraciones acús-ticas de varios gigaciclos. La conjugación de frecuencias elec-tromagnéticas y acústicas muy elevadas ha hecho surgir una nueva disciplina: la electro-acús-tica. Se prevé desde ya su uti-lización para la televisión y la informática.

Frangois de Closets es redactor de la revista SCIENCES & AVENIR y co-mentarista de temas espaciales en la televisión francesa (O RTF).

En el curso de estos últimos veinte años, la radioelectricidad ha efectua-do una impresionante escalada de las frecuencias en el espectro elec-tromagnético. Del kilociclo se ha pa-sado al megaciclo y después al giga-ciclo (mil millones de ciclos). En lo que respecta a las ondas acústicas, en cambio, la progresión ha sido mucho más lenta. Partiendo de las ondas sonoras, perceptibles al oído huma-no, y cuya frecuencia no pasa de los 20.000 ciclos por segundo (20 kilo-ciclos), se ha llegado al megaciclo (1 millón de ciclos por segundo) y, gracias a la piezo-electricidad, a la producción de ondas acústicas por efectos eléctricos. Este es el dominio de las ondas ultrasonoras corriente-mente utilizadas hoy. •

En esta etapa, los especialistas tropezaron con dificultades tecnoló-gicas que impedían el avance, aun-que en teoría nada impedía alcanzar frecuencias más altas. Pero no se po-seía ningún dispositivo capaz de pro-ducir esas ondas. Es en el curso de los últimos años, y hasta podría de-cirse de los últimos meses, que estos impedimentos técnicos han sido ven-cidos. Las investigaciones en cues-tión han sido encaradas para mejo-rar el comportamiento de los radares y, en ese campo, han llegado ya al estado operacional. Pero, según un proceso clásico, las mismas se enca-minan ahora hacia objetivos civiles y sus resultados se anuncian como extremadamente prometedores.

La televisión y la informática es-tán interesadas en esos resultados. Esta nueva técnica podría aportar la solución a uno de los grandes pro-blemas con los cuales tropiezan los investigadores: la desviación de los haces luminosos. Para una disciplina nueva, es una gran esperanza . . . sin hablar de todas las aplicaciones toda-

vía insospechadas. Un nuevo mundo acaba de ser abierto por la ciencia.

La gran aventura de las ondas acústicas había comenzado en 1880 con el descubrimiento de la piezo-electricidad. Pierre Curie comprobó, partiendo de consideraciones teóri-cas, que cuando se somete un cristal de cuarzo a un esfuerzo mecánico se generan cargas eléctricas. La ener-gía mecánica se transforma en ener-gía eléctrica, ¿cómo explicarse tal fenómeno?

Pierre Curie y la piezo-electricidad

Cuando un cristal está en reposo, las diferentes cargas eléctricas tien-den a equilibrarse de tal manera que, localmente, el centro de las cargas positivas tiende a coincidir con el centro de las cargas negativas. Com-primiendo el cristal estos centros se desplazan, es decir, dejan de coinci-dir, y forman un dipolo que crea un campo eléctrico. A la inversa, si se aplica un campo eléctrico exterior, los centros de carga de signo opuesto se separan, lo que acarrea una defor-mación mecánica.

Tal es al menos la situación, si el cristal no posee una estructura simé-trica. Un cristal se compone de uni-dades elementales repetidas periódi-camente a lo largo de su retículo. La disposición de los átomos en el cen-tro de cada unidad puede ser tal que dichos efectos se anulen; en este caso, el cristal no reacciona en su conjunto: no es piezo-eléctrico. Si, por el contrario, posee una estructu-ra asimétrica tal que esos efectos se suman, aparece el fenómeno de la piezo-electricidad.

Pierre Curie utilizó al principio este efecto para construir una balan-

51

' 1 1 s il <-mos utilizar ondas k ' i'! l de muy alta frecuencia, > > l \ na t acústicas están

r ' t ente limitadas a los lt> s tío í te no sobrepasan el

u l > I r recientes progresos ' o / y permitido producir

i f de muy alta frecuencia, i ' n l m (lcios por segun¡i0 Estos

' l i ¡ti O'tidas. Gracias a ellos, > s t < lar dispositivos

1 l > \ de muy alta frecuencia acústicos. Ha nacido

tu ti . lisciplina: ( t El radar ha sido

i til tticiario: los nuevos

pe-1 k

oh

l

i mejorado •ite sus performances

compresión f d\ Fr la foto puede

> " t i d medio del radar t¡' » primido tal como

>i osáloscopio.

za ultrasensible. Pero este fenómeno no es solamente estático, puede ser producido de manera dinámica. En lugar de someter el cristal a un cam-po eléctrico uniforme, se lo puede excitar con impulsos eléctricos de frecuencias determinadas. En este caso, el cristal será recorrido por on-das acústicas. Las vibraciones así producidas pueden tener una fre-cuencia mucho más elevada que las ondas sonoras. Los sistemas piezo-eléctricos se han convertido en los generadores clásicos de los ultra-

' sonidos.

Un cuerpo piezo-eléctrico puede entonces a la vez transformar la ener-gía mecánica en energía eléctrica y la energía eléctrica en mecánica. Es un transductor electroacústico.

Durante la guerra de 1914-18 Langevin utilizó las propiedades de emisión-recepción ultrasonoras para poner a punto los primeros sonares destinados a la caza antisubmarina El desarrollo de la radio hizo surgir una nueva aplicación sumamente im-portante.

_ Los técnicos en radiotransmisión tienen necesidad de contar con fre-cuencias fijas, perfectamente defini-das. Ahora bien, un cristal de cuarzo piezo-eléctrico posee un modo de vi-bración muy preciso en función de sus dimensiones. Forma, en cierta manera, una cavidad resonante só-lida. Es posible entonces obtener cristales de cuarzo correspondientes a frecuencias determinadas, ajustan-do correctamente su tamaño. Someti-dos a ondas electromagnéticas sin-cronizadas con su frecuencia de reso-nancia, un cristal será recorrido por ondas acústicas: si la frecuencia no corresponde, no reaccionará. En un montaje radioeléctrico, un dispositi-vo semejante actuará como un filtro. Sincronizado con una frecuencia, no dejará pasar las otras ondas. • Los .circuitos oscilantes con auto-inducción y capacidad pueden jugar este papel. Pero estos circuitos tie-nen el defecto de amortiguarse muy rápido; la oscilación inicial desapa-rece rápidamente si no es mantenida. Al contrario, el cuarzo piezo-eléctri-

co vibra largo tiempo sobre la misma frecuencia, es un diapasón ultrasono-ro; los especialistas dicen que tiene un excelente coeficiente de sobre-tensión. Los cristales de cuarzo pue-den utilizarse entonces para contro-lar relojes o para ajustar los emisores radioeléctricos. En efecto, la frecuen-cia tiende naturalmente a desplazarse durante la emisión, por lo que es necesario recalibrar constantemente el aparato sobre su longitud ele onda. Este trabajo es fácilmente realizable con un cristal de cuarzo y todos los emisores de radio actualmente po-seen este dispositivo. La radiodifu-sión utiliza frecuencias que son acce-sibles a los ultrasonidos. No sucede lo mismo con el radar, que utiliza micro-ondas; aquí, las ondas acústi-cas no podían utilizarse hasta no hace mucho.

La acústica en capas delgadas

En la mayor parte de las aplicacio-nes, se trata de preparar cristales de cuarzo cuyo modo vibratorio sea de la misma frecuencia que la onda elec-tromagnética utilizada. Esto depende del tamaño del cristal; es necesario que su espesor sea del mismo or-den que la mitad de la longitud de la onda. Cuando aumenta la frecuen-

£ 3 ! Figura 2. Un obstáculo tecnológico se oponía a la obtención de altas frecuencias acústicas: la necesidad de trabajar con cristales de cuarzo cada vez más delgados a medida que aumentaba la frecuencia. Para superar esta dificultad, los técnicos han recurrido a las capas delgadas. En el aparato de la foto, la señal radioeléctrica es llevada por el tubo coaxil de la derecha, el que induce vibraciones acústicas en una capa delgada piezo-eléctrica de sulfuro de cadmio. Estos hipersonidos se propagan a lo largo de la barra central de zafiro, y llegan a la segunda capa de sulfuro de cadmio situado en la parte opuesta (segundo disco negro), donde son convertidos en ondas de radio que parten por el segundo tubo coaxil.

cia, la longitud de onda disminuye y el espesor del cristal debe dismi-nuir en proporción. Así, para 30 me-gahertz, se debe tener un espesor de un décimo de milímetro. Desde el punto de vista tecnológico, es un límite difícilmente franqueable, más aún si se tiene en cuenta que la colo-cación o el montaje del cristal sobre el soporte viene a aumentar el mar-gen de incertidumbre.

Esta necesidad de tallar un cristal cada vez más delgado a medida que se quería trabajar frecuencias cada vez más elevadas, impedía explorar el campo de los hipersonidos. Para franquear este paso era necesario uti-lizar un procedimiento enteramente nuevo: la técnica de las capas del-gadas.

Se trata de colocar una capa ex-tremadamente delgada de material sobre un substrato por evaporación al vacío. El cuarzo no se presta a este procedimiento, pero se han descu-bierto nuevos cuerpos piezo-eléctri-cos que se acomodan a él. Es el caso del sulfuro de cadmio o del óxido de zinc. Asimismo la realización presen-taba problemas tecnológicos muy di-fíciles, ya que había que obtener planos de cristalización bien precisos. Estas dificultades hoy han sido re-sueltas y se pueden obtener capas delgadas piezo-eléctricas cuyo espe-sor no pasa del micrón. En estas condiciones, es posible alcanzar las elevadas frecuencias utilizadas por el radar.

En la práctica, las capas delgadas de sulfuro de cadmio se depositan sobre las dos extremidades de una barra de zafiro. La primera traduce en ondas acústicas las ondas radio-eléctricas que recibe, las ondas se desplazan a través del zafiro y son reconvertidas por la segunda capa.

Semejante reconversión trae apa-rejada evidentemente una disminu-ción considerable del rendimiento. ¿Cuál puede ser entonces el interés? Se trata de jugar sobre la diferencia de velocidad de propagación de on-das electromagnéticas y acústicas. Las primeras se propagan a 300.000 km/s, las segundas 100.000 veces más lentamente. En el cuarzo, ellas se desplazan aproximadamente a 6 km/s. Pasando a través de este trans-ductor, la onda recibe un enorme "golpe de freno", lo que significa que se ha realizado una línea de retardo.

Estos dispositivos son extremada-mente útiles a los radaristas, porque permiten calibrar con precisión y

Figura 3. Se distinguen dos grandes familias de ondas acústicas: ondas de volumen y ondas de superficie. Las primeras son de dos tipos: producidas por tina compresión del retículo cristalino; o bien por cortes transversales. Las ondas longitudinales o de comprensión (esquema 1) son las más generalmente utilizadas en piezo-electricidad. Por ejemplo en ciertos cristales como el cuarzo, que responden a un estímulo eléctrico produciendo una onda acústica. Las ondas transversales o de compresión (esquema 2) se utilizan raramente, ya que presentan problemas cristalográficos delicados. Ellas se propagan dos veces más lentamente que las ondas longitudinales, lo que puede ser interesante para ciertas aplicaciones. Las ondas de superficie más interesantes para la electroacústica son las ondas de Rayleigh: pueden representarse como "olas" que se propagan sobre la superficie del cristal (esquema 3).

simplicidad los aparatos. El retardo sufrido por la onda depende del tra-yecto efectuado a poca velocidad, es decir, bajo forma de hipersonido, y es entonces proporcional a la longi-tud de la barra de zafiro. Es sufi-ciente tallar la barra de la longitud apropiada para obtener el retardo de-seado. Se pueden obtener así distin-tos efectos, jugando sobre la dife-rencia de velocidad de las ondas electromagnéticas según los medios que recorren. En efecto, la velocidad de 300.000 km/s corresponde a la propagación en el vacío; es un má-ximo. Si se obliga a las microondas a atravesar un tubo conteniendo un dieléctrico se propagarán más lenta-mente y se obtendrá igualmente un efecto de retardo. Pero el efecto será infinitamente menos importante si las diferencias de velocidad son pe-queñas. Con una línea acústica de 1 cm se obtiene el mismo efecto que con un tubo de-aire de 1 km: la ganancia en tamaño y simplicidad es enorme.

Desgraciadamente, la operación implica una enorme pérdida de po-tencia. Mientras se trate de calibrar los radares esto no es tan grave por-que lo que disminuye de velocidad es la señal y no el eco. Ahora bien, la señal es siempre muy potente; se la puede entonces debilitar sin des-truirla. Pero para ciertas otras apli-caciones, especialmente en el campo de las mediciones, la pérdida de po-tencia puede resultar un escollo. Se-ría necesario poder realizar la ope-ración sin pérdida de rendimiento. Para esto hay que amplificar la onda acústica durante su propagación.

Un amplificador acústico

La operación ha podido realizarse gracias a las propiedades de los semi-conductores, utilizando el principio clásico de los tubos de ondas progre-sivas. En éstos la onda electromagné-tica progresa en línea recta. Se pro-duce entonces una transferencia de energía del haz a la onda, la que en consecuencia se amplifica.

Para obtener el mismo efecto en el terreno de la acústica, se aprove-charon, en un principio, las propie-dades de ciertas substancias como el sulfuro de cadmio que son a la vez piezo-eléctricas y semiconductoras. Consideremos un cuerpo piezo-eléc-trico recorrido por una onda acústica en un instante dado; si se pudiera fotografiar el fenómeno, se observa-

54

Jt s 9

Figura 4. Mediante la utilización de las ondas de superficie, las técnicas se han liberado de los requisitos de espesor impuestos por las ondas de volumen. Es así como han podido realizarse líneas de retardo para radar. En el esquema, los trozos negros representan electrodos dispuestos sobre la superficie. Cuando se aplica una tensión a los electrodos situados en una extremidad, se produce una onda de superficie que, propagándose, provoca un impulso eléctrico semejante sobre los electrodos colectores de la otra extremidad. La señal, pasando de un soporte electromagnético a un soporte acústico, es retardada 100.000 veces, lo que puede ser muy útil, especialmente para calibrar los radares.

Figura 5. En los radares modernos, la señal es modulada en frecuencia. El impulso, relativamente largo, está formado por frecuencias " cada vez más elevadas. Para mejorar el rendimiento de estos aparatos se utilizan líneas de retardo más complejas. En estos dispositivos, los electrodos están dispuestos en forma de peine, "interdigitados". Los espacios entre los dientes del peine son cada vez más pequeños. Las ondas llegan a las separaciones correspondientes a su longitud de onda. En estas condiciones las bajas frecuencias que llegan primero son frenadas sobre los primeros electrodos. Las altas frecuencias que llegan al final se reciben sobre los últimos electrodos. Así, como los primeros son retardados más tiempo que los últimos, en total el impulso resulta comprimido, lo que facilita la recepción.

rían oscilaciones en el campo eléctri-co interno. Las compresiones y dila-taciones sucesivas corresponden a las zonas eléctricamente opuestas.

Si el cristal contiene portadores de cargas eléctricas, electrones o "huecos" positivos, ellos serán ob-jeto de estímulos opuestos. Como consecuencia, se ponen en movimien-to y tienden a acumularse en ciertos puntos.

Por definición, un semiconductor contiene tales portadores de cargas libres, por ejemplo electrones que, en reposo, se distribuyen de modo aleatorio, pero quedan disponibles para responder a cualquier estímu-lo. En un cuerpo a la vez semicon-ductor y piezo-eléctrico, la aparición de ondas acústicas lleva los electro-nes libres a reagruparse en los pun-tos de equilibrio entre las compre-siones y las dilataciones. Pero se trata esencialmente de un fenómeno dinámico y no estático: la onda se propaga. En estas condiciones los "paquetes" de electrones se despla-zan con ella para "mantener" esta posición favorable.

¿Quá pasa si se aplica entonces al cristal un campo eléctrico? Los elec-trones serán acelerados por ese cam-po. Si éste está bien calculado, ellos tenderán a desplazarse más rápido que los hipersonidos y tendrá lugar una transferencia de energía. Los electrones en su movimiento van a dar una parte de su energía a la onda acústica, que, en consecuencia, re-sultará amplificada.

Si se utilizan substancias como el sulfuro de cadmio, que tienen la do-ble propiedad de ser semiconducto-ras y piezo-eléctricas, se pueden rea-lizar líneas de retardo que compen-san, mediante la amplificación de los hipersonidos, las pérdidas inheren-tes a la conversión electromagnética-acústica-electromagnética. No se tra-ta de realizar una amplificación de la señal; los dispositivos electrónicos de alta frecuencia, especialmente los nuevos transistores, lo hacen en con-diciones mucho más favorables. Se trata simplemente de no perder ener-gía en la línea de retardo.

De todos modos, este dispositivo tiene el inconveniente de utilizar un cuerpo que debe ser a la vez semi-conductor y piezo-eléctrico. Ahora bien, no existen substancias que cumplan perfectamente ambas fun-ciones a la vez. Se lograrían mejores resultados si se pudiera hacer cum-plir una función por un muy buen cristal piezo-eléctrico y la segunda

por un muy buen semiconductor, encontrando el medio de acoplar los ilos efectos para obtener a la vez el efecto de retardo y el de amplifica-ción. Hoy, esto es posible gracias a las ondas de superficie. Se trata del segundo gran avance tecnológico que ha permitido conquistar el terreno de los hipersonidos.

Las ondas de superficie

l-l asta el momento no hemos habla-do más que de las ondas de volu-men, es decir, de las vibraciones que se propagan en toda la masa del só-lido. Estas pueden ser de dos clases: longitudinales, es decir correspon-dientes a las compresiones y dilata-ciones, o transversales, es decir correspondientes a cortes periódicos i:u el cristal. Nosotros nos hemos contentado con citar las ondas lon-gitudinales, que son las más general-mente utilizadas, aunque las trans-versales presentan la ventaja de pro-pagarse dos veces más lentamente y producir así un efecto de frenado todavía más importante. A veces se las utiliza, pero son más difíciles de manipular y presentan problemas es-pecialmente delicados desde el punto de vista cristalográfico. Pero esas ondas longitudinales o transversales son siempre fenómenos que interesan a la totalidad del sólido. Ahora bien, existe otro tipo de vibraciones acús-ticas: las ondas de superficie u ondas de Rayleigh,

La mejor comparación son las olas del mar, ya que se trata exactamen-te del mismo fenómeno. Las vibra-ciones de superficie no son privativas ile los líquidos, sino que pueden producirse también con menor am-plitud, sobre todos los sólidos. Es por tal motivo que los sismólogos se interesan enormemente en ellas.

Cuando se comprime la superficie de un cristal, sobre la misma se pro-paga una perturbación ondulatoria. Estas ondas son de naturaleza acús-lica y corresponden a un desplaza-miento espacial de los átomos, pre-sentando numerosas ventajas sobre las ondas de volumen. La principal es precisamente la de no afectar más que una capa extremadamente super-ficial. Aquí también se puede utilizar l.i analogía con los fenómenos mari-nos. Se sabe que una decena de me-tros bajo la superficie, el submarino no siente más la tempestad; toda perturbación desaparece para una

profundidad igual a dos o tres longi-tudes de onda. Importa poco que bajo una superficie existe un espe-sor de 10 veces, 1.000 veces o un millón de veces la longitud de onda; el fenómeno sigue siendo rigurosa-mente el mismo.

¿Pero cómo engendrar ondas de una frecuencia semejante? El princi-pio generalmente adoptado es el de los electrodos en forma de peines, "interdigitados". Se trata de provo-car una compresión de la superficie, lo que puede lograrse con dos elec-trodos de signo contrario. La "ola" provocada tendrá una longitud de onda aproximadamente igual a la se-paración entre los dos electrodos. En el dispositivo más simple se toma entonces una barra de cuarzo sobre la que simplemente se depositan dos electrodos en un extremo y dos en el otro. Los impulsos eléctricos de una extremidad inducirán ondas de su-perficie que provocarán» impulsos eléctricos sobre los otros dos elec-trodos. Estos deberán tener eviden-temente, la misma separación que los primeros.

Este fenómeno permite acoplar el cuarzo y un buen semiconductor, el silicio por ejemplo. En efecto, si se coloca el semiconductor por encima del cuarzo, pero a muy poca distan-cia de él, el acoplamiento acústico-eléctrico se efectúa como en el inte-rior del sulfuro de cadmio con la diferencia de que, teniendo cada substancia dentro de su especialidad un comportamiento mucho mejor, el efecto total será superior. Se llega así a realizar líneas que no tienen ninguna pérdida.

Uno de los aspectos1 más intere-santes de las ondas de superficie re-side en las compresiones de impul-sión. El tamaño de los radares mo-dernos depende de la potencia emi-tida y la precisión de la brevedad de los impulsos. Como la posibilidad de producir potencias instantáneas muy elevadas está limitada por razo-nes tecnológicas, los radaristas son llevados a emitir impulsos relativa-mente largos para obtener grandes alcances. Placiendo esto, pierden pre-cisión. Sería .necesario emitir un im-pulso largo y recibir un eco breve. Es exactamente el "pase mágico" que permite la acustoelectrónica. La señal emitida por los radares moder-nos se extiende sobre una gama de frecuencias relativamente ancha. Imaginemos que se ha emitido en un milisegundo una señal comportando frecuencias cada vez más elevadas.

Figura 6. Ejemplo de impulso comprimido. El impulso de arriba representa el eco normal. Su longitud hace que su precisión no sea muy buena. El gráfico de abajo representa el mismo eco comprimido, mucho más fácil de interpretar.

En la recepción, las ondas de baja frecuencia serán las que lleguen pri-mero. Pero ellas no van a encontrar sobre el cuarzo los electrodos sim-ples de los que ya hemos hablado, sino que los mismos tendrán la for-ma de peines interpenetrados en los que la separación de los dientes dis-minuye progresivamente. Para la parte más próxima a la extremidad, corresponderán las frecuencias más bajas, después va progresivamente disminuyendo, correspondiendo a las longitudes de onda cada vez más cortas que contienen la señal. Lo mismo pasará en el electrodo de salida .

¿Qué sucede en esas condiciones? Las bajas frecuencias que llegan pri-mero son captadas por los primeros dientes que corresponden a su largo de onda. Ellas son entonces transfor-madas en hipersonidos y comienzan a propagarse 100.000 veces más len-tamente. Las ondas de mediana fre-

55

Figura 7. La utilización de líneas de retardo acústicas comporta un gran debilitamiento del eco. Para evitar este inconveniente se utilizan líneas amplificadoras. En estos dispositivos, se coloca un semiconductor sobre la superficie del cuerpo piezo-eléctrico, a muy poca distancia de la misma. Las cargas eléctricas se desplazan en fase con la onda acústica y la amplifican.

Figura 8. Las ondas acústicas hacen variar el índice de refracción del medio que atraviesan. La variación es proporcional a la frecuencia de las ondas. Mediante el uso de los hipersonidos es posible controlar la deflexión de un haz luminoso, haciendo variar simplemente la frecuencia de los mismos.

cuencia no son interceptadas sino en la mitad del peine, y es sólo enton-ces que su velocidad de propagación comienza a disminuir. Finalmente, las ondas de muy alta frecuencia que llegan últimas recorren todo el largo del electrodo a 300.000 km/h y no son frenadas sino en los últimos dientes. La ventaja que tenían las bajas frecuencias sobre las altas, se halla compensada por el hecho de que deben caminar un trecho más largo a velocidad reducida, dejando así a las segundas el tiempo de lle-gar. En total, la señal que estaba ex-tendida sobre un milisegundo a la llegada, se reencuentra comprimida en microsegundos a la salida del elec-trodo. Toda la energía es concentra-da en un instante.

En estas condiciones el receptor tendrá mucha más facilidad para dis-tinguir la señal del ruido. En lugar de observarse en el osciloscopio una curva vagamente redondeada, se ob-serva un pico neto, fácilmente reco-nocible. Haciendo variar el largo de los dientes, hasta será posible elimi-nar los lóbulos secundarios para acentuar todavía más la limpieza del fenómeno.

Pero la ventaja de precisión sería nula si no se pudiera determinar a qué punto de la señal corresponde el instante en que llega el impulso com-primido. Por suerte se sabe que co-rresponde exactamente al medio del impulso. Se cumple así un asombro-so pase de prestidigitación. Los téc-nicos tienen en la emisión todas las ventajas de la emisión larga y, en la recepción, las del impulso corto. La amplificación acústica puede per-mitir que la señal no se debilite du-rante el transcurso de la operación.

Tales líneas de retardo se utilizan actualmente en los grandes radares modernos; ellas han jugado un rol capital en el mejoramiento reciente de sus performances, mejoramiento que permite detectar la evolución de

una señal inmediatamente después de la aparición de la misma.

Hipersonidos y luz

Un haz luminoso que atraviesa un sólido transparente es más o menos refractado según las características de este último. Estas características son modificadas por las ondas acús-ticas que pueden atravesar el medio: el ángulo de refracción cambia. En-tonces, si se emiten ondas acústicas en un medio transparente, el haz luminoso puede desviarse. La idea no es nueva: ya en 1922 el físico francés Brillouin había hecho la ex-periencia produciendo ultrasonidos en el agua. Pero la desviación del haz así obtenida era ínfima. Para obtener un efecto interesante, era ne-cesario utilizar frecuencias mucho más elevadas: utilizar hipersonidos.

Hoy, que se sabe cómo producir tales ondas, estas investigaciones des-piertan un renovado interés. Se tra-ta, en efecto, de un problema esen-cial de la técnica moderna. Un haz de electrones puede ser fácilmente desviado: las partículas, estando car-gadas, son desviadas con facilidad por efecto de un campo magnético, pero los electrones tienen el defecto de no propagarse más que en el va-cío. El rayo luminoso en cambio, puede propagarse en el aire, si bien da lugar a otra dificultad: al estar constituido por fotones, partículas neutras, no puede ser desviado por efectos electromagnéticos. En esas condiciones, debe recurrirse a proce-sos mecánicos: espejos giratorios, fuentes móviles, etcétera. Desgracia-damente la mecánica no permite tra-bajar con flexibilidad y rapidez y es imposible efectuar un verdadero ba-rrido rápido con un haz electrónico y un tubo al vacío. Esta necesidad de utilizar el vacío es extremadamen-

56

te incómoda, pero es necesario acep-tarla porque no hay otra solución posible. Sería diferente si se dispu-siera de un procedimiento físico para desviar la luz.

Tomemos un ejemplo dentro de otro campo. Se estudian actualmente sistemas ópticos de memoria de gran capacidad, donde se trata de repre-sentar la información elemental no ya bajo forma magnética, sino bajo la forma de una imagen puntual: esto permite conservar un número mucho más elevado de informaciones sobre una misma superficie. Tal so-lución parece ideal para las enormes memorias de los archivos que nece-sitará la información en los próximos años. Pero para leer esas memorias, es necesario efectuar un barrido muy rápido y preciso. El rayo láser ten-drá la finura necesaria, pero no se sabe cómo efectuar ese famoso barri-do óptico. Como puede apreciarse, se trata de un problema clave de la tecnología moderna, un problema que condiciona la solución de mu-chos otros.

Los investigadores han pensado en utilizar los hipersonidos para desviar el haz luminoso. El procedimiento es extremadamente simple. Se trata

de hacer pasar el haz luminoso a través de un cuerpo transparente y piezo-eléctrico como el cuarzo. Un generador de hiperfrecuencía se apli-ca a los bornes del cristal; según la frecuencia de los hipersonidos indu-cidos, el ángulo de refracción es más o menos grande, pudiendo realizarse así un verdadero barrido modulando la emisión en frecuencia.

Los primeros trabajos efectuados en la Thomson - C.S.F., de Francia, son muy prometedores. Los investi-gadores han desviado exitosamente un rayo láser varios grados. Esto puede parecer un resultado pobre, pero no es así. Importa poco, en de-finitiva, desviar el haz 50° ó 3 o . Lo esencial es desplazarlo con gran pre-cisión, controlar perfectamente su movimiento. En estas condiciones, sólo se puede obtener un gran nú-mero de puntos, es decir, un poder separador que permite un verdadero barrido. Si la desviación es muy dé-bil pero la precisión muy grande, siempre es posible agrandar óptica-mente la imagen. En consecuencia, las primeras experiencias demuestran precisamente que se puede muy bien controlar el barrido con este sistema, lo que permite fundar grandes espe-

ranzas sobre esta técnica. En este campo ya se han realizado también los primeros estudios para mejorar los radares. Pero, una vez más, esta primera investigación desemboca so-bre un campo mucho más vasto. Es toda la televisión, la visualización y la informática que están comprome-tidas, si bien recién estamos en las primeras experiencias.

En el curso de los últimos meses la electroacústica se ha convertido en una "disciplina de moda". El interés de los militares crece, el de los in-dustriales se manifiesta. Como en toda investigación nueva, los elemen-tos de incertidumbre son numerosos. Los investigadores habían acariciado en un primer momento la esperanza de fabricar verdaderos amplificado-res electroacústicos, pero han debido renunciar a esta idea: la electrónica está decididamente mejor adaptada a estos problemas. Los investigado-res se lanzan hoy hacia otros obje-tivos aunque evidentemente, sin nin-guna certidumbre. De todas maneras, los primeros resultados son lo sufi-cientemente prometedores como para que no quepa ninguna duda de que los hipersonidos están llamados a "provocar escándalo" en el futuro. O

El Fresco Toscano (Viene de página 38)

Entonces comienza la preparación de la pintura para su colocación en un nuevo soporte. La selección de un adhesivo adecuado es tan compleja como la del fijador, analizada previamente. Los productos más útiles son soluciones de resinas sintéticas disueltas en benceno o en acetona. La preparación se efectúa como para el "facing" por medio de gasa y tela. Una vez realizado este proceso, el fresco se coloca sobre un nuevo soporte. En Italia se usó comúnmente un chasis de tensión regu-lable; esta práctica ha sido abandonada, pues es difícil conservar una tensión constante. Un soporte rígido es preferible, a condición que éste no nivele la superficie y le imponga una uniformidad artificial. El soporte más común está formado por una hoja de espuma de plástico (polystirol) de cinco milímetros de espesor, pegada, por medio de acetato de vinilo, a la tela y a una hoja de cloruro de polivinilo resistente a la humedad que se deja modelar al infrarrojo tomando la forma deseada (espe-cialmente importante para bóvedas). Una vez colocado el fresco sobre el soporte sé disuelve la cok del "facing", eliminando así las gasas y la tela, y eyentualmente se coloca el fresco sobre su muro original para conservar la armonía estética del ambiente.

El stacco (figuras 5, 6 y 7) para el cual es necesario una fuerte cohesión entre la capa pictórica y el "into-naco", no se puede realizar para grandes extensiones; es evidentemente más difícil y más costoso que el strappo,

pero permite respetar las irregularidades de la superficie. El "facing" consiste en la aplicación de una gasa de algodón y una o varias telas adheridas por medio de una "colleta" que no se contrae cuando se seca. Los cortes alrededor de la sección del fresco en cuestión se realizan con bisturí o con una sierra fina. Se prepara simultánea-mente un panel de madera de las dimensiones del frag-mento destinado a sostener éste durante el arranque y a recibirlo cuando se separe del muro. Se golpea la super-ficie con un martillo de goma dura a fin de preparar la separación entre el "intonaco" y el "arriccio"; el arran-que se hace introduciendo entre ambos, largas barras de hierro. Tanto la masonita como ciertas resinas sintéticas son utilizadas sin inconveniente como soporte.

Las operaciones para el stacco a mosella, método poco utilizado, son similares, aunque más complejas, a los del stacco. Naturalmente la descripción de los métodos ante-riores no puede ser exhaustiva; en la restauración es necesario adaptar e improvisar según las exigencias de

^ E n T ^ ó , Florencia fue inundada por el desborde del Amo que ocasionó pérdidas importantes en los frescos y sobre todo, puso en peligro la mayoría de ellos Fue necesario transponer centenares de metros cuadrados de pinturas. Para ello se contó con el apoyo de muchos países y gracias a esa ayuda se pudieron superar graves inconvenientes. En este momento gira por el mundo., como prueba de agradecimiento de los florentinos, u n a magnífica exposición de los principales frescos trans-puestos hasta hoy.O

5 7

El juego del GO

Hilario Fernández Long

l í T n Z s 1 i r t T Í g " ° * f a S C Í n a T t*'1™ J'^os. Se lo practica en Oriente desde Z f J 3000 anos Supera al ajedrez por la simplicidad de sus reglas, la nrofundi dad de su estrategia y la sutileza de sus tácticas. g ' profundi-

? e n t r e d o s P e r s o n a s - Una de ellas dispone de 181 fichas negras iguales, y la otra de 180 blancas. Los jugadores van, colocando, alternativamente, y co-menzando por el negro, una ficha sobre intersecciones vacias de un tablero cuadriculado. El tablero reglamen-tario es de 19 X 19 líneas; pero pueden utilizarse, con Unes de entrenamiento, tableros menores.

En la figura, el jugador negro ha colocado su ficha sobre una intersección vacía y luego el blanco la suya sobre otra.

Una vez colocadas las fichas sobre el tablero no pueden moverse sobre él, pero pueden ser comidas.

Los 9 puntos negros que se ven sobre el tablero son para referencia, y para colocar sobre ellos, al principio del partido, fichas negras, en el juego con handicap.

Intersecciones adyacentes son las inmediatas unidas por un tramo de recta. Las inmediatas en diagonal no son adyacentes.

>->-

4 - t Í H

A-A-mi

4 - t Í H

A-A-mi

4 - t Í H

A-A-mi

B-B-Q-B-C B-B-Q-B-C B-B-Q-B-C

D D

El propósito del juego es similar al de los ejércitos en la guerra: a) conquistar territorio, y b) destruir fuerzas enemigas.

Se conquista territorio rodeándolo con fichas, como en el rincón superior izquierdo. Los puntos A son te-rritorio del negro, los B del blanco, y el C es neutral.

Como los territorios pueden estar sujetos a invasión, sobre todo cuando son extensos, debe esperarse al fi-nal del partido para saber si un territorio está definiti-vamente conquistado.

Se comen fichas rodeándolas, de modo que las fichas atrapadas no tengan adyacentes espacios vacíos. En la mitad inferior de la figura, las fichas negras sólo tienen un espacio libre adyacente en D. Todavía están libres, pero si las blancas juegan en D las negras quedan atra-padas y deben quitarse del tablero. Gana el jugador que suma más espacios vacíos rodeados y fichas adver-sarias comidas.

| l ó ó ? > o o r Bf l | k A A

1 W

1 2 1

y Vj. w w

|

Ahora juegan las negras; pero no lo pueden hacer en B, porque con ello comerían la ficha blanca en A, y el tablero volvería a quedar exactamente con la confi-guración de la primera figura, lo cual está prohibido. Por lo tanto las negras deben jugar en cualquier otra parte. Las blancas sí podrán jugar en B, si lo desean. Si no lo hacen, ahora las negras sí pueden jugar en B y comer la ficha en A, porque la configuración total del tablero es distinta, a raíz de las dos fichas colo-cadas en otras partes.

En cambio está permitida la siguiente secuencia que produce configuraciones distintas:

í 1): Le toca jugar a las blancas. El punto A es la última libertad que le que-da a la ficha negra rodeada. ( 2 ) : Las blancas juegan en A. ( 3 ) : La ficha en Bs co-mida, se retira del tablero. Esta situación se llama Ko,

>B< A

ti

Está prohibido el suicidio. El blanco no puede jugar en el punto A porque su ficha quedaría automática-mente atrapada. Tampoco podría jugar en B, porque quedarían atrapadas cuatro fichas.

Pero está permitido colocar una ficha en posición de apócente suicidio si con ello se le quita la última li-bertad que le quedaba a un grupo contrario. De esta manera las fichas adversarias quedan comidas, y la ficha propia queda libre. Por ejemplo, el blanco puede ju-gar en C porque con esa jugada come las fichas negras inmediatas.

De esta regla se desprende que si un grupo de fichas de un color tiene en su interior dos espacios vacíos no adyacentes entre sí, el grupo resulta incomible.

'Está prohibido hacer una jugada que produzca una disposición total del tablero exactamente igual a alguna anterior.

Veamos una situación, en tres posiciones conse-cu tivas:

• A W > B < 1 A

1

Las blancas juegan en A y comen la ficha en B. Ahora las negras pueden jugar en B y comer dos fichas blancas. Esta configuración no es exactamente igual a la pri-mera. Por lo tanto ésta es una jugada lícita.

Las anteriores son las únicas reglas del Go. Existen realas derivadas que surgen lógicamente de las ante-riores y que no necesitan ser explícitamente tormu-ladas. Sin embargo, en los libros sobre Go se las men-ciona, para facilitar el aprendizaje.

Una de esas reglas es la de los dobles ojos, ya men-cionada: puesto que está prohibido jugar en un espa-cio rodeado por el enemigo si no es para comer cuando un grupo conectado contiene en su interior dos ojos desconectados entre sí, está prohibido colocar en cada uno de ellos una ficha enemiga. De esta manera, un grupo con doble ojo es incomible. En algunas ocasio-nes los dobles ojos son aparentes y es posible comer una parte del grupo, jugando en uno de ellos Los ojos A y B son verdaderos. Los ojos C y D son laisos.

59

Existen situaciones en las que ninguno de los juga-dores puede ocupar una intersección, porque con ello pone en peligro su grupo. Estas situaciones se llaman en japonés Seki. Cuando ocurren, los jugadores las abandonan y siguen jugando en otra parte del tablero. Si existieran territorios rodeados por grupos en Seki, no se computan. Los puntos F y G pertenecen a si-tuaciones como éstas.

' TS A / y ^ ) - é - D - á

' TS A / y ^ ) - é - D - á

55-c

S f - c

55-c

S f - c

55-c

S f - c

55-c

S f - c

Cuando se tienen rodeadas fichas enemigas de tal manera que aun manteniendo provisoriamente la liber-tad están irremisiblemente condenadas, se dice que esas fichas están muertas y generalmente no se las come, rodeándolas del todo, porque con ello se desperdicia-rían jugadas. Terminado el partido, esas fichas se reti-ran del tablero, como comida.

Se da por terminado el partido cuando ninguno de los jugadores tiene ya más nada que ganar, ni en terri-torios, ni en fichas. En ese momento se retiran las fi-chas muertas. El score de cada jugador está dado por las intersecciones vacías rodeadas (territorios más las fichas contrarias comidas). Se simplifica el cómputo co-locando las fichas comidas en el territorio de su mismo color. El score está dado entonces por los territorios que quedan.

La mejor estrategia es la que permite obtener mejor rendimiento de cada ficha. Por ejemplo, se necesitan menos fichas para rodear igual territorio en los rinco-nes que en los bordes y menos fichas para obtener te-rritorios en los bordes que en el centro. Por eso es vital dominar el mayor número posible de rincones.

En general rinde más luchar por territorios que por comer fichas.

Al comenzar el partido no conviene amontonar fichas juntas, sino desparramarlas por todo el tablero, en formaciones ralas.

Para un conocimiento más profundo y detallado del juego del Go, puede verse: Go and Go-Moku, de Ed-ward Lasker, Dover Edition. O

Hilario Fernández Long es Ingeniero Civil de la Universidad de Buenos Aires, en la que se desempeñó como Profesor Titular de la Facultad de Ingeniería, Decano y Rector, Actualmente es Profesor de la Universidad Católica Argentina y je desempeña como consultor en problemas estructurales.

NOTA DE LA REDACCION:

Nos parece interesante completar la descripción del jue-go del Go contenida en este artículo, cuyo envío agra-decemos muy sinceramente a su autor, con alguna in-formación complementaria.

En cuanto a su historia el Go, originario de la^Chma, se juega en la actualidad no solamente en este país, sino también en Corea y en Japón, país este último que se transformó en su principal cultor, hasta el extremo de que puede decirse que el juego nacional del Japón es precisamente, el Go. De Japón el juego se ha exten-dido luego a los países occidentales, especialmente al-gunos europeos y los Estados Unidos ele Norte Amé-, rica, donde los entusiastas se cuentan por millares y hay varios clubes especiales que los agrupan.

En Japón, los jugadores se agrupan en categorías, separadas entre sí por la ventaja de una ficha. Existen reglas que gradúan, de acuerdo con los resultados, el avance de una categoría a otra. Las nueve categorías superiores se consideran formadas por los grandes maestros, todos profesionales, y las más altas catego-rías raras veces se alcanzan. Por ejemplo, Lasker, op. cit., menciona que al comenzar la última Guerra Mun-dial no había ningún jugador en las categorías octava y novena y sólo 6 en la categoría séptima. Desde que se estableció el sistema, sólo nueve jugadores han al-canzado el noveno grado en 300 años.

También es curioso señalar que mientras en los ar-tículos escritos en idiomas occidentales las jugadas se describen generalmente con una notación algebraica, in-dicando la casilla en que cada pieza es jugada —em-pleando las letras A a T (la I y, por supuesto, la Ñ no se usan) para las columnas verticales de izquierda a derecha, y los números 1 a 19 para las filas horizon-tales de abajo hacia arriba'— en los artículos en japonés se dan diagramas progresivos del juego, indicando den-tro de cada ficha agregada desde el anterior diagrama, el número de orden en que se jugó.

En este diagrama indicamos las maneras más usuales

t k f i A k t

r s * w 9 w~ V. J

s < J

s

- 1 n —V J—

—i fc-H 9

» r s J - v J~

60

de empezar a conquistar territorios, de mayor a menor fuerza. La línea de fichas negras marcadas con el 1 es muy fuerte, pero lenta; la de fichas blancas marcada con 2 más rápida y aún fuerte; la de fichas negras mar-cada con 3 es aún fuerte; la de fichas blancas marcada con 4 es casi tan fuerte como la anterior, pero aún más rápida; en tanto que 5 y 6 (negras y blancas, res-pectivamente) son fuertes y rápidas para penetrar en nuevos territorios.

En el último diagrama damos un comienzo típico de partida, después de seis jugadas negras y otras tantas blancas.

Ai r r « 1

r L j

J w '

r -i J

H J 1

k J i V 1 1 i S J

-i á r

* T M i

^ J M f

-c X i. g h g f s -c X i ¥ J

r s g i f y-1 V J i t V y-

X s • s —1 X j, T K r

s 1 i | i 1 s \ J \ W t J

-c y< V H b L< >

' Complementando la bibliografía señalada por el au-tor, mencionemos que un muy sintético pero completo resumen de las reglas del Go se encuentra en la obra de R. C. Bell, Board & Table Games From Many Civi-Uzations, tomo I, que en 1969 apareció en una eco-nómica edición de Oxford University Press. En esta obra el juego está descrito bajo su nombre chino ori-ginario, Wei-Ch'i.

M. Risueño

Muestra de Libros

Durante las tres semanas comprendidas entre el 12 y el 30 de abril próximo, la librería Cúspide or-ganizará una exposición de libros en la Facultad de Ciencias Exactas de la Universidad Nacional de Bue-nos Aires.

La primera semana la muestra funcionará en el edi-ficio de Perú 222, donde serán expuestos libros de química y geología; la segunda, en el Pabellón 1 de la Facultad, en Núñez, con textos de física, matemá-ticas y computación, y la última semana en el Pabe-llón 2, también en Núñez, la muestra estará dedicada a ciencias biológicas.

VIDRIO JENA Para la óptica Para la técnica de Láser Para el laboratorio Para mediciones de potenciales electro-químicos Para la construcción de cañerías y plantas industriales Para la protección de radiaciones Para la electrónica y la electrotécnica Para usos farmacéuticos Para soplado de piezas y aparatos Para la termometría Para la técnica del calor y de la iluminación Para aparatos domésticos y menaje de cocina

JENAERGLAS

S C H O T T SUDAMERICANA S.A. Cerrito 228 - 6° Tel. 35-9627 - 4237

61

Libros nuevos

Genética y evolución

€. Petit y G. Prevost

Traducción del original francés: Griselda Ribó Ediciones Oniega, S.A. Barcelona Barcelona, 1970, 392 páginas

Sumario: Primera parte: Genética. I. Problemas de la herencia. II. Identificación del material genético. III. Función autocatalítica del ge-ne. IV. La meiosis y sus consecuen-cias. V. Las alteraciones del núcleo y sus consecuencias. VI. Intercam-bios cromosómicos no meióticos. Pa-rasexualidad. VII. Estructura fina del gene. VIII. Función heterocata-lítica del gene. IX. El código gené-tico y la síntesis de las proteínas. X. La mutagénesis. XI. Regulación del metabolismo celular. Segunda par-te: Evolución. L Poblaciones. II. Genética de poblaciones. III. El papel de la selección en la adapta-ción de las poblaciones naturales. IV. Especie y especiación. V. Dife-renciación de los grandes grupos. VI. Evolución humana. Bibliografía.

El método retrospectivo en la ensenanza de la historia

Susana Simian de Molinas

Editorial Estrada Talleres Gráficos Buschi, S. A. Buenos Aires, 1970 , 179 páginas

Sumario: Advertencia preliminar. Primera parte: El método retrospec-tivo: fundamentación y aplicación. I. Introdución. II. El métotdo re-trospectivo. III. Aplicación del mé-todo retrospectivo. IV. Posibilidades de aplicacipn del método retrospec-

62

tivo fuera del campo de la historia argentina. Segunda parte: Primeras experien-cias y evaluación del método retros-pectivo. V. En la Escuela Industrial Superior de Santa Fe (Universidad Nacional del Litoral). VI. En el Ins-tituto del Profesorado Básico de San-ta Fe (Universidad Nacional del Li-toral). Palabras finales. Apéndice. Bibliografía.

Fronteras del espacio

Wernlier von üraun /

Editorial I'omairc Barcelona, 1970, 203 páginas

Sumario: I. Lanzamiento y ascenso. II. Vuelo a través del espacio. III. La seguridad en el espacio. IV. Esta-ciones en el espacio. V. Vuelo a la Luna. VI. Bonanzas en el camino ha-cia la Luna. VII. Hacia los puntos y más allá.

Análisis químico cuantitativo

Gil herí II. Ayres

Traducción del original inglés: Santiago "Vicente Pérez Ediciones del Castillo, S.A., Madrid Madrid, 1970 , 740 páginas.

Sumario: Primera parte: Principios fundamentales. 1. Objeto, finalidad y métodos del análisis cuantitativo. 2. La balanza analítica y su uso. 3. Reacciones iónicas. 4. Ley de ac-ción de masas: equilibrio químico. 5. Equilibrios ácido-base. 6, lonó-genos poco solubles: producto de solubilidad. 7. Iones complejos. 8.

Veracidad de las medidas. 9. Pre-paración de la muestra para el aná-lisis. 10. Separaciones analíticas: métodos de precipitación. II. Se-paraciones por volatilización, 12. Separaciones por extracción. 13. Se-paraciones por cromatografía y cam-bio iónico. 14. Fenómenos de pre-cipitación. Segunda parte: Métodos gravimé-tricos. 15. Cálculos en análisis gra-vimétrico. 1 6 . Determinación de agua, hidrógeno y carbono. 17. De-terminación gravirnétrica del cloruro y ele la plata. 18. Determinación del sulfato y del bario. 19. Otras determinaciones gravirné tricas co-rrientes. Tercera parte: Métodos volumétri-cos. 20. La medida del volumen. 21. Fundamentos del análisis volu-métrico. 22. Cálculos en análisis volumétrico. 23. Teoría de la neu-tralización. 24. Métodos de neutra-lización. 25. Volumetrías de preci-pitación y de formación de comple-jos o ionógenos débiles. 26. Teoría redox. 27. Oxidaciones y reduccio-nes previas. 28. Métodos con per-manganato. 29. Métodos con yodo. 30. Métodos con dicromato, cerio ( IV) y bromato. Cuarta parte: Algunos métodos fi-sicoquímicos. 31. Absorción y emi-sión de energía radiante. 32. Elec-troanálisis. Quinta parte: Experimentales. 33. Técnica de las operaciones comu-nes de laboratorio. 34. Utiliza-ción de la balanza analítica. 35. De-terminaciones, gravimétricas. 36. De-terminaciones volumétricas: méto-dos de neutralización. 37. Precipi-tación y complejación volumétrica. 38. Métodos redox. 39. Métodos calorimétricos. 40. Métodos electro-métricos. 41. Separaciones analíti-cas.

Correo del lector

La distancia de la • Tierra a la Luna

Señores Directores:

En el artículo del Profesor Basov "La distancia de la Tierra a la Lu-na", publicado en el N? 7 de CIEN-CIA NUEVA (págs. 59/60), se lee: "Los prismas se hicieron de vidrio homogéneo especial de escaso coefi-ciente de dilatación e índice de re-fracción". Creo que esta frase, así como todo el párrafo relativo a los prismas del reflector láser, es bastan-te oscura, por lo que conviene hacer algunas aclaraciones. Los prismas del "Luna 17" no son de vidrio sino de cuarzo sintético transparente. Se tra-ta de 14 prismas triples, de 40 mm de lado (ver foto) y para su fabri-cación se partió de cuarzo (SiO¡) sintético, obtenido por hidrólisis, a elevada temperatura, de tetracloruro de silicio (Cl',Si).

Este material se denomina comer-cialmente Homosil y tiene utt coe-ficiente de dilatación lineal de 0,27 X 10-o/°C entre —50 y 0oC y de 0,48 X 10-*/°C entre 0 y 900 °C, lo que le permite soportar grandes cambios de temperatura sin defor-marse. Para el caso del reflector láser, lo que más interesa son las propiedades ópticas y en especial la homogeneidad; para los prismas en cuestión, el fabricante, una firma es-pecializada en cuarzo de Hanau (Re-pública Federal Alemana), aseguró una variación máxima del índice de refracción de 7 X 10~7. La resisten-cia a la radiación tiene que ser tam-bién muy elevada, ya que por efecto de la misma el cuarzo (como el vi-drio) tiende a oscurecerse, por un proceso bastante complejo en el cual juegan un papel principal las peque-

Vista posterior y anterior de un prisma triple como los utilizados en los reflectores láser llevados a la Luna.

ñas cantidades de impurezas pre-sentes.

Es interesante hacer notar que el reflector láser llevado a la Luna por la misión norteamericana Apolo 11,

en julio de 1969, estaba formado por 100 prismas similares, pero más pe-queños, de 20 mm de lado. Sin em-bargo, estos prismas estaban fabrica-dos con otro material, denominado Suprasil-I-Top, que también es cuar-zo sintético transparente, pero de una pureza química extraordinaria-mente elevada, lo que garantizaba que la radiación solar no iba a tener absolutamente ningún efecto sobre la transparencia.

¿Por qué los franceses y los sovié-ticos prefirieron un material de apa-rentemente menor calidad? La expli-cación es muy simple: la coloración debida a la radiación desaparece al elevar la temperatura. Como durante el día lunar la temperatura es noto-riamente elevada, el material perma-nece perfectamente transparente e incoloro. Y otra razón de peso fue, naturalmente, el precio: el material de los prismas utilizado en el expe-rimento franco-soviético cuesta la mi-tad del utilizado por los estadouni-denses. También es interesante men-cionar que todos los prismas emplea-dos en estas experiencias, tanto las norteamericanas (incluyendo la falli-da Apolo 13) como las soviéticas, fueron fabricados por la misma firma alemana.

Sergio Conti Capital

No especificidad

Señores Directores:

He leído con interés el artículo del Ing. Zubieta en CIENCIA NUE-VA número 5. Sólo quiero criticarle su "no especificidad". Y les sugiero una prueba: reemplacen "computa-

63

dora" por "salchicha", "equipo" por "embutido", "velocidad" por "gus-to" y "componente" por "carne de cerdo". . , y tendrán un muy buen artículo sobre la industria del cha-viñado.

G u i l l e r m o M o n t i R o s a r i o

Cuenca del Plata

Señores Directores:

Muy interesantes ¡as notas sobre el Modelo Matemático de la Cuenca del Piala que han publicado en el número 6. En la página 9 se habla de la continuación del Modelo hasta Rosario y Concordia. ¿En qué esta-do de avance se encuentra el estudio sobre el Paraná?

Lucas Bronstein Bahía Blanca

Hasta el momento la Secretaría de Recursos Hídricos no ha dispuesto la prosecución de los estudios del Modelo Matemático en sus Fases 2 y 3.

Conacyt

Señores Directores:

Quiero hacerles llegar mis felicita-ciones por el editorial de CIENCIA NUEVA 5 dedicado al CONACYT tanto por su contenido como por la buena idea de separar la información (el reportaje al Dr. Taquini) con la posición de la revista.

En el mismo número hablan del nombramiento del Dr. Saccberi y del sombrío futuro que este acto presa-gia para el Consejo. Sin disentir so-bre el fondo de la critica quisiera agregar que este hecho no es aislado ni el único en la historia del CNICT; sin antecedentes tan "públicos" co-mo los del Dr. Saccberi, otros fun-cionarios han cumplido una tarea se-mejante. Por otra parte la interven-ción del SIDE en los nombramientos de investigadores tampoco fue una sompresa ni un paso que se separa mucho de la linea predominante en el Consejo.

Juan Carlos Saldías Capital

Un amigo

Señores directores:

La finalidad de estas líneas es fe-licitarlos efusivamente por la publi-cación'- que han lanzado al público. Soy estudiante de Ciencias Bioquí-micas y también profesor de Quí-mica en el Instituto Politécnico Gral. San Martín, y debo reconocer que es imprescindible la lectura de CIENCIA NUEVA para ambas ac-

tividades así como para imponerme de la actualidad científica en toda su magnitud.

Es indudable la calidad de las notas y noticias que contiene vues-tra publicación, por la que modes-tamente vuelvo a felicitarlos. Les ruego feliciten también al Sr. Julio Moreno por su extraordinario sen-tido del humor.

Jorge Raúl Oliva Rosario

Respuesta a metegol N9

Este problema, como otros de las agujas del reloj, se re-suelve fácilmente midiendo el ángulo del horario en el sis-tema duodecimal y adoptan-do como unidad la vuelta. En ese caso la posición del hora-rio estará dada por un ángu-lo a = 0, bíbibz • • • siendo h\,hs.,hz,. . . cifras del siste-ma duodecimal. Es claro que hí representa el número ente-ro de horas, de ahí que 0,0 hi-hs.. . es la fracción de án-gulo del horario que corres-ponde a los minutos y frac-ciones. Pero como la maneci-lla de los minutos tiene una velocidad 12 veces mayor que la del horario resultará que (3 = 0, hzbzhi . . . será el án-gulo del minutero. Esta sim-ple relación entre los dos án-gulos facilita la resolución de los problemas.

Por ejemplo, es claro que el problema propuesto se re-suelve para todas las horas x de la forma periódica mixta X = 0,hih2 • • . hmhm + t . . . fa si la posición a la que hay que volver es después de la ma.

Un caso particular intere-sante es aquél en el cual se puede invertir la posición de las dos agujas oís teniéndose en cada caso una hora correc-ta. Es evidente que esto se produce en los 143 casos en que el horario forma el ángu. lo xi = 0, biba'y x2 = OjhéT. Por ejemplo para hx — 3 y bí = 5 se tienen las horas

2H

*i = 3h26m26 v x« = 143

4

24s

= 5"17m12 en las que 143

las agujas pueden intercam-biarse.

Si el ángulo del horario es un número irracional, por ejemplo fracciones racionales de radianes, con la operación mencionada jamás se volverá a una posición anterior.

Si ¿ i y b-2 son de igual pa-ridad, las posiciones xi y xs se disponen simétricamente res-pecto de una posición de mane-cillas superpuestas: *3 = 0, ha con 2 h = bi + b2. '

Así, en el ejemplo anterior p

xa = 0,4 = 4"21m49 — 11

Metegol N9 5

Determinar uña posición de ajedrez tal, que correspon-diéndoles jugar a las blancas, si éstas realizan una movida Mi^ las negras sólo pueden realizar una movida; si en lu-gar de Mi, las blancas reali-zan una movida M2, las ne-gras sólo tienen dos movidas posibles y así sucesivamente, hasta una movida M,- que da a las negras la elección entre exactamente r movidas posi-bles. El problema consiste en encontrar una posición con el mayor valor de r posible. Por de pronto, hay una serie de soluciones sumamente sim-ples, en que r = 5.

64

Hace más de diez años nos volcamos al diseño y construcción de equipos para ingeniería sanitaria, tratamiento de agua, intercambio iónico, filtración, evaporación y otras operaciones de la ingeniería química. En este lapso hemos consolidado un eficiente grupo de ingenieros argentinos en torno de una idea de calidad: TP^MOLOGIA ARGENTINA

:L INTERNACIONAL

Nicoli- Salgado S.A. Lima 187-37-0555/38-4687 Buenos Aires

Hituro de la energía

EL MECANISMO DR I.AS ARTICULACIONES HUMANAS

EL ASPECTO UNITARIO DE LAS MATEMATICAS

c r * *

])1>1

^ ) 1 >• Riipurluju fi

n . . I A n . . . . f'itiríü Do Gumtou P A N O R A M A D E L A F I S I C A D E L S O L I D O

WtM ¿COMPUTADORAS ARGENTINAS?

CQNACVT: una montaña da papel

CONTAMINACION o a MECHO AMBIENTE

c

5

t¡ h ( P

n j i &

- V r /

moíjefc para la " 'CA pÉL PLATA

Los nuevos materiales Aprendizaje visceral -

LELOIR PREMIO NOBEL Psiquiatría y sociedad

a, n si n, a n, a el Si tn et

En el próximo número D. W. Sciama analiza los problemas cosmológicos ac-tuales, Roger Bannister escribe sobre la fisiología del record deportivo y Gregorio Klimovsky opina sobre ciencia e ideo-logía.

Revista de ciencia y tecnología D i a g o n a l R o q u e S , P e ñ a 8 2 5 P . A" . - O f 4 3 - B u e n o s A i r e s