La metatecnica es fundamentalmente matematica Vicci
-
Upload
randalangulo -
Category
Documents
-
view
7 -
download
1
description
Transcript of La metatecnica es fundamentalmente matematica Vicci
LA METATÉCNICA ES ORIGINALMENTE MATEMÁTICA
Alberto Castillo Vicci1
Resumen
Se propone que los fundamentos de la meta-técnica tienen su origen no en la
evolución de la técnica del siglo XX, cuando ésta se desprende de su carácter óptico-lumínico
arraigado en limitaciones antropomórficas, antropocéntricas y geocéntricas de la técnica
anterior; sino en la liberación de las matemáticas del siglo XIX de sólo interpretaciones y
modelos puramente concretos de dominios finitos, dando paso a pruebas de logos o
principios inteligibilizadores de consistencia, también en dominios infinitos y abstractos. Se
conjetura que la naturaleza de la nootecnia, como lenguaje de interpretación de la meta-
técnica, que traduzca la trans-racionalidad del dominio meta-técnico al racional técnico será
la de una nueva rama de la matemática, posiblemente como la que actualmente se
desarrolla en la lógica cuántica. La racionalidad se limita en este trabajo a los principios o
logos de la lógica matemática tradicional, y la trans-racionalidad a la modificación de tales
principios.
Antecedentes
Este trabajo tiene como antecedentes a los Fundamentos de la Meta-técnica [1], a la
Técnica y meta-técnica de la computación [4], a la Lógica Cuántica [2] y a conversaciones
con el doctor Ernesto Mayz Vallenilla.
Alcance
En esta monografía sólo se hace referencia a los conceptos extraídos de las
formalizaciones de la Lógica Cuántica según textos y monografías actuales [2], [15] y [16],
pero no a las formalizaciones en sí, con el fin de limitar su extensión a pocas páginas.
1 Unidad de Investigación en Inteligencia Artificial de la Universidad Centro Occidental “Lisandro Alvarado”. Coautor de Técnica y meta-técnica de la Computación, editado por UCLA-IDEA en el año 2000.
Objetivo
Pretendemos argumentar en esta monografía que la meta-técnica es originalmente
matemática y se gestó en el siglo XIX, aunque llega a establecerse y reconocerse como
evolución más avanzada de la técnica en el siglo XX [3]; y a partir de este resultado avizorar
en el dominio de instrumentos cuánticos, netamente meta-técnicos, los elementos trans-
racionales de tal dominio y su nootecnia en una lógica cuántica.
Argumentación
La meta-técnica, según la descubre y desarrolla el doctor Ernesto Mayz Vallenilla en
su original obra Fundamentos de la meta-técnica [1], es la ruptura revolucionaria o
discontinuidad de cánones inteligibilizadores con sintaxis de logos distintos a los de la
técnica evolucionada históricamente hasta el siglo XX; identificada por la trans-racionalidad
que abandona un logos de carácter óptico-lumínico de lo sensorio antropomórfico,
antropocéntrico y geocéntrico de raigambre humana, propio de la técnica anterior, y
mediante la cual una serie de nuevos productos y artefactos no sólo extienden el potencial
sensorial del hombre sino que incursionan en otros dominios epistemológicos no
directamente accesibles al conocimiento humano por medios naturales (diferente en grado al
menos en unos casos, pero la mayoría diferente en clase); sensibles a mensajes de
moléculas en el aire o a ondas sonoras o de calor imperceptibles a los humanos...
desarrollados por la evolución natural en el aparato sensorial de algunos animales pero no
en los mamíferos primates del grupo homínido, y más allá en algunos artefactos resultantes
de la técnica y la evolución cultural que ningún producto de la evolución biológica ostenta,
como son los instrumentos y dispositivos sensores de espectros de luz, del sonido, del gusto
o el tacto en menor grado, y que operan en escala microscópica y más profunda de
radiaciones y energía. Representados como ejemplos paradigmáticos en escánners,
tomógrafos, ecosonógrafos, sensores Geiger, ciclotrones y aceleradores de partículas, rayos
láser, misiles guiados, bombas inteligentes... para mencionar algunos; pero que avanza a su
clímax a principios del siglo XXI, con la nanotecnología, por medio de la cual se espera no
sólo construir computadores cuánticos sino una serie de robots y servomecanismos que
pudieran a escala de millardésimas de metro, ser capaces de participar de otra alteridad;
por ejemplo, ser enviados en el flujo sanguíneo para extirpar un tumor maligno en un sitio
específico del cuerpo humano, autónomamente, sin contacto con la alteridad humana; o
teleportar información a los confines del universo de manera instantánea, no local, violando
el principio de que nada se mueve a mayor velocidad que la de la luz.
Partimos pues de la hipótesis que sin el abandono en las matemáticas abstractas del
siglo XIX, de las interpretaciones óptico-lumínicas para los entes matemáticos aún
presentes en la matemática moderna hasta el siglo XVIII, por una nueva matemática sin
tales interpretaciones como la que nace con geometrías no euclídeas, lógicas no estándares,
álgebras abstractas universales, conjuntos infinitos de distintos tamaños... la meta-técnica
no salta a la discontinuidad que la libera de la técnica antropomórfica, antropocéntrica y
geocéntrica en el siglo XX y lo que se avizora en el XXI [4].
Más aún, las nuevas dimensiones de la alteridad meta-técnica de la nanotecnología,
resultan asombrosas, casi fantásticas, al proponer experimentos netamente meta-técnicos,
como el diseñado por el físico David Deutsch (premio Dirac), pionero de la computación
cuántica, quien ha sugerido como prueba de la existencia de universos paralelos
matemáticamente expresados en la llamada interpretación cuántica de H. Everett, bajo el
nombre de “del estado-relativo”, y según la cual experimentamos sólo un estado que es
relativo a infinitos universos que se crean con historias distintas paralelas y disjuntas al
nuestro, cada vez que se toma una decisión o medida, pero los que podríamos “conocer”
construyendo una inteligencia artificial cuántica que observe esa alteridad por nosotros y
“nootecnológicamente” [5] no las comunique.
Sin embargo, es nuestra hipótesis, como antes anunciamos, que no fue la tecnología
de la física o de otros orígenes tecno-científicos en el siglo XX, donde se germinó el
abandono epistemológico de lo óptico-lumínico y sus limitaciones antropomórficas,
antropocéntricas y geocéntricas del conocimiento humano; sino con anterioridad, en el de
las matemáticas del siglo XIX y su continuo desarrollo en el XX. Concretamente, con el
descubrimiento de las geometrías no euclídeas, las álgebras abstractas universales, los
conjuntos infinitos de distintos tamaños, el descubrimiento de los teoremas de limitación en
la lógica estándar por Gödel et al y su posterior extensión en lógicas no estándares, hasta la
lógica cuántica; como un fundamento más profundo de la alteridad, con un logos que
modifica principios de consistencia, tercero-excluso e identidad que son condiciones sine qua
non los sistemas lógicos son válidos desde la lógica aristotélica hasta la de predicados de
Frege, sin dejar de ser válidos; aunque no se sostiene en nuestro universo de la vida diaria
de las dimensiones intermedias. Más aún, esa lógica cuenta con un principio más primitivo
(u original) de la alteridad que hace el logos y la realización física interdependiente: “ningún
axioma matemático es verdadero sino es físicamente realizable y viceversa”. Descubierto
por Deutsch [6] como una extensión del principio de Turing a la física cuántica.
En consecuencia, para centrar la afirmación de que la meta-técnica es originalmente
matemática; más aún, podríamos agregar, que la sintaxis de la nootecnia (por crearse) será
un formalismo matemático en naturaleza, es suficiente con revisar la historia de las
matemáticas del siglo XIX, para comenzar desde allí.
Los historiadores fijan en el siglo XVII el inicio de las matemáticas modernas y en el
siglo XIX el de las matemáticas puras. En verdad, las matemáticas han mantenido un
continuo desarrollo en la historia del pensamiento, pero hay épocas que marcan momentos
estelares y el avance ha sido espectacular. Como cosa curiosa, en sus momentos más
grandiosos, por la obra de apenas una docena de hombres de genio. Como por ejemplo, en
los años que transcurren entre 1637, cuando Descartes publica su Geometría, y 1687,
cuando Newton hace conocer su famosa Principia, sólo comparables a los años de oro de la
Grecia antigua; en cuyo ínterin, nuevos campos de las matemáticas fueron creados: el
análisis combinatorio y las probabilidades, la aritmética superior, el cálculo diferencial e
integral..., años en que las matemáticas impulsaban a las ciencias y éstas a su vez
estimulaban a las matemáticas, particularmente la física, la química y la astronomía; en un
continuo desarrollo que Alfred North Whitehead atribuye a la sustitución de la actividad
aristotélica de emplear el método clasificatorio por la medida, la experimentación y la
generalización; en palabras de Whitehead; “...por este racionalismo quiero decir, la creencia
de que el camino de la verdad era predominantemente a través del análisis metafísico de la
naturaleza de las cosas, el cual determinará cómo las cosas actúan y funcionan. La
revolución histórica consistió en el abandono definitivo de este método en favor del estudio
de los hechos empíricos de antecedentes y consecuente” [7].
Las matemáticas, pues, sustentan el desarrollo de las ciencias y éstas el de las
matemáticas; de tal manera, que en el siglo XVIII y el XIX antiguos problemas no resueltos
encontraron su solución, como los establecidos por los griegos en geometría elemental
acerca de la trisección del ángulo, la construcción de un cubo que sea el doble de otro o la
construcción de un cuadrado con el área igual a la de un círculo dado; y que se comprobó
eran insolubles bajo las condiciones impuestas originalmente por los griegos. Pero ello obligó
a un estudio intenso de los números y el continuo numérico que llevaría a interesantísimos
resultados en los trabajos de Georg Cantor, como al hecho de que una vía de demostración
en matemáticas era la de comprobar que no había solución para un determinado problema
planteado. Todo el avance que se logra en estos años, se hizo en matemáticas a expensas
del rigor y la validez de los instrumentos empleados en las demostraciones; pero el
descubrimiento de las geometrías no-euclidianas, de los infinitos de distintos tamaños y de
las paradojas en la Teoría de Clases en el siglo XIX, hizo necesaria una revisión de los
fundamentos y naturaleza de las matemáticas. El caso de las geometrías no-euclídeas ilustra
bastante bien la clase de problemas enfrentados y la necesidad de una nueva matemática
desprendida de la observación o interpretaciones óptico-lumínicas. Por siglos los
matemáticos trataron de deducir el postulado de las paralelas que aparece como quinto
axioma de los otros sin lograrlo. Una conclusión importante es que si sólo pasa una paralela
a un punto externo a una recta, se tiene la Geometría Plana de Euclides, pero si pasan dos o
más o ninguna, estas corresponden a geometrías de espacios de curvatura positiva o
negativa, no planas.
Si se aceptaban esas tres posibilidades, una es óptico-lumínica, la plana; las otras no.
Si entiendo por óptico-lumínico lo que conozco porque lo captan mis sentidos directamente
con preeminencia de la visión, no mi posterior razonamiento. Con la meta-técnica amplío
mis capacidades de percepción, pero también para filtrar lo óptico-lumínico en mi posterior
razonamiento.
Le correspondería a Gauss aceptar tal hecho y desarrollarlas independientemente
después por Bolyai (1802-1860), por Lobachevsky (1793-1856) y por Riemann (1826-
1866); quienes demostraron que el postulado de las paralelas no es deducible de los otros
–había que admitirlo– y que aceptando también axiomas distintos, como hizo Riemann para
desarrollar la suya, con los postulados de que no hay ninguna paralela que pase por un
punto externo P a una línea L y que la suma de los ángulos de un triángulo es mayor que la
de dos ángulos rectos; pudo demostrar nuevos e interesantes teoremas; descubriendo así,
como lo estableciera el profesor Felix Klein (1849-1925), que la de Euclides es un caso
particular de las geometrías, en que la superficie tiene una curvatura de cero y que cae
entre una geometría de curvatura positiva como la de Lobachevsky y otra negativa como la
de Riemann. Aunque la geometría euclidiana corresponde a la noción que tenemos del
espacio por sentido común, existen otras para espacios distintos si partimos de postulados
diferentes. Ello le dio un carácter más general y abstracto a las matemáticas. Se veía que no
era su materia el estudio del espacio o la cantidad, sino que es la ciencia por excelencia de
arribar a conclusiones lógicamente implícitas en un conjunto de axiomas o postulados y que
la validez de la inferencia matemática no depende de ningún significado especial que pudiera
estar asociado a los términos de los postulados; esto es, que la matemática es mucho más
formal y axiomática de lo antes pensado y con ello se abrían las puertas a nuevos mundos
abstractos, jamás concebidos hasta entonces por la imaginación humana y de ninguna
manera antropomórficos, antropocéntricos y geocéntricos.
Esto se evidencia por lo siguiente: la validez de los resultados de la geometría
euclidiana era posible comprobarla con la observación de los hechos en el espacio ordinario
a que se refería; pero, en el caso de las no-euclídeas, que no tenían interpretación en el
mundo inmediato en que vivimos, según lo que la intuición y el sentido común nos dicen,
¿cómo podríamos asegurar que su conjunto de postulados no lleven a teoremas
contradictorios? Un método general fue considerado: el de encontrar “un modelo” o
“interpretación” para los postulados del sistema de manera tal que los postulados se
conviertan en proposiciones verdaderas del modelo; y el modelo en sí pueda ser verificado
por otros medios. Tal fue el caso de la geometría de Riemann, la cual podría interpretarse de
la manera siguiente: la palabra plano de los axiomas de Riemann como la superficie de una
esfera de la geometría de Euclides; la palabra punto como un punto en esta superficie; la
palabra recta, como el arco de un gran círculo en esta superficie, y así. Cada postulado de
Riemann se convierte de tal manera en un teorema demostrado en la geometría euclidiana y
la de Riemann es verdadera si la de Euclides lo es. Pero, no sólo la transferencia de dominio
no es una prueba absoluta de un sistema formal y axiomático, sino que la referencia a
Euclides conlleva a la comprobación de hechos observables y nunca se estaría seguro de que
un hecho no observado la hiciera inconsistente.
Algunos matemáticos, particularmente Russell, Whitehead y Hilbert, cada uno por su
parte, intentaron interpretarlas en sistemas más generales o construyendo sistemas
axiomáticos para la geometría cuya enunciación no tuviese referencia sino a conceptos no
definidos, haciéndola cada vez más abstracta; por ejemplo, Hilbert (1899) sólo emplea
conceptos como “punto”, “línea”, “cae en”, “entre”, etc. de tal manera que la formalización y
axiomatización del sistema pueda ser estudiada en sí para comprobar su consistencia.
Pero, “punto”, “línea”, ”cae en”, “entre” que tienen origen óptico-lúminico, si se
sustituyen por cualquier cosa y se es consistente en la sustitución, por símbolos arbitrarios,
como por ejemplo , , , sigue siendo una geometría consistente. En el sistema de
Hilbert, por el procedimiento axiomático y formal con que se construye. Más aun, hay
matemáticos ciegos de nacimiento que hacen muy bien la matemática, sin ayuda de símbolos
operables visualmente. En todo caso, se le podría enseñar matemática con los símbolos de
arriba en Braile a un ciego, y sus conceptos no tendrían raigambre óptico-lumínica.
Por otra parte, casi todos los campos de las matemáticas realmente importantes se
refieren a conjuntos de un número infinito de objetos y la teoría de conjuntos vino a
convertirse, entonces, en el fundamento más general y abstracto de casi toda otra teoría
matemática. Pero en ésta surgieron paradojas tanto en las clases de infinito y en las clases
infinitas, como en el campo elemental de la lógica; entre ellas, la muy conocida de Russell,
que ponía entredicho todo otro fundamento.
Esto condujo al programa de Hilbert concebido para lograr una definición meta-
matemática de la aritmética, para empezar, que se probara en el propio sistema, y
comprobar que el sistema es consistente y completo. El paso genial lo dio Gödel codificando
proposiciones meta-matemáticas en sistemas lógicos, con resultados que le hicieron mover
el piso a todo el esfuerzo por axiomatizar y formalizar todas las matemáticas, con la
demostración que ni siquiera la aritmética es totalmente formalizable y axiomática.
Entonces, qué son los símbolos y las fórmulas matemáticas: ¿son las matemáticas? Pues no.
Sirven como lenguaje, quizás como nootecnia, entre esos entes matemáticos y la mente
humana; pero no son las matemáticas. Y como lo óptico-lumínico es simbólico, las
matemáticas no necesariamente lo son. Esto llevó a Gödel a un neo-platonismo: a creer en
la existencia de entes a los que hacen referencia nuestros símbolos en un mundo per se, no
construido por los humanos. En consecuencia, para Gödel, nada tiene que ver la matemática
con el antropocentrismo, antropomorfismo y geocentrismo que se origina en el modo en que
el hombre la descubre y desarrolla. Y ello nos abre la puerta a la trans-racionalidad, que
sería algo como la razón de aquel mundo platónico.
Por lo tanto, campos abstractos de las matemáticas como las geometrías no
euclídeas, los espacios de Hilbert, la topología, las lógicas no estándares, hicieron posible la
nueva física, para empezar: la relativista, la cuántica, la de las cuerdas y por supuesto todas
las tecnologías que se sostienen en sus principios. Particularmente en el campo de la
mecánica cuántica, la de mayor aplicación en dominios como la electrónica, la computación,
la nanotecnología... y en los que la meta-técnica es una de la posibles interpretaciones,
como veremos más adelante.
Puesto que la meta-técnica nos habla de trans-racionalidad, una buena pregunta
epistemológica para el siglo XXI es: ¿cuál es el logos de esa trans-razón? Mayz lo avizora
no-simbólico. Y la matemática, hemos visto, no es los símbolos con que la denotamos. Lo
que se evidencia en el empleo de símbolos diferentes por su origen geográfico o lingüístico
en culturas distintas para los mismos conceptos matemáticos. Por eso, la matemática
aunque inicialmente, en sus principios, usó símbolos de origen óptico-lumínico, menos
abstractos que los actuales, no es óptico-lumínica, ya que corresponde a un mundo ideal. Y
al abstraerse en dominios descubiertos en el siglo XIX y profundizados en el XX, es por
esencia la más auténtica expresión de la meta-técnica.
Si el logos de la trans-razón meta-técnica no es simbólico, pero a la vez es
matemático: ¿cómo operamos con él? Toda nuestra costumbre del razonamiento
matemático se expresa en operaciones simbólicas. Mayz espera que la trans-racionalidad se
desprenda de todo lo óptico-lumínico al no ser simbólica. ¿Cómo podríamos avanzar en el
conocimiento sin símbolos? Si se lograra un avance, ¿cómo se comunicaría? No hay
comunicación sin símbolos ni medios.
Quizás los filósofos de las matemáticas tengan alguna respuesta. Sin embargo, voy a
mencionar la de uno de sus actuales más locuaces y respetados expositores, Gregory
Chaitin, en un libro publicado en el año 2002, Conversaciones con un matemático:
matemáticas, arte, ciencia y los límites de la razón. Chaitin le dio nuevas expresiones al
teorema de Gödel con la introducción de la indecidibilidad junta a la aleatoriedad en los
fundamentos de la matemática, acercándola a la física en cuanto a que nosotros los
humanos no podemos conocer las cosas claramente sino en tonos de grises; pero él cree,
como la mayoría de los matemáticos, que existe una clase de mundo platónico a la que
nuestra mente tiene acceso pero nuestros símbolos o valga decir nuestro lenguaje no
expresa como es. En ese mundo platónico no hay indecidibilidad sino teoremas verdaderos o
falsos, blanco o negro, no los tonos grises con que nuestras limitaciones de alguna manera
antropomórficas, antropocéntricas y geocéntricas (como se avizora en la meta-técnica) los
expresa. En palabras de Chaitin:
“La filosofía de las matemáticas...”.
El auto-análisis de la matemática moderna comienza, es justo decirlo, en las
sorpresas que engendraron las teorías de George Cantor en el siglo XIX y el intento de
Frege, Peano, Whitehead y Russell por fijarle unas bases sólidas, lógicas, a las
matemáticas... que condujeron a las paradojas... Creo que el trabajo escrito, y en particular
mi propio trabajo en aleatoriedad, no descartan los números enteros. Yo siempre he creído,
como me parece que la mayoría de los matemáticos probablemente creen, en alguna clase
de universo platónico. Preguntas como “¿Tiene una ecuación diofántica infinito o finito
número de soluciones? Que aunque de poco significado computacional, aunque nunca
nosotros (humanos) lo sepamos, Dios lo sabe y hay o no hay un finito número de
soluciones. La realidad en el universo platónico es blanca o negra, no de tonalidades grises
como es para nosotros... no creo que esto sea tan malo, la física cuántica que tan
fundamental es en nuestro conocimiento actual de la realidad es aleatoria e impredecible y
estos conceptos lo encontraremos en el corazón de las matemáticas puras” [8].
Gotlob Frege creía que el pensamiento con que conocemos las matemáticas puras es
inmaterial, y que el símbolo con que lo arropamos lo hace material y perceptible para
comunicarnos. Pero los símbolos son convenciones sujetas a circunstancias históricas,
geográficas y hasta de moda (recuérdese la notación de Newton y la de Leibniz para el
cálculo), muy óptico-lumínicos. Sin embargo, las matemáticas desde Cantor para acá se han
ido desprendiendo en su aspecto semántico o en su significado de tal limitación... pero el
símbolo seguirá siendo necesario con todo su origen óptico-lumínico si se quiere comunicar
lo que se conoce.
Dominios de la meta-técnica
No toda la técnica avanzada es meta-técnica. Por ejemplo, la computación tradicional
no cuántica no lo es; pues su paradigma central es el Principio de Turing, según el cual para
toda computación existe una máquina de Turing, y el logos de ésta es óptico-lumínico; a
saber: los principios de identidad, el tercero excluso, el de no-contradicción y la función de
transición sobre los que se fundamenta [9]; en consecuencia es técnica. La inteligencia
artificial y la realidad virtual, tampoco lo son. La inteligencia artificial y la realidad virtual son
mimesis de la inteligencia y realidad que ejerce y conoce el hombre por sus medios
sensorios, y son en consecuencia óptico-lumínicas y de logos antropomórfico,
antropocéntrico y geocéntrico [10].
En cambio, los instrumentos y artefactos fundamentados en la mecánica cuántica
como la computación cuántica y la nanotecnología lo son. En efecto, nada es más extraño a
los sentidos humanos, menos antropocéntrico, antropomórfico y geocéntrico, que la
mecánica cuántica: que las cosas no existen cuando no las percibimos o medimos; que la
materia se concentre en partículas y se disperse en ondas a la vez para coexistir en este
doble comportamiento; que el tiempo pueda moverse hacia atrás o quedarse estático
detenido para siempre en partículas sin masa como los fotones desde el principio del gran
estallido con que comenzó el Universo unos 15.000 millones de años atrás; que todas las
partículas de una misma especie son idénticas y la energía se transmite en cantidades
discretas llamadas cuántos; como, por ejemplo, cuando un electrón pasa de una órbita a
otra sin haber estado en estados intermedios y que hay partículas que están en posiciones
distintas simultáneamente, al mismo tiempo; que hay transmisión instantánea de
información entre partículas de un mismo origen separadas a distancias tan grandes como
los extremos de una galaxia; y que en el mundo sub-atómico rige el principio de
incertidumbre que nos impide conocer la posición y el momento a la vez de una partícula es
decir de complementariedad, y prevalece como ley estadística inexorable de los hechos que
hacen del mundo cuántico un mundo de probabilidades en el que la tecnología habitual,
tradicional no tiene cabida pues todos los estados del sistema están superpuestos mientras
no se midan... Una de las consecuencias de este Principio es que el observador científico, en
el estudio de los fenómenos del microcosmo, no puede realizar observaciones objetivas: su
participación altera la realidad. El acto voluntario de su conciencia (escoger entre medir la
posición, el momento...) influye sobre la medición. Y esto, que la conciencia aprehenda
directamente la realidad y por sí sola la modifica. Es decir, que al medir creamos la realidad
que sólo existe potencialmente, no actualmente, como conjetura de las interpretaciones de
la mecánica cuántica. Y, en los últimos años, la posibilidad de que existan universos
paralelos al nuestro o multiverso, como los llama David Deutsch, dentro de otra
interpretación, que se detectan por interferencias cuánticas, y que creamos cada momento
con observaciones, mantiene perplejos tanto a científicos como a filósofos. De manera que el
logos, razón, inteligibilización o explicación que nos proporciona esta teoría como lenguaje,
discurso o pensamiento acerca de tal realidad física, por ahora sólo refleja lo que hemos
alcanzado del conocimiento y no es toda la realidad; y deberá ser ajustado en posteriores
avances. Esto es así porque hasta el momento lo que la teoría nos presenta es totalmente
anti-intuitivo a lo que el mundo de la vida diaria es para nosotros. En particular, las leyes de
las probabilidades. Y aunque los físicos suelen recurrir a transformaciones de imágenes con
que pudieran compararse los fenómenos cuánticos con los de la vida diaria, estas
comparaciones sólo sirven para comunicar en lo posible al hombre común lo que ocurre a
nivel sub-atómico. Y hasta algunas veces para presentar experimentos imaginarios. Pero, los
expertos entre sí, sólo pueden entenderse en un logos matemático sin imágenes. En
consecuencia, no conocemos cómo es la realidad en sí, sólo la deducimos matemáticamente.
Lo que las teorías nos dicen es algo sobre lo que nosotros sabemos, no cómo son las cosas
en sí. Por lo tanto, caben interpretaciones o especulaciones científicas de cómo es la realidad
del mundo en que participamos y cómo deberíamos interpretar la teoría cuántica.
En tal sentido encontramos un paralelismo aunque diferentes lenguajes, entre lo que
dice el doctor Mayz sobre la trans-racionalidad y los filósofos y científicos que interpretan la
mecánica cuántica. Según Mayz “la trans-racionalidad del logos meta-técnico, a pesar de su
disimilitud con la racionalidad humana, posibilita e inaugura una nueva dimensión y/o
proyección de la misma (trans-óptica, trans-finita, trans-humana) que, en lugar de
aniquilarla, propicia no sólo su enriquecimiento intrínseco, sino paralelamente la trans-
formación y trans-mutación de la alteridad total” [11]. Ahora, la formalización de la
mecánica cuántica por medio de la matemática de los espacios de Hilbert se hizo con la
lógica clásica (racionalidad); es decir, basada en los principios de identidad, tercero excluso
y consistencia; pero la lógica cuántica que parte de proposiciones verdaderas o falsas según
se derivan de los sub-espacios de Hilbert es no-clásica, valga decir, no se sostiene en los
anteriores principios o logos (trans-racionalidad) en todas sus consecuencias como es el
caso de la ley distributiva que no es válida en la lógica cuántica [13].
Desarrollo futuro
Si el argumento anterior es válido, podríamos encontrar algunos paradigmas en las
matemáticas actuales que sirvan de modelos a la nootecnia. Puesto que los artefactos meta-
técnicos se fundamentan y fundamentarán en la mecánica-cuántica como teoría no-clásica2
más acabada de la física actual, su formalización matemática sería un buen dominio para
explorar la nootecnia como lenguaje traductor de la trans-racionalidad meta-técnica a
nuestra racionalidad humana.
2 La Teoría de la relatividad es considerada clásica.
A manera de una introducción a la sintaxis matemática de la nootecnia, consideremos
los principios o logos de la lógica tradicional que es técnica por sus características
antropomórficas, antropocéntricas y geocéntricas evidentes en los principios de identidad,
tercero excluso y de consistencia o no contradicción y su equivalente nootécnico de la lógica
cuántica que se libera en parte de tal logos.
La más usada formalización y axiomatización de la mecánica cuántica se hace en
términos de estructura de espacios lineales, en particular de espacios de Hilbert; esto es:
todos los objetos de la física cuántica, deben ser expresados en términos de la teoría de los
espacios de Hilbert: productos escalares, suma lineal, sub-espacios, operadores, medida y
así... [14].
La lógica cuántica se deriva de los espacios de Hilbert de la mecánica cuántica,
entonces todos los primitivos lógicos, valga decir, proposiciones y operadores deben ser
definidos por entidades de espacios de Hilbert. Esto es, que la operación con proposiciones
que afirman o niegan estados observables de objetos físicos son verdaderas o falsas según
sea la proyección del espacio de Hilbert en tales proposiciones. De tal manera, la realidad
del sistema físico asociado a las estructuras especificadas por el espacio de Hilbert, al que no
tenemos acceso sino cuando tomamos medidas del sistema, se hace accesible a nuestro
entendimiento. En consecuencia, la lógica cuántica es el traductor en términos de la
racionalidad humana, de la trans-racionalidad cuántica. Lo que en términos meta-técnicos es
un intento de nooctecnia. ¿Qué le faltaría? En primer lugar, por lo que se espera de la trans-
racionalidad, los principios de la racionalidad del logos óptico-lumínico de identidad, tercero-
excluso y consistencia o no contradicción deberían ser trans-mutados en la trans-
racionalidad, en otros principios no óptico-lumínicos como lo son aquellos; pero las lógicas
no clásicas, tales como la modal, probabilística, difusa, no-monotónicas y muchas otras
especiales, sólo trans-mutan uno o dos de estos principios no todos a la vez; el más
comúnmente transmutado es el del tercero-excluso. En el caso de lógica cuántica, sólo el
principio de ley distributiva deducido de los anteriores, es transmutado en la lógica cuántica
desarrollada hasta ahora, pues no se sostiene. La razón es que, en su fundamento, la
mecánica cuántica es considerada un cálculo de probabilidades no-clásico que descansa
sobre una lógica proposicional no clásica. Más específicamente, en la mecánica cuántica cada
proposición del tipo “El valor de la cantidad física A cae dentro de un rango B” está
representada por un operador del espacio de Hilbert H. Esto forma una estructura
matemática de red (latice) no distributiva. Por lo que un estado cuántico corresponde a la
medida probabilística definida en esta red. En consecuencia, la lógica asociada o derivada de
la formalización de la mecánica clásica, es decir la lógica cuántica es no clásica o en
términos más precisos no-boleana.
Lo más importante al respecto que debemos notar es que no hay una interpretación
generalmente aceptada y satisfactoria de tal lógica cuántica; valga decir, un modelo
explicativo de la realidad física que representa. El caso es que no lo hay tampoco para la
mecánica cuántica.
Toda teoría científica se espera alcance dos objetivos: (a) prediga los resultados de
los procesos en su dominio; (b) explique los fenómenos bajo estudio para que aumente
nuestra comprensión humana de la naturaleza. La mecánica cuántica es la teoría más
exitosa de la física actual en cuanto a precisión de cálculos y predicciones: no existen
conflictos entre los experimentos en la mecánica cuántica y lo que la teoría predice. No es
así en cuanto a la explicación que ofrece sobre estos fenómenos, pues no concuerdan de
ninguna manera con nuestras intuiciones y sentido común de la percepción humana del
universo. Algunas interpretaciones buscan acomodar los resultados de la mecánica cuántica
con el sentido común, valga decir, a las dimensiones intermedias de la mecánica de Newton
o hamiltoniana; otras intentan aceptar que vivimos en un mundo no-clásico, es decir no
hamiltoniano, y que la visión que hasta ahora hemos tenido del mundo, esto es, de la meta-
física y la epistemología pre-cuántica, son limitadas, circunscritas al dominio de las
dimensiones intermedias; valga decir, en las que nos desenvolvemos los seres humanos en
el quehacer diario; pero esto es lo mismo que decir, a las limitaciones óptico-lumínicas de
raigambre humana, tal como lo expone Mayz en sus Fundamentos... [1]. Pero Mayz abre
una posibilidad dentro de la interpretación, no limitada de la mecánica cuántica pero que la
incluiría, y ésta es la de la trans-racionalidad de una realidad más allá del alcance de lo
sensorio humano; es decir, de la alteridad trans-óptica y trans-lumínica, de una
interpretación que él llama nootecnia. Dentro de su esquema filosófico, tal nootecnia pudiera
ser un formalismo como el que se inicia con los trabajos de John von Neumann en 1932 en
lógica cuántica, que es no clásica en cuanto que al derivar de redes no distributivas, no se
cumple la tautología distributiva como en la clásica; y continúa hoy en día desarrollándose
sin alguna interpretación generalmente aceptada.
La interpretación meta-técnica de la mecánica cuántica sería la de un lenguaje
traductor o nootecnia con las características prefiguradas por Mayz en sus Fundamentos de
la meta-técnica; en el caso de la lógica, desprendida de sus principios clásicos en su
totalidad: una verdadera nueva lógica traductora entre la trans-racionalidad y la
racionalidad: es decir entre el mundo clásico y no clásico o entre las dimensiones
intermedias y las del microcosmos. En consecuencia, en el dominio de la alteridad física, la
interpretación meta-técnica, sería una opción a estudiarse entre las siguientes
interpretaciones de la mecánica cuántica dentro de otras más:
La de Copenhagen que es pragmática, la teoría sirve para calcular no para explicar y
se le debe a Bohr. La teoría cuántica tiene como fin relacionar observaciones no realidades.
No intenta decirnos cuál es la realidad física, sólo lo que observamos y nuestra observación
la cambia. La física se reduce a tratar lo que pasa en nuestras mentes conscientes.
La de Bohn, según la cual hay dos mundos, el clásico y el cuántico, y todo se fijó al
principio del universo. Nuestra conciencia tiene sólo acceso al clásico. Como esperaba
Einstein, hay variables ocultas que una mejor teoría encontrará.
La de Everett. El universo se separa constantemente en nuevos universos para cada
observación. Sólo conocemos uno. Y lo que conocemos es una superposición de muchos
mundos, la realidad última no es un universo sino un multiverso.
La de Heisenberg y Popper: afirma que hay dos realidades, una potencial y otra de
actualidades. En la cuántica todas son posibles, en la observada una se hizo actual.
La de Wigner extendiendo la anterior que dice que lo que caracteriza a un
dispositivo detector es la experiencia en relación con la medida. En tal sentido el dispositivo
de medida en ultima instancia es la dinámica cerebral de la conciencia. Es decir, nuestras
vivencias.
Más, otras conocidas por variables ocultas, probabilidades extendidas, modelos
transaccionales, modelos lineales...
Y la de la meta-técnica que se expondría así:
La mecánica cuántica pertenece al dominio de una alteridad no óptica lumínica sólo
accesible por instrumentos y artefactos meta-técnicos inventados por el ser humano pero
que se han desprendido de la raigambre óptico-lumínica de carácter antropomórfico,
antropocéntrico y geocéntrico de la naturaleza humana, propios de una técnica anterior, que
podríamos llamar clásica pues se fundamenta en una físico-matemática clásica, previa al
desarrollo tecno-científico del siglo XIX en el caso de la matemática y de la física en el XX.
Estos artefactos operan bajos principios meta-técnicos de la trans-racionalidad que no
obedecen a la lógica clásica, sino que sólo pueden ser interpretados mediante una nueva
lógica no sostenida en tales principios; una lógica no clásica en que estos se han trans-
mutados, pero que pueden traducir a nuestro mundo clásico mediante un formalismo, una
sintaxis, denominada nootecnia. Esto es que entre la lógica no clásica y la clásica debe
existir una correspondencia o proyección, para que su interpretación nos permita acceder
con nuestro entendimiento a la alteridad trans-racional: es decir, sea el puente entre la
trans-racionalidad cuántica y la racionalidad clásica indispensable para continuar con el
avance del conocimiento humano.
En síntesis nuestra tesis es que: en el dominio de la mecánica cuántica, la lógica
cuántica se perfila como nootecnia traductora entre la trans-racionalidad meta-técnica y la
racionalidad técnica.
Esperamos que el futuro desarrollo de tal formalismo confirmará la tesis propuesta;
ya avizorada por el doctor Ernesto Mayz Vallenilla en Fundamentos de la meta-técnica.
Referencias
[1] Mayz Vallenilla, Ernesto. Fundamentos de la meta-técnica. Monte Ávila
Editores. 1990.
[2] Svozil, Karl. Quantum Logic. Springer Verlag. 1998.
[3] Mayz Vallenilla, Ernesto. Fundamentos de la meta-técnica. Monte Ávila
Editores. 1990. Página 11.
[4] Castillo, Alberto; Douglas Jiménez; Alfredo Vallota. Técnica y meta-técnica de
la computación. UCLA-IDEA. Capítulo II de Alfredo Vallota.
[5] Deustsch, David. The Fabric of Reality. Penguin Books. 1997. Página 50.
[6] Ibidem. Página 134.
[7] Whitehead, Alfred N. Science and the modern world. A Mentor Book. 1925.
Capítulo I.
[8] Chaitin, Gregory J. Conversations with a mathematician, Math, Art, science
and the limits of reasons. Springer Verlag. 2002. Página 125.
[9] Castillo, Alberto; Douglas Jiménez; Alfredo Vallota. Técnica y meta-técnica de
la computación. UCLA-IDEA. Capítulo II de Alfredo Vallota. Capítulo IV.
[10] Mayz Vallenilla, Ernesto. Fundamentos de la meta-técnica. Monte Ávila
Editores. 1990. Páginas 41-43.
[11] Mayz Vallenilla, Ernesto. Fundamentos de la meta-técnica. Monte Ávila
Editores. 1990. Página 49.
[12] Ibidem.
[13] Putnam, H. “Is logic empirical?” in R. Cohen and M. P. Wartofski (eds.),
Boston Studies in the Philosophy of Science 5 (Dordrecht, Holland: D. Reidel, 1968).
Reprinted as “The logic of quantum mechanics” in H. Putnam, Mathematics, Matter and
Method, Cambridge University Press (1976).
[14] Svozil, Karl. Quantum Logic. Springer Verlag. 1998. Páginas 3-6.
[15] Quantunm Logic and Probability Theory. Stanford Encyclopedia of Philosophy.
http://plato.stanford.edu/entries/qt-quantlog/#2.
[16] Dickson, Michael. “Quantum Logic is alive”. History and Philosophy of Science. Indiana
University. http://www.mdickson.com/pubs/Quantum_Logic.pdf.