KURIOSOS
"La ignorancia afirma o niega rotundamente; la Ciencia duda."

¿Qué es la Mecánica Cuántica?

 .
Por: Oswel Albarran
1. Introducción
2. Teorías de la mecánica cuántica
3. Historia de la mecánica cuántica
4. Principales autores de la mecánica cuántica
5. Aplicaciones de la mecánica cuántica
6. Conclusión. .
Introducción .
Cuando se habla de personas influyentes, uno siempre piensa en los gobernantes o en los políticos. Sin embargo el impacto que ha tenido el descubrimiento de la Mecánica Cuántica en nuestro quehacer diario es tan formidable que es dable pensar que los científicos que contribuyeron a su desarrollo, son las personas que más influyen actualmente en nuestras vidas. Nombres desconocidos como Bohr, Heisenberg, Schrödinger, Pauli, Bardeen, Oppenheimer, Gabor, Schockley, Brattain, Roentgen, Dirac, etc. y el único muy conocido Einstein, han cambiado el mundo completamente.
A principios del siglo XX se produjo en el mundo una verdadera revolución científica en el campo de la física, la que respondió a la inquietud del hombre por conocer la estructura de la materia, es decir saber cuales son sus componentes primarias. Ya los griegos habían pensado que estaba formada de pequeñas esferas que ellos denominaron átomos. Pero hasta entonces se trataba sólo de una conjetura. El descubrimiento de los rayos X en 1900 or Roentgen (primer Premio Nobel en Física), permitió tener las primeras evidencias de su existencia.
En las décadas iniciales del siglo pasado se realizaron muchos experimentos tendientes a dilucidar numerosas interrogantes respecto a la naturaleza de los átomos y sus constituyentes. Estos experimentos generaron una gran cantidad de datos. Sin embargo la recolección de resultados experimentales no basta en el trabajo científico. Para hacerlos valederos es necesario tener una visión global y coherente del fenómeno en estudio. Es lo que en la ciencia se llama una teoría. La Mecánica Cuántica es la teoría que por primera vez permitió entender el mundo microscópico de la materia, es decir él de los átomos. Fue el resultado del trabajo intelectual de físicos como Bohr, Einstein, Heisenberg, Schrödinger, Dirac y otros.
Durante esta época no solo hubo una gran revolución en el campo de la ciencia, pero también el mundo estaba pasando por grandes cambios históricos como la revolución rusa, la primera y segunda guerras mundiales. Las consecuencias de la mecánica cuántica podrían haber completamente cambiado el mundo tal como lo conocemos ahora. Una de las consecuencias casi inmediatas de la mecánica cuántica es que ciertos átomos como el Uranio-235 se pueden fisionar (“quebrar”) si un neutrón (una partícula subatómica) choca con el. Cuando esto ocurre, se liberan un gran cantidad de energía y dos neutrones. En turno cada uno de estos neutrones choca con otro átomo de Uranio-235, libera energía y dos neutrones más. Esto es lo que se llama una “reacción en cadena” y da origen a una terrible arma: la bomba atómica. .
CAPÍTULO I
Teorías de la Mecánica Cuántica. .
La mecánica cuántica conocida también como mecánica ondulatoria en alguna de sus interpretaciones es una de las ramas principales de la física que explica el comportamiento de la materia y de la energía. Su campo de aplicación pretende ser universal (salvando las dificultades), pero es en el mundo de lo pequeño donde sus predicciones divergen radicalmente de la llamada física clásica.
De forma específica, se considera también mecánica cuántica, a la parte de ella misma que no incorpora la relatividad en su formalismo, tan sólo como añadido mediante teoría de perturbaciones. La parte de la mecánica cuántica que sí incorpora elementos relativistas de manera formal y con diversos problemas, es la mecánica cuántica relativista o ya, de forma más exacta y potente, la teoría cuántica de campos que incluye a su vez a la electrodinámica cuántica, cromodinámica cuántica y teoría electrodébil dentro del modelo estándar y más generalmente, la teoría cuántica de campos en espacio-tiempo curvo. La única inter cción que no se ha podido cuántificar ha sido la interacción gravitatoria.
La mecánica cuántica es la base de los estudios del átomo, los núcleos y las partículas elementales siendo ya necesario el tratamiento relativista pero también en teoría de la información, criptografía y química.
Conviene anotar que La física es una ciencia natural que estudia las propiedades del espacio, el tiempo, la materia y la energía, así como sus interacciones. La misma demuestra que la Materia es todo aquello que ocupa un lugar en el espacio y En física, la energía es aquella con capacidad para realizar un trabajo, tambien se refiere a un recurso natural y la tecnología asociada para explotarla y hacer un uso industrial o económico del mismo.
La mecánica cuántica tiene como conceptor La espuma cuántica, también llamada como espuma espaciotemporal, concebido por John Wheeler en 1955, se utiliza el término como una descripción cualitativa de las turbulencias del espacio-tiempo subatómico, que tienen lugar a distancias extremadamente pequeñas, del orden de la longitud de Planck. En esta escala de tiempo y espacio, el principio de incertidumbre permite que las partículas y la energía existan brevemente, para aniquilarse posteriormente, sin violar las leyes de conservación de masa y energía. Sin embargo esta no esta completa con la teoría de gravedad cuántica ya que está procura unificar la teoría cuántica de campos, que describe tres de las fuerzas fundamentales de la naturaleza, con la relatividad general, la teoría de la cuarta fuerza fundamental: la gravedad. La meta es lograr establecer una base matemática unificada que describa el comportamiento de todas las fuerzas de las naturalezas, conocida como la Teoría del campo unificado.
No obstante explica que una onda es una propagación de una perturbación de alguna propiedad de un medio, por ejemplo, densidad, presión, campo eléctrico o campo magnético, que se propaga a través del espacio transportando energía. El medio perturbado puede ser de naturaleza diversa como aire, agua, un trozo de metal, el espacio o el vacío.
Obviamente como está la física cuántica también interfiere La química cuántica que simplemente es la aplicación de la mecánica cuántica a problemas de química. Una aplicación de la química cuántica es el estudio del comportamiento de átomos y moléculas, en cuanto a sus propiedades ópticas, eléctricas, magnéticas y mecánicas, y también su reactividad química, sus propiedades redox, etc., pero también se estudian materiales, tanto sólidos extendidos como superficies.
Pero a pesar de todos estos factores uno de los mas importantes serian la Teoría de la Relatividad la cual se engloban generalmente dos cuerpos de investigación en ciencias físicas, usualmente conectadas con las investigaciones del físico Albert Einstein: su Teoría de la Relatividad Especial y su Teoría de la Relatividad General.
La primera, publicada en 1905, trata de la física del movimiento de los cuerpos en ausencia de fuerzas gravitatorias. La segunda, de 1915, es una teoría de la gravedad que reemplaza a la gravedad newtoniana pero se aproxima a ella en campos gravitatorios débiles. La teoría especial se reduce a la general en ausencia de campos gravitatorios. Esta teoría esta presente en la mecánica cuántica como uno de sus riegos y ventajas mas delicados e importantes.
Para describir la teoría de forma general es necesario un tratamiento matemático riguroso, pero aceptando una de las tres interpretaciones de la mecánica cuántica (a partir de ahora la Interpretación de Copenhague) el marco se relaja. La Mecánica cuántica describe el estado instantáneo de un sistema (estado cuántico) con una función de onda que codifica la distribución de probabilidad de todas las propiedades medibles, u observables. Algunos observables posibles sobre un sistema dado son la energía, posición, momento y momento angular. La mecánica cuántica no asigna valores definidos a los observables, sino que hace predicciones sobre sus distribuciones de probabilidad. Las propiedades ondulatorias de la materia son explicadas por la interferencia de las funciones de onda.
Estas funciones de onda pueden variar con el transcurso del tiempo. Esta evolución es determinista si sobre el sistema no se realiza ninguna medida aunque esta evolución es estocástica y se produce mediante colapso de la función de onda cuando se realiza una medida sobre el sistema (Postulado IV de la MC). Por ejemplo, una partícula moviéndose sin interferencia en el espacio vacío puede ser descrita mediante una función de onda que es un paquete de ondas centrado alrededor de alguna posición media. Según pasa el tiempo, el centro del paquete puede trasladarse, cambiar, de modo que la partícula parece estar localizada más precisamente en otro lugar. La evolución temporal determinista de las funciones de onda es descrita por la Ecuación de Schrödinger.
Algunas funciones de onda describen estados físicos con distribuciones de probabilidad que son constantes en el tiempo, estos estados se llaman estacionarios, son estados propios del operador hamiltoniano y tienen energía bien definida. Muchos sistemas que eran tratados dinámicamente en mecánica clásica son descritos mediante tales funciones de onda estáticas. Por ejemplo, un electrón en un átomo sin excitar se dibuja clásicamente como una partícula que rodea el núcleo, mientras que en mecánica cuántica es descrito por una nube de probabilidad estática que rodea al núcleo.
Cuando se realiza una medición en un observable del sistema, la función de ondas se convierte en una del conjunto de las funciones llamadas funciones propias o estados propios del observable en cuestión. Este proceso es conocido como colapso de la función de onda. Las probabilidades relativas de ese colapso sobre alguno de los estados propios posibles es descrita por la función de onda instantánea justo antes de la reducción. Considerando el ejemplo anterior sobre la partícula en el vacío, si se mide la posición de la misma, se obtendrá un valor impredecible x. En general, es imposible predecir con precisión qué valor de x se obtendrá, aunque es probable que se obtenga uno cercano al centro del paquete de ondas, donde la amplitud de la función de onda es grande. Después de que se ha hecho la medida, la función de onda de la partícula colapsa y se reduce a una que esté muy concentrada en torno a la posición observada x.
La ecuación de Schrödinger es en parte determinista en el sentido de que, dada una función de onda a un tiempo inicial dado, la ecuación suministra una predicción concreta de qué función tendremos en cualquier tiempo posterior. Durante una medida, el eigen-estado al cual colapsa la función es probabilista y en este aspecto es no determinista. Así que la naturaleza probabilista de la mecánica cuántica nace del acto de la medida.
Asi mismo La ley de gravitación universal, presentada por Isaac Newton en su libro publicado en 1687, "Philosophiae Naturalis Principia Mathematica" establece, la forma y explica el fenómeno natural de la atracción que tiene lugar entre dos objetos con masa.
Todo objeto en el universo que posea masa ejerce una atracción gravitatoria sobre cualquier otro objeto con masa, independientemente de la distancia que los separe. Según explica esta ley, mientras más masa posean los objetos, mayor será la fuerza de atracción, y paralelamente, mientras más cerca se encuentren entre sí, será mayor esa fuerza.
Las ecuaciones de Maxwell son un conjunto de cuatro ecuaciones que describen por completo los fenómenos electromagnéticos. La gran contribución de James Clerk Maxwell fue reunir en estas ecuaciones largos años de resultados experimentales, debidos a Coulomb, Gauss, Ampere, Faraday y otros, introduciendo los conceptos de campo y corriente de desplazamiento, y unificando los campos eléctricos y magnéticos en un solo concepto: el campo electromagnético. después de los últimos años, ha sido conformada principalmente de la química cuantica, por ejemplo, en la aplicación de mecánica cuantica a problemas de Química. La Química teórica se puede dividir ampliamente en ramas como estructura electrónica, dinámica, y mecánica estadística.
En el proceso de resolver los problemas de predecir la relatividad química, todos los procesos anteriores pueden ser usados en diferente profundidad. Otras áreas "variadas" en la química teórica incluyen la caracterización matemática de la química "bruta" in varios estadios “por ejemplo en el estudio de la cinética química y el estudio de la aplicación de los más recientes desarrollos matemáticos a las áreas básicas de estudio “como por ejemplo, la posible aplicación de los principios de topología al estudio de la estructura electrónica”. La última área desarrollada en la química teórica es normalmente llamada química matematica. .
Por otra parte se puede decir: , 
La mecánica cuántica, -también física cuántica-, es la ciencia que tiene por objeto el estudio y comportamiento de la materia a escala reducida.
El concepto reducido se refiere aquí a tamaños a partir de los cuales empiezan a notarse efectos como el principio de indeterminación de Heisenberg que establece la imposibilidad de conocer con exactitud, arbitraria y simultáneamente, la posición y el momento de una partícula. Así, los principios fundamentales de la mecánica cuántica establecen con mayor exactitud el comportamiento y la dinámica de sistemas irreversibles. Los efectos sobre la materia son notables en materiales mesoscópicos, aproximadamente 1.000 átomos de composición.
Algunos fundamentos importantes de la teoría son que la energía no se intercambia de forma continua. En todo intercambio energético hay una cantidad mínima involucrada, llamada cuanto.
Si aceptamos el hecho de que es imposible fijar a la vez la posición y el momento de una partícula, renunciamos de alguna manera al concepto de trayectoria, vital en mecánica clásica. En vez de eso, el movimiento de una partícula queda regido por una función matemática que asigna, a cada punto del espacio y a cada instante, la probabilidad de que la partícula descrita se halle en una posición determinada en un instante determinado (al menos, en la interpretación de la Mecánica cuántica más usual, la probabilística o interpretación de Copenhague). A partir de esa función, o función de ondas, se extraen teóricamente todas las magnitudes del movimiento necesarias.
Aunque la estructura formal de la teoría está bien desarrollada, y sus resultados son coherentes con los experimentos, no sucede lo mismo con su interpretación, que sigue siendo objeto de controversias.
La teoría cuántica fue desarrollada en su forma básica a lo largo de la primera mitad del siglo XX. El hecho de que la energía se intercambie de forma discreta se puso de relieve por hechos experimentales como los siguientes, inexplicables con las herramientas teóricas "anteriores" de la mecánica clásica o la electrodinámica:
Espectro de la radiación del cuerpo negro, resuelto por Max Planck con la cuantización de la energía. La energía total del cuerpo negro resultó que tomaba valores discretos más que continuos. Este fenómeno se llamó cuantización, y los intervalos posibles más pequeños entre los valores discretos son llamados quanta (singular: quantum, de la palabra latina para cantidad, de ahí el nombre de mecánica cuántica). El tamaño de los cuantos varía de un sistema a otro.
Bajo ciertas condiciones experimentales, los objetos microscópicos como los átomos o los electrones exhiben un comportamiento ondulatorio, como en la interferencia. Bajo otras condiciones, las mismas especies de objetos exhiben un comportamiento corpuscular, de partícula, ("partícula" quiere decir un objeto que puede ser localizado en una región especial del Espacio), como en la dispersión de partículas. Este fenómeno se conoce como dualidad onda-partícula.
Las propiedades físicas de objetos con historias relacionadas pueden ser correlacionadas en una amplitud prohibida por cualquier teoría clásica, en una amplitud tal que sólo pueden ser descritos con precisión si nos referimos a ambos a la vez. Este fenómeno es llamado entrelazamiento cuántico y la desigualdad de Bell describe su diferencia con la correlación ordinaria. Las medidas de las violaciones de la desigualdad de Bell fueron de las mayores comprobaciones de la mecánica cuántica.
Explicación del efecto fotoeléctrico, dada por Albert Einstein, en que volvió a aparecer esa "misteriosa" necesidad de cuantizar la energía. .
Efecto Compton. .
El desarrollo formal de la teoría fue obra de los esfuerzos conjuntos de muchos y muy buenos físicos y matemáticos de la época como Schrödinger, Heisenberg, Einstein, Dirac, Bohr y Von Neumann entre otros (la lista es larga). Algunos de los aspectos fundamentales de la teoría están siendo aún estudiados activamente. La mecánica cuántica ha sido también adoptada como la teoría subyacente a muchos campos de la física y la química, incluyendo en materia condensada, termodinámica, química cuántica y física de partículas.
Además de esto La mecánica cuántica describe el estado instantáneo de un sistema (estado cuántico) con una función de ondas que codifica la distribución de probabilidad de todas las propiedades medibles, u observables. Algunos observables posibles sobre un sistema dado son la energía, posición, momento y momento angular. La mecánica cuántica no asigna valores definidos a los observables, sino que hace predicciones sobre sus distribuciones de probabilidad. Las propiedades ondulatorias de la materia son explicadas por la interferencia de las funciones de onda.
Estas funciones de onda pueden transformarse con el transcurso del tiempo. Por ejemplo, una partícula moviéndose en el espacio vacío puede ser descrita mediante una función de onda que es un paquete de ondas centrado alrededor de alguna posición media. Según pasa el tiempo, el centro del paquete puede trasladarse, cambiar, de modo que la partícula parece estar localizada más precisamente en otro lugar. La evolución temporal de las funciones de onda es descrita por la Ecuación de Schrödinger.
Algunas funciones de onda describen distribuciones de probabilidad que son constantes en el tiempo. Muchos sistemas que eran tratados dinámicamente en mecánica clásica son descritos mediante tales funciones de onda estáticas. Por ejemplo, un electrón en un átomo sin excitar se dibuja clásicamente como una partícula que rodea el núcleo, mientras que en mecánica cuántica es descrito por una nube de probabilidad estática, esférico simétrica, que rodea al núcleo.
Cuando se realiza una medición en un observable del sistema, la función de ondas se convierte en una del conjunto de las funciones llamadas funciones propias, estados propios, eigen-estados...etc del observable en cuestión. Este proceso es conocido como colapso de la función de onda. Las probabilidades relativas de ese colapso sobre alguno de los estados propios posibles es descrita por la función de onda instantánea justo antes de la reducción. Considerando el ejemplo anterior sobre la partícula en el vacío, si se mide la posición de la misma, se obtendrá un valor aleatorio x. En general, es imposible predecir con precisión qué valor de x se obtendrá, aunque es probable que se obtenga uno cercano al centro del paquete de ondas, donde la amplitud de la función de onda es grande. Después de que se ha hecho la medida, la función de onda de la partícula colapsa y se reduce a una que esté muy concentrada en torno a la posición observada x.
La ecuación de Schrödinger es determinista en el sentido de que, dada una función de onda a un tiempo inicial dado, la ecuación suministra una predicción concreta de qué función tendremos en cualquier tiempo posterior. Durante una medida, el eigen-estado al cual colapsa la función es probabilista, no determinista. Así que la naturaleza probabilista de la mecánica cuántica nace del acto de la medida. .
Formulación matemática: . 
En la formulación matemática rigurosa, desarrollada por Dirac y von Neumann, los estados posibles de un sistema cuántico están representados por vectores unitarios llamados (estados) que pertenecen a un Espacio de Hilbert complejo separable (llamado el espacio de estados). La naturaleza exacta de este espacio depende del sistema; por ejemplo, el espacio de estados para los estados de posición y momento es el espacio de funciones de cuadrado integrable. La evolución temporal de un estado cuántico queda descrito por la Ecuación de Schrödinger, en la que el Hamiltoniano, el operador correspondiente a la energía total del sistema, tiene un papel central.
Cada observable queda representado por un operador lineal Hermítico densamente definido actuando sobre el espacio de estados. Cada estado propio de un observable corresponde a un eigenvector del operador, y el valor propio o eigenvalor asociado corresponde al valor del observable en aquel estado propio. Es el espectro del operador es discreto, el observable sólo puede dar un valor entre los eigenvalores discretos. Durante una medida, la probabilidad de que un sistema colapse a uno de los eigenestados viene dada por el cuadrado del valor absoluto del producto interior entre el estado propio o auto-estado (que podemos conocer teóricamente antes de medir) y el vector estado del sistema antes de la medida. Podemos así encontrar la distribución de probabilidad de un observable en un estado dado computando la descomposición espectral del operador correspondiente. El principio de incertidumbre de Heisenberg se representa por la aseveración de que los operadores correspondientes a ciertos observables no conmutan. .
La teoría cuántica de campos
Sin embargo, quedaba la dualidad campo-partícula, equivalente a la dualidad mecánica-electromagnetismo clásicos que tanto preocupó a Einstein hasta su muerte. Dicha dualidad se levantó a partir de la segunda mitad de la década del 40. Se postuló que las partículas también son campos, naciendo así la teoría cuántica de campos. El primer éxito fue la electrodinámica cuántica, que pudo describir un pequeñísimo efecto medido por esos años con una precisión muy grande. Sin embargo, el problema es difícil y hay que proceder por aproximaciones sucesivas basadas en el hecho de que la interacción electromagnética es suficientemente débil, pero todavía quedan problemas matemáticos graves. Mientras tanto se habían descubierto otras dos interacciones además de las conocidas gravitatoria y electromagnética: la fuerte entre los nucleones componentes del núcleo atómico (protones y neutrones) y la débil asociada con la desintegración de núcleos con emisión de electrones o positrones. Estas también se tratan con la teoría cuántica de campos aunque todavía no con tanto éxito como la electromagnética debido a problemas matemáticos y al poco conocimiento que aún se tiene de ellas (no hay una ley como la de Newton para la gravitación o la de Coulomb para la electricidad). Mientras tanto se fueron descubriendo numerosas partículas elementales, algunas de masas intermedia ente la del electrón y la del protón (que fueron llamadas genéricamente mesones) y otras de masas mayores que la del protón. También se fueron descubriendo las correspondientes antipartículas. Una antipartícula tiene la propiedad de que al encontrarse con su partícula se aniquilan ambas con producción de energía radiante. Así, el positrón predicho por Dirac es el antielectrón. Estas partículas nuevas se crean en colisiones de muy alta energía; de hecho, para crear una partícula se requiere una energía igual al producto de su masa por el cuadrado de la velocidad de la luz de acuerdo con la equivalencia masa-energía descubierta por Einstein. Esta es la razón de que se hayan desarrollado los grandes aceleradores. Por ahora se está buscando un tratamiento unificado de todas esas partículas. Para ello se han introducido nuevas propiedades fundamentales además de la masa, la carga y el espín, las cuales han recibido curiosos nombres como "color" o "encanto". La única partícula que aún se resiste a ser descubierta es el gravitón, es decir, el cuanto del campo gravitatorio. Cuando se lo descubra quedará abierto el camino para la Gran Teoría Unificada, el gran sueño que Einstein no pudo cumplir porque se apartó del camino correcto: el cuántico .
Simetrías .
Otro campo de trabajo moderno en la mecánica cuántica es el estudio de las simetrías. La simetría ha preocupado al hombre desde tiempos lejanos. Prueba de ello son los motivos repetitivos en antiguos templos chinos o aztecas, en las vasijas de muchos indios de América y aún en los dibujos del pintor contemporáneo M.C. Escher y de los papeles para cubrir paredes. Los cristales están caracterizados por sus simetrías: se transforman en sí mismos (permanecen invariables) si se realizan ciertas traslaciones a rotaciones. Las moléculas tienen también simetrías, hecho que se viene* estudiando desde que Louis Pasteur (que era cristalógrafo) descubrió que los ácidos tartárico y racémico diferían únicamente en la simetría. En la física se estudian simetrías más profundas que las simplemente espaciales que se han mencionado. Están relacionadas con la invariancia de las leyes fundamentales frente a ciertas operaciones. Así, el principio de relatividad de Galileo y el de Einstein, son principios de simetría. Hasta Einstein, primero se construían las teorías y luego se estudiaban las simetrías y las correspondientes leyes de conservación. Es realmente afortunado que el principio de conservación de la energía, tan caro a toda la ciencia, se verificara en las teorías sin haberlo impuesto explícitamente de antemano. Einstein inaugura una nueva forma de trabajo: partir de postulados de simetría. Este es el enfoque que se ha utilizado sistemáticamente en la teoría cuántica de campos. Es un enfoque profundo y además necesario por cuanto las analogías clásicas ya no sirven para construir los operadores que representan propiedades o variables dinámicas de las partículas. .
Las leyes de la causalidad y el principio de complementariedad. . 
Elprincipio de incertidumbre. En la Mecánica clásica, el estado instantáneo de un sistema mecánico queda determinadopor los valores de ciertas variables observables (por ejemplo, la posición y la cantidadde movimiento en el caso de una partícula moviéndose a lo largo de una recta). La medidade un observable A es una operación física bien definida, el valor de A, que proporcionaun numero real. La evolución temporal del sistema está regida por la función de Hamilton del mismo, que es una función conocida de los observables y por tanto se puede, al menos teóricamente, predecir con exactitud esa evolución temporal. La definición clásica del estado de un sistema mecánico, presupone tácitamente que: .
1.- Las variables observables tienen valores precisos, bien definidos en cada instante.
2.- Siempre es posible, al menos en principio, medir dichos valores sin perturbar apreciablemente el sistema. Obviamente, las limitaciones de los instrumentos de medición y de los propios experimentadores hacen que (a) no se cumpla en la practica, pero se admite que los valores de la variables observables se pueden conocer con tanta precisión como se quiera. Por otro lado, en cuanto a (b), la interpretación clásica admite que la interacción entre el fenómeno observado y los aparatos de medida se puede distinguir claramente mediante un análisis conceptual adecuado, de modo que se pueda deducir la perturbación realizada al medir, lo que proporciona una (teóricamente) completa y exacta descripción del fenómeno observado. Como consecuencia de este análisis, el principio de causalidad debe entenderse en el sentido de que se puede predecir el estado futuro de un sistema físico con una probabilidad p tan próxima a 1 como se quiera, mediante un análisis suficientemente elaborado del fenómeno observado. Pues bien, la Mecánica cuántica, en su formulación más ampliamente aceptada, niega la validez general de las hipótesis (1) y (2) y, en consecuencia, el principio de causalidad.
.
La Mecánica Ondulatoria: .
Al mismo tiempo que la mecanica de matrices, que trata de establecer un modelomatemático de la mecánica cuántica a partir de la mecánica clásica de partículas, surgeotro formalismo matemático, cuyo punto de partida es considerar el átomo como un sistemade vibraciones, en lugar de un sistema mecánico. Como eminente precursor de esta postura, podemos citar a Sir William Rowan Hamilton, quien ya en 1833 propuso la determinación de una única ley de la naturaleza (omodelo matemático) que gobernara tanto la propagación de la luz como el movimiento delas partículas. El descubrimiento posterior de los rayos X, los fenómenos de difracción deelectrones, el efecto fotoeléctrico, etc. contribuyeron a realzar cada vez mas el problemade la dualidad onda-partícula en los fenómenos subatómicos.
El iniciador de la teoría de la mecánica ondulatoria, fue Louis de Broglie, quien siemprehabía estado preocupado por estos fenómenos. Desde sus primeros trabajos sobre la teoríade los cuantos de luz, había sugerido la idea de asociar a los cuantos (partículas) uncierto elemento de periodicidad. Es en su trabajo Ondes et quanta, publicado en lasComptes Rendus en 1923, donde presenta su idea de onda de fase asociada a una partícula, completando así la dualidad onda-corpúsculo. Al describir el movimiento de una partículasometida a un fenómeno paródico interno, con respecto a un observador en reposo, deBroglie introdujo una onda ficticia asociada al movimiento del móvil, y probo que si alcomienzo del movimiento el fenómeno interno de la partícula está en fase con la onda, esta armonía de fase debe persistir siempre para que el movimiento sea estable.
De este hechodedujo que, por ejemplo, en el caso de un electrón moviéndose en una ´orbita alrededor del núcleo, debe haber un número exacto de longitudes de onda que cubran la ´orbita, de loque resulta la condición de cubanización de Sommerfeld. Dedujo también que la partículasigue en cada punto de su trayectoria el rayo de su onda de fase. Ası, si la partículatiene que atravesar una abertura de dimensiones comparables a la longitud de onda dela onda de fase, su trayectoria deberá curvarse de acuerdo con la difracción de la ondade fase. De esta manera, de Broglie reconcilio los fenómenos de difracción e interferenciacon la hipótesis de la naturaleza corpuscular de la luz. Siguiendo este razonamiento, “unchorro de electrones que pase a través de un agujero suficientemente pequeño, deberáexhibir también fenómenos de difracción.”, lo que fue confirmado experimentalmente pocodespués.
La hipótesis de de Broglie que cada partícula tiene una onda asociada fue el punto departida para la elaboración de una nueva teoría de la mecánica. Si hay ondas, se decía, debehaber una ecuación de ondas. Lo que faltaba era descubrir esa ecuacion. Y ese fue el granlogro de Erwin Schrodinger, a la sazon profesor en la Universidad de Zurich, interesado enlo que llamaba la teoría ondulatoria de Einstein-de Broglie, segun la cual un corpúsculomóvil no es mas que la espuma de una radiación ondulatoria... Profundo conocedor de los métodos de auto valores en ecuaciones con condiciones de contorno, por sus trabajos sobrela física de medios continuos, aplica su experiencia al problema y llega a la conclusión deque los niveles de energía posibles de una partícula tienen la apariencia de los auto valoresde un cierto operador. En su monumental trabajo Quantisierung als Eigenwertproblem, publicado en cuatro comunicaciones en Annalen der Physik, a lo largo de 1926, Schrodingerintrodujo su famosa ecuación de ondas, desarrollando un formalismo matemático clásico (en términos de ecuaciones diferenciales) que permita interpretar los fenómenos cuánticos sin apelar a extraños fenómenos discontinuos o saltos cuánticos.
.
La mecánica cuántica y el principio de incertidumbre: .
El descubrimiento de de Broglie acerca de la naturaleza ondulatoria de las partículas lleva asociado un fenómeno nuevo, que en el mundo clásico del sentido común, resulta sorprendente y en principio antiintuitivo.
Fue Werner Heisenberg (1901-1976) quien llegó a él, pero de una forma totalmente distinta. Hasta ese momento, el desarrollo de la física cuántica mezclaba la física clásica, con el añadido de postulados cuánticos, fruto de resultados experimentales. Sin embargo, un entendimiento total de la naturaleza requiere una teoría más amplia, de la que se deduzcan estos postulados; hay que desarrollar una mecánica cuántica.
La mecánica clásica parte de las tres leyes de Newton. A partir de ellas, es posible describir cualquier situación, y llegar a una ecuación de movimiento, es decir, una ecuación que al resolverla se obtiene la evolución en el tiempo del sistema estudiado. Es un sistema que vale tanto para describir la oscilación de un muelle, como la órbita de un planeta alrededor del Sol.
La mecánica cuántica trata de hacer exactamente lo mismo: partir de un punto común que sea capaz de describir la evolución de cualquier sistema a nivel cuántico. En vez de tratar cada sistema de forma particular (efecto fotoeléctrico, efecto compton, difracción de electrones, el modelo de Bohr para las órbitas), se trata de obtener el comportamiento de cualquier sistema general partiendo de unas ciertas bases.
En el desarrollo de esta mecánica, Heisenberg llegó a un resultado matemático bastante sorprendente. El desarrollo incluía unas operaciones matemáticas que representan la observación experimental del sistema. El resultado fue que si se hacían dos observaciones, por ejemplo de la posición y el momento cinético, el orden en que se hace influye en el resultado final. Matemáticamente, si se hace una observación A, y otra B, esto quería decir que A•B es distinto de B•A. De hecho, su diferencia (A•B - B•A) es un número complejo. Este resultado ocurre sólo para determinadas cantidades relacionadas, como la posición y el momento, o la energía y el tiempo.
.
CAPÍTULO II
Historia de la mecánica cuántica. .
La mecánica cuántica es la última de las grandes ramas de la física en aparecer. Lo extraordinario es que se desarrolla en unos 30 años adquiriendo prácticamente su forma actual en la segunda mitad de la década del 20. Esto contrasta con la mecánica que puede decirse se inició con Arquímedes doscientos años antes de nuestra era, se desarrolló lentamente durante la Edad Media, nace realmente en el siglo XVII con los trabajos de Galileo Galilei e Isaac Newton, y alcanza su esplendor en los primeros años del siglo XIX, dominando la filosofía como sólo Aristóteles lo había logrado en los casi veinte siglos que precedieron a Galileo. Tiene la importancia de que en su seno nace el método científico. La segunda rama a desarrollarse fue el electromagnetismo en el siglo XIX, aunque ya en el siglo XIII Petrus Peregrinus, un precursor de la investigación experimental, se había ocupado de los imanes, dando origen a los experimentos y teoría desarrollados por William Gilbert en 1600. En la primera mitad del siglo XIX, Faraday unificó electricidad y magnetismo y James Clerk Maxwell logró en 1873 la formulación actual del electromagnetismo. Albert Einstein la completó en 1905 con las correspondientes leyes de movimiento en lo que se conoce como teoría especial de la relatividad, demostrando además que el electromagnetismo era una teoría esencialmente no mecánica. Culminaba así lo que se ha dado en llamar física clásica, es decir, no cuántica. Merece mencionarse un capítulo especial desarrollado en la segunda mitad del siglo XIX: la mecánica estadística; con ella se logró explicar, mediante el uso de métodos estadísticos en conjunción con las leyes de la mecánica, las leyes esencialmente descriptivas de la termodinámica y dar cuenta de numerosos hechos asociados con sistemas de muchos componentes. Ninguno de estos desarrollos es una simple "abstracción" de los datos, aunque Newton, influido de Francis Bacon, lo creyera así.
Fue precisamente en el seno de la mecánica estadística donde nacen las ideas cuánticas. En 1900, Max Planck, para poder explicar la distribución estadística de frecuencias de la radiación emitida por un cuerpo negro, enuncia la hipótesis de que la radiación electromagnética es absorbida y emitida por la materia en forma de cuantos de energía definida proporcional a su frecuencia; la constante de proporcionalidad se denomina constante de Planck y es de fundamental importancia en la mecánica cuántica. Es probable que la idea de Planck hubiera quedado muchos años como hipótesis ad hoc si Einstein no la hubiera retomado, proponiendo que la luz, en ciertas circunstancias, se debe tratar como un conjunto de partículas independientes de energía (los cuantos de luz o fotones) que se comportan como las partículas de un gas. Usó este punto de vista heurístico (como él mismo lo llamó) para desarrollar su teoría del efecto fotoeléctrico (emisión de cargas por efecto de la radiación, tan usada actualmente en dispositivos de control). Publicó esta teoría en 1905 y le valió el Premio Nobel en 1921. La aplicó también para dar una teoría del calor específico (la cantidad de calor necesaria para aumentar en una unidad la temperatura de la unidad de masa de un cuerpo). Con ella no sólo resolvió problemas que se habían presentado durante el siglo XIX sino que predijo nuevos hechos que se verificaron experimentalmente entre 1910 y 1911.
En 1913, Lord Ernest Rutherford descubre experimentalmente que la carga del átomo está concentrada en un núcleo cuyo tamaño es miles de veces menor que el del átomo. El mismo año Niels Bohr propone su modelo planetario cuántico del átomo: los electrones describen alrededor del núcleo órbitas determinadas, es decir cuantizadas, con la hipótesis ad hoc de que en las mismas no emiten radiación tal como se esperaría de la teoría electromagnética. La teoría tuvo gran éxito para explicar las frecuencias de radiación características de cada elemento, que hoy se usan para determinar con extraordinaria precisión la composición química de materiales. Pero no era una teoría fundamental y se le tuvieron que agregar hipótesis ad hoc para acomodar nuevos datos experimentales.
Mientras tanto, Einstein se había dedicado a su famosa teoría general de la relatividad y retoma sus estudios cuánticos a principio de la década del 20, proveyendo una demostración correcta de la ley de Planck. En 1924 apoyó decididamente un nuevo método estadístico propuesto por el joven físico hindú S.N. Bose y lo aplicó a un gas de partícula materiales, conocido hoy como gas de Bose-Einstein, con nuevas e interesantes propiedades que muchos años después se encontraron experimentalmente en el helio a bajísimas temperaturas (del orden de –270ºC). Por esa época conoce la tesis doctoral de Louis de Broglie en la cual se propone que cada partícula material tiene una longitud de onda asociada inversamente proporcional a su momentum (su masa por su velocidad, concepto introducido por Newton y fundamental en la mecánica). Einstein se sintió atrapado por esa idea porque transportaba al campo de la materia su idea de la dualidad onda-partícula y llegó a sugerir diversas posibilidades experimentales para demostrar la existencia de estas ondas materiales. De hecho, la confirmación vino exactamente de los mismos experimentos diseñados para demostrar la naturaleza ondulatoria de los rayos X. Y misteriosa y trágicamente, éste es el último apoyo que las ideas cuánticas recibieron de uno de los más grandes genios de la humanidad. El oponerse a la nueva mecánica cuántica le granjeó la total soledad científica hasta su muerte en 1955. Sin embargo sus ideas gobernaron, consciente o inconscientemente, desarrollos de la mecánica cuántica en las décadas de los 40 y 50, y perduran hasta el presente en las teorías de la gran unificación de las fuerzas fundamentales de la naturaleza que están actualmente en desarrollo, aunque, curiosamente, es la gravitación que tanto ocupó a Einstein la que se "resiste" a ser unificada.
Resumiendo la situación hasta 1925, Einstein había demostrado con su teoría especial de la relatividad que el electromagnetismo no podía tener una interpretación mecánica como se había creído, lo cual implicaba una dualidad en la naturaleza: por un lado lo mecánico y por otro lo electromagnético. El mismo apoyó la dualidad inversa: partículas que se comportan como ondas. Opinaba que la solución estaba en una teoría de campos que lo abarcaba todo. Esencialmente un campo es un ente que asigna a cada punto del espacio (más correctamente del espacio-tiempo) un número tal como la temperatura o la presión, o un número y una dirección (vector) como pueden serio la fuerza gravitacional o la electromagnética. Einstein trabajó infructuosamente en esta idea hasta su muerte, encarándola desde un punto de vista clásico.
Pero hay que volver a esta breve historia. En 1925 los físicos alemanes Werner Heisenberg y Max Born, junto con el matemático Pascual Jordan proponen la primera formulación de la mecánica cuántica usando métodos algebraicos. Poco después, en 1926, el físico austríaco Erwin Schrödinger propone una formulación en términos del más tradicional cálculo infinitesimal (iniciado por Newton) y él mismo demuestra pocos meses después la equivalencia matemática de las dos formulaciones. En 1928 el veinteañero británico Paul Adrian Maurice Dirac hace una formulación abstracta desde el punto de vista matemático teniendo en cuenta la teoría de la relatividad de Einstein. Esta formulación no sólo contiene como casos particulares los dos desarrollos anteriores, sino que incluye automáticamente una nueva propiedad de las partículas descubierta por esos años, el espín, y que se puede interpretar como un giro de la partícula sobre sí misma como la tierra, aunque este concepto no tiene significado en la mecánica cuántica; se trata de una propiedad estrictamente cuántica que, entre otras cosas, completa la descripción fundamental del magnetismo iniciada por Einstein con su teoría de la relatividad. Aún más, predice la existencia de un electrón positivo, el positrón, que se descubrió experimentalmente pocos años después. Así, con 25 años de tradición y menos de tres años de desarrollo nace una nueva ciencia la mecánica cuántica con su formulación definitiva. Fue un proceso demasiado rápido como para que pudiera ser asimilado, incluso por sus propios creadores, como se verá a continuación. .
Problemas en la nueva ciencia .
Los dos primeros problemas que se presentaron fueron: uno, el descubrimiento por Born de que la mecánica cuántica era esencialmente probabilística y el otro, las relaciones de incerteza de Heisenberg. Ambos están relacionados con la idea que se tenía entonces sobre la causalidad en los fenómenos naturales. Baste recordar que la característica más importante de la causalidad es que nada surge de la nada o desaparece en la nada o, equivalentemente, todo acontecimiento es producido por otros acontecimientos anteriores. Esto es muy razonable y cualquier científico estaría dispuesto a aceptarlo. Sin embargo, el éxito clamoroso de la mecánica clásica, y del electromagnetismo después, hicieron surgir la idea de que el concepto de causalidad se hace preciso en un dado contexto únicamente en términos del determinismo físico (Bernays, 1979). Este estaba conectado con la forma matemática de las leyes físicas entonces conocidas. De acuerdo con ellas los valores de las cantidades que caracterizan el estado del sistema están determinadas exactamente para todo tiempo si se las especifica para un dado tiempo inicial. Esto se extrapoló en lo que se podría llamar doctrina determinista, según la cual la evolución de todo el universo estaría determinado en la forma que prescriben las leyes de la mecánica clásica y el electromagnetismo. Incluso se llegó a decir que un ser especialmente dotado (que se llamó demonio de Maxwell) si conociera la posición y el momentum de todas las partículas del universo en un instante dado, podría predecir el comportamiento futuro de todo, incluyendo el ser humano. Pero la nueva teoría decía, esencialmente, que dada una causa, el efecto sólo se puede predecir con cierta probabilidad calculada con las ecuaciones fundamentales de la teoría. Sin embargo, el hecho no era nuevo. En la mecánica estadística, iniciada en la segunda mitad del siglo XIX y continuada por Einstein y Enrico Fermi para incluir las nuevas ideas cuánticas, también había este tipo de causalidad probable. Pero los físicos decían que esto se debía a la imposibilidad práctica de conocer la posición y el momentum de todas las partículas que componen un sistema porque son billones de billones; por eso había que contentarse con usar métodos estadísticos como lo hacen las compañías de seguros.
Es natural, entonces, que el hecho de que la teoría, por sus postulados, fuera esencialmente probabilística, escandalizara a las mentes deterministas de la época. Einstein llegó a decir "estoy convencido de que El no está jugando a los dados" (Einstein, 1926), Las discusiones continuaron por medio siglo. Algunas han servido para aclarar conceptos de la filosofía de la ciencia (p. ej. Yourgrau, 1979), otras han dado lugar a intentos de corregir la mecánica cuántica, como la introducción de "variables ocultas" que restituirían el determinismo clásico a la teoría.
Para discutir mejor las relaciones de Heisenberg y para otras consideraciones posteriores, es conveniente dar una idea de la estructura matemática de la mecánica cuántica. El estado de un microsistema (átomo, electrón, molécula, cte.) se representa mediante un vector en un espacio vectorial cuyas propiedades son una generalización de las del espacio ordinario que conocemos El número de dimensiones de dicho espacio (que puede ser infinito) depende del microsistema en crudo. Las variables dinámicas (posición, momentum, energía, etc.) se representan por operadores especiales que actúan en ese espacio. Un operador es esencialmente una operación, por ejemplo, "sumar 3" o "dividir por 3". El álgebra de operadores es casi igual al álgebra elemental con una importante diferencia: el producto puede no ser conmutativo de modo que operar en un cierto orden puede no ser lo mismo que operar en sentido inverso, como en los ejemplos citados. Cuando un operador actúa sobe un vector de estado se obtiene otro vector de estado en el mismo espacio. Si ocurre que ese otro estado es proporcional a aquél sobre el cual se operó, se dice que es un autoestado del operador y que la constante de proporcionalidad es el autovalor correspondiente del operador. El valor numérico de los autovalores de un operador es lo que eventualmente se comparará con los datos experimentales. El cálculo de los autovalores del operador energía para el átomo de hidrógeno fue el primer éxito resonante de la mecánica cuántica pues dieron cuenta de las frecuencias de radiación emitidas por dicho átomo que entonces estaban medidas con gran precisión. Se encontró que bastaba un número finito de operadores que conmutan entre sí para caracterizar un microsistema. Este conjunto es completo en el sentido de que un operador adicional no conmuta con los anteriores.
Se considerarán ahora las relaciones de Heisenberg. Existe un teorema matemático general que dice que el producto de las dispersiones estadísticas de dos operadores que no conmutan es mayor que cierto número que depende de los operadores en cuestión. Las dispersiones se calculan conforme a la definición elemental; la forma de calcularlas depende del campo de aplicación. Hay que insistir que se trata de un teorema matemático que nada tiene que ver con la mecánica cuántica. Heisenberg demostró este teorema para el caso de dos operadores importantes: el momentum y la posición, los cuales no conmutan. La importancia de estas variables dinámicas es que en mecánica clásica su conocimiento preciso permite determinar exactamente el estado de un sistema (basta conocerlos en un instante inicial). Es imaginable el asombro que provocó en los físicos de entonces el hecho de que el momentum y la posición no se pudieran determinar simultáneamente con toda la precisión que se quisiera. Para los físicos contemporáneos, quienes en su mayoría saben más mecánica cuántica que mecánica clásica, el hecho sólo significa que como los operadores momentum y posición no conmutan, no se pueden usar simultáneamente para describir un microsistema. Y esto es lo que dicen los postulados fundamentales de la mecánica cuántica, que sólo se aplica a electrones, núcleos y cosas parecidas y no a planetas, ladrillos y cosas parecidas. Lamentablemente las relaciones de Heisenberg recibieron el nombre de "relaciones de incerteza", el cual es de contenido netamente sicológico. Algunos las elevaron de categoría llamándolas "principio de indeterminación" y de ahí que ciertos comentadores (deterministas por supuesto) llegaron a la conclusión de que la mecánica cuántica contradice el principio de causalidad. Otros la llevaron a campos de la ciencia distintos de la física desprovistas de su contexto, dando lugar a opiniones como "Pero las ciencias duras del siglo XX ya no son tan duras: desde el principio de incertidumbre de Heisenberg las ex leyes físicas son unas constataciones estadísticas de repeticiones de frecuencia" (Imaz, 1988). De todas maneras, las discusiones sobre las relaciones de Heisenberg y la no conmutación de operadores en la física cuántica continuaron y sirvieron para aclarar la filosofía de la nueva ciencia. Baste mencionar que en 1977 se realizó en Munich un congreso en homenaje a Heisenberg que se denominó "Pensamiento y despensamiento en la obra de Heisenberg", y también un trabajo de James L. Park y Henry Margenau (Park, 1979) el cual tiene el defecto que usa una terminología tradicional que llevó a confusiones, de la cual se hablará a continuación.
El tercer problema que ha confrontado la mecánica cuántica es el uso de la interpretación de su formulismo matemático. La primera que apareció y que aún figura en la mayoría de los textos se conoce con el nombre de doctrina de Copenhagen y fue elaborada por los grandes que construyeron la teoría: Bohr, Heisenberg, Born, Dirac y el matemático John von Neumann, quien elaboró un formalismo alternativo al de Dirac por razones que se mencionan más adelante. El nombre proviene de la vinculación de todos ellos con el Instituto de Física de esa ciudad que el gobierno danés había ofrecido a Bohr con motivo de su Premio Nobel en 1922. Mario Bunge ha hecho una excelente crítica a dicha doctrina (v. p. ej. Bunge, 1967a, b) como preparación a su formulación de la mecánica cuántica conforme a los rasgos generales de la ciencia (Bunge, 1967b, pp. 235-306).
Con referencia a la breve descripción matemática dada más arriba, considérese el siguiente postulado: "Si el sistema se encuentra en un estado que es autoestado del operador que representa una de sus propiedades, entonces el valor numérico de esa propiedad es el autovalor correspondiente a ese autoestado". En la doctrina de Copenhagen el mismo postulado aparece en la forma: "Si el sistema se encuentra en un estado que es autoestado de uno de sus observables correspondiente al autovalor a, entonces cuando el observador mide dicho observable obtiene con certeza el valor a". Como se ve, en dicha doctrina se llama "observable" al operador que representa una propiedad o variable dinámica de un sistema. Se dice que es medible, implicando observable directamente lo cual es falso, y se habla de que un observador obtiene con certeza el valor teórico, que también es falso. En primer lugar, la certeza (de neto contenido sicológico) no es importante en ciencia. En segundo lugar, la observación está totalmente separada de la teoría. En tener lugar, todo resultado experimental está afectado de error y por lo tanto no puede ser igual a un resultado teórico. Finalmente, la aplicación de la mecánica cuántica a sistemas complejos requiere introducir modelos de los mismos cuya validez es limitada, llegando a resultados teóricos que pueden ser bien diferentes de los experimentales, pudiéndose hacer únicamente una confrontación global (conjunto de autovalores) y no de detalle (autovalor por autovalor) como pretende la doctrina de Copenhagen.
La razón de esta terminología de la interpretación de Copenhagen hay que buscarla en la filosofía positivista-subjetivista en boga en la década del 20 que dogmatizaba que la ciencia no se refiere a la realidad sino a la experiencia humana. Dicha interpretación sostiene entonces que no hay entes cuánticos autónomos sino que dependen del observador. Esto contradice la tradición de la ciencia moderna y es contradictorio en sí: "Si cada uno de los átomos de mi cuerpo existe sólo en la medida en que puedo observarlo, entonces yo - un sistema de átomos - no existo, puesto que tengo otras cosas que hacer que observar de continuo a mis constituyentes" (Bunge, 1967a). Esta introducción del observador en la teoría ha sido funesta. En primer lugar porque si bien fue hecho sólo para la mecánica cuántica, la trascendió a través de comentadores dando lugar a expresiones tales como "Por fin se nos ha demostrado que también en los fenómenos físicos la actitud del observador condiciona al objeto observado. Nada más y nada menos - salvadas las distancias - que lo sostenido por ese axioma que creíamos privativo de las ciencias sociales" (Imaz, 1988). Lo que el autor llama axioma es una simple recomendación en toda ciencia: como el observador puede perturbar al objeto observado hay que esforzarse para que ello no ocurra. En segundo lugar porque retrasó la enseñanza de la mecánica cuántica en cursos normales. En la Unión Soviética fue prohibida durante muchos años por subjetiva. En Francia se comenzó a enseñar a nivel básico en todo el país por disposición del gobierno en 1967 (Levy, 1967). De todas maneras llevó a la desesperación a mucho aprendiz de físico que después de aprender la física clásica objetiva tenía que aprender la cuántica subjetiva; y para peor con todo el andamiaje histórico-filosófico-sicológico que se utilizó para construirla. Hermann Bondi (1979) sostiene que clarificando los conceptos básicos se los podría enseñar a niños de nueve años. Quizás sea un poco exagerado pero lo cierto es que la clarificación de las ciencias ha permitido presentarlas cada vez a un nivel más elemental de la enseñanza.
Muchas otras cosas se escribieron, algunas de las cuales aún persisten en los textos. Por ejemplo, se diseñaron experimentos pensados semiclásicos para probar la inconsistencia de la mecánica cuántica o su validez. Bohr formuló en 1925 un principio de correspondencia de alto valor heurístico que establecía ciertas condiciones para las cuales los resultados cuánticos pasarían a los correspondientes clásicos. Posteriormente se lo generalizó incluyendo la inversa en la forma de que a toda cosa clásica correspondería una cuántica. Se llegó a hablar de "reglas canónicas de cuantización" de resultados clásicos (Dirac, 1962, p. 11; Dirac, 1964; Lurié, 1968, pp. 45, 87, 125). Es curioso que en la última referencia, para el caso del electrón libre, se gastan varías páginas para desarrollar las fórmulas a cuantizar y otras varias para verificar el fracaso de la regla de cuantización. En realidad, la única regla conocida para construir cualquier teoría (no sólo la mecánica cuántica) es: "No hay rejas para construir teorías". De todas maneras, las analogías clásicas han tenido un gran valor heurístico en el desarrollo de la mecánica cuántica. Es un hecho conocido que la analogía es una fuente de generación de hipótesis.
Puede parecer extraño que los grandes físicos escribieran tantas cosas inútiles o erróneas. Para explicado, en primer lugar hay que recordar que un físico es un hombre y como tal, según dijera José Ortega y Gasset, es él y su contexto. En la década del 20 el contexto era un positivismo subjetivista y un alto desarrollo de la física clásica. En segundo lugar, había que demostrar que se trataba de algo totalmente nuevo y la doctrina de Copenhagen lo consiguió. Lo malo es que los que siguieron adoptaron inconscientemente la actitud acientífica de tomarla como dogma. Pareciera que esto es una actitud de los que siguen a los genios, pues ya Galileo se quejaba del dogmatismo de los peripatéticos, los seguidores de Aristóteles.
 .
Influencia de la mecánica cuántica en la historia: . 
Durante esta época en la cual se descubre la mecánica cuántica, no solo hubo una gran revolución en el campo de la ciencia, pero también el mundo estaba pasando por grandes cambios históricos como la revolución rusa, la primera y segunda guerras mundiales. Las consecuencias de la mecánica cuántica podrían haber completamente cambiado el mundo tal como lo conocemos ahora. Una de las consecuencias casi inmediatas de la mecánica cuántica es que ciertos átomos como el Uranio-235 se pueden fisionar (“quebrar”) si un neutrón (una partícula subatómica) choca con el. Cuando esto ocurre, se liberan un gran cantidad de energía y dos neutrones. En turno cada uno de estos neutrones choca con otro átomo de Uranio-235, libera energía y dos neutrones más. Esto es lo que se llama una “reacción en cadena” y da origen a una terrible arma: la bomba atómica. El único problema para construir una bomba atómica es que el uranio tiene varias formas (isótopos). El más abundante en la naturaleza es el Uranio-238 que no es fisionable y el Uranio fisionable (U-235) es solo 0.7% del Uranio que ocurre en la naturaleza. Separar el U-235 de los otros isótopos del Uranio es una tarea monumental. Y la principal dificultad para construir La Bomba.
Pero no todo la influencia de la mecánica cuántica fue de carácter destructivo ya que se lograron mas cosas como el avance de la medicina, con la infinidad de instrumentos nuevos que permiten diagnósticos y tratamientos mucho más simples y precisos. Baste mencionar aquí el láser, el scanner, los equipos de resonancia magnética nuclear, los rayos X, etc. todos los cuales no existirían sin este conocimiento básico.
El transistor, inventado en la primera compañía de teléfonos, Bell Telephone, ciertamente es el invento más importante del siglo XX. Basado en el trabajo de tres físicos de sólidos, Bardeen, Brattain y Shockley, el transistor reemplazó los tubos. Su gran aporte fue la posibilidad de la miniaturización de la electrónica. Esto dio origen a los llamados circuitos integrados. Actualmente estos dispositivos están virtualmente en todos los aparatos y maquinarias que nos rodean: automóviles, aviones, cocina, computadores, medicina, sensores, controles industriales, etc., y ciertamente son esenciales en las telecomunicaciones a través de teléfonos, radio y televisión. Probablemente 99% de la industria moderna y 100% de las telecomunicaciones están impactadas por la invención del transistor. El mundo moderno, sin estos dispositivos, es inimaginable. Por el descubrimiento del efecto del transistor Bardeen, Brattain y Schockley recibieron el premio de Nobel en Física el año 1956.
El láser, junto con la fibra óptica, han aumentado el volumen de comunicaciones posibles y han mejorado enormemente la calidad de la transmisión. Inicialmente, las señales telefónicas se transmitían a través de cables metálicos. Hoy, con la invención de la fibra óptica y del láser, es posible transmitir en el mismo volumen de cables, millones de señales telefónicas más de lo que era posible anteriormente. También, gracias a que las comunicaciones son digitales, la calidad de la señal es enormemente superior, lo que permite, por ejemplo, la transmisión de señales de alta calidad acústica.
El impacto de la Física del Sólido en el futuro se esta vislumbrando también por descubrimientos e investigaciones basadas la Mecánica Cuántica. Uno de los temas de más intensa investigación actual es el de la llamada Spintrónica. Esta técnica posiblemente dará origen a toda una nueva electrónica digital. Hasta ahora la electrónica estaba basada en la carga eléctrica del electrón. Sin embargo otra propiedad fundamental del electrón, el llamado spin, no ha sido explotada en electrónica. Otro tema de investigación básica es la Computación y Comunicaciones Cuánticas. Una vez más una idea de la ciencia básica tiene implicaciones importantes para el futuro de las comunicaciones seguras, a través de la criptologia (la ciencia que permite enviar mensajes en clave), y la posibilidad de hacer crecer la velocidad de los computadores y de las telecomunicaciones enormemente. A dónde nos llevará esta nueva dirección de investigación básica en Física del Sólido es imposible imaginarse. Tal como hace 30 años hubiera sido imposible imaginar el mundo moderno que nos rodea.
La base de la tecnología moderna es la Mecánica Cuántica aplicada a la Física del Sólido en la cual la escuela de Copenhague de Bohr, Heisenberg, Einstein, Schrödinger jugaron un rol esencial. La obra de teatro Copenhague de Michael Frayn toca íntimamente este tema y discute varios problemas relacionados al desarrollo de la Mecánica Cuántica.
.
La evolución histórica del modelo atómico:
Modelo Atómico de John Dalton: .
John Dalton, profesor y químico británico, estaba fascinado por el rompecabezas de los elementos. A principios del siglo XIX estudió la forma en que los diversos elementos se combinan entre sí para formar compuestos químicos. Aunque muchos otros científicos, empezando por los antiguos griegos, habían afirmado ya que las unidades más pequeñas de una sustancia eran los átomos, se considera a Dalton como una de las figuras más significativas de la teoría atómica porque la convirtió en algo cuantitativo. Dalton desarrolló un modelo científico y formulo una serie de postulados concernientes a la naturaleza de los átomos, los cuales destacaban la masa como una propiedad atómica fundamental. Basándose en los datos experimentales imperfectos de que disponía, Dalton propuso su teoría por medio de los siguientes postulados:
1. La materia está compuesta por partículas pequeñísimas llamadas átomos.
2. Los átomos son individuales y no pueden transformarse unos en otros.
3. No pueden ser creados ni destruidos.
4. Los elementos se hallan constituidos por átomos. Los átomos de un mismo elemento son idénticos en tamaño, forma, masa y todas las demás cualidades, pero diferentes a los átomos de los otros elementos.
5. Los átomos de unen para formar las moléculas, combinándose en proporciones fijas de números enteros y pequeños. Por ejemplo, un átomo de azufre (S) se combina con dos átomos de oxígeno (O) para formar la molécula SO2, y lo hacen siempre en la relación de 1:2.
6. Dos o más elementos, pueden combinarse de diferentes maneras para formar más de una clase de compuestos. Así, entre el azufre (S) y el oxígeno (O) se pueden formar dos compuestos diferentes, el SO2 y el CO2. En cada uno de estos compuestos hay una proporción de átomos y masa diferente pero definida y siempre en la relación de números enteros y pequeños.
Durante casi un siglo no se dudó de ninguno de los puntos esenciales de la teoría atómica propuesta por Dalton.
.
Modelo Atómico de John Thomson:
Para los científicos de 1900, al tomar como base los experimentos con rayos catódicos, rayos positivos y, en general, la relación entre materia y electricidad, era clara la necesidad de revisar el modelo atómico propuesto por Dalton.
El descubrimiento del electrón realizado por John Thomson, físico británico, así como los llamados rayos canales o rayos positivos, que pueden observarse como un fino haz de luz detrás de un tubo de descarga con el cátodo perforado, llevó a la conclusión de que el átomo no podía ser una esfera rígida de material característico para cada elemento, como había supuesto ingenuamente Dalton, sino que debía poseer una estructura.
Aunque el nuevo modelo atómico explicaba la relación materia y electricidad, faltaban las bases fundamentales de la combinación química explicada por Dalton en su teoría atómica.
El modelo propuesto por Thomson consideraba al átomo como una esfera de masa cargada positivamente y sobre la cual flotan los electrones, exactamente como se encuentran las uvas, pasas o ciruelas sobre un pastel. .
Modelo Atómico de Ernest Rutherford: .
Rutherford, científico británico, nacido en Nueva Zelanda estudio de la radioactividad, descubierta a finales del s. XIX, había conducido a la hipótesis de que el número atómico representaba el número de unidades de carga positiva del átomo y, puesto que este es neutro, también el número de electrones. La naturaleza de las distintas radiaciones que emite el radio fue establecida por E. Rutherford en 1903 y, en 1911, el propio Rutherford inició una serie de experimentos cruciales de los que surgió el concepto de núcleo atómico.
En estos experimentos, Rutherford y sus colaboradores H. Geiger y E. Marsden utilizaron una fuente de partículas y, mediante la interposición de planchas de plomo, colimaron el haz de partículas y lo dirigieron sobre una lámina de oro muy fina. Las partículas atravesaron la lámina e incidían sobre una superficie cubierta de sulfuro de zinc, provocando un centelleo. A partir de la observación de este centelleo era posible concluir que la gran mayoría de las partículas atravesaban las láminas sin sufrir, o casi sin sufrir, desviación, mientras que algunas sufrían una desviación considerable e incluso unas pocas no lograban atravesar la lámina, rebotando en ella como una pelota contra una pared. Este resultado contradecía el modelo atómico de Thomson, ya que, en caso de ser ese correcto, las partículas no deberían sufrir diferentes desviaciones. Para explicarlo, Rutherford supuso que toda la carga positiva del átomo estaba concentrada en una región, a la que se dio el nombre de núcleo, cuyo diámetro era una diezmilésima del diámetro del átomo.
Los electrones, orbitando en torno al núcleo, equilibrarían la carga positiva de éste, que estaría representada por partículas denominadas protones, de carga igual y de signo contrario a la de los electrones. La materia está así practicamente vacía, lo que explica que la mayoría de las partículas que incidan en la lámina de oro no se desvíen, mientras que las partículas que pasan cerca del núcleo de un átomo de oro sufren fuertes desviaciones, y las que inciden directamente sobre un núcleo, rebotan.
La casi totalidad de la masa del átomo correspondiente al núcleo, puesto que la masa del protón, según se había determinado experimentalmente, es 1836 veces mayor que la masa del electrón. Como se sabía que el número atómico representa el número de cargas positivas en el núcleo y puesto que el número de protones necesario para obtener las masas de los átomos era superior al número atómico, era preciso suponer que en el núcleo había, además de los protones que se neutralizaban mutuamente de manera que no como cargas, sino sólo aportando masa. Rutherford no se sentía satisfecho con la idea de que en el núcleo también hubiera electrones y en 1920 especuló con la posibilidad de que en el núcleo hubiera otras partículas de masaa similar al protón, pero carentes de carga eléctrica a las que, por esta razón, se denominó neutrones. La existencia de neutrones fue confirmada por J. Chadwick en 1932, cuando identificó como constituida por esas partículas netras la radiación obtenida al bombardear berilio con partículas.
.
Modelo Atómico de Niels Bohr: .
Niels Bohr, físico danés. Para explicar la estructura del átomo, el físico danés Niels Bohr desarrolló en 1913 una hipótesis conocida como teoría atómica de Bohr. Bohr supuso que los electrones están dispuestos en capas definidas, o niveles cuánticos, a una distancia considerable del núcleo. La disposición de los electrones se denomina configuración electrónica. El número de electrones es igual al número atómico del átomo: el hidrógeno tiene un único electrón orbital, el helio dos y el uranio 92. Las capas electrónicas se superponen de forma regular hasta un máximo de siete, y cada una de ellas puede albergar un determinado número de electrones. La primera capa está completa cuando contiene dos electrones, en la segunda caben un máximo de ocho, y las capas sucesivas pueden contener cantidades cada vez mayores. Ningún átomo existente en la naturaleza tiene la séptima capa llena. Los “últimos” electrones, los más externos o los últimos en añadirse a la estructura del átomo, determinan el comportamiento químico del átomo.
Todos los gases inertes o nobles (helio, neón, argón, criptón, xenón y radón) tienen llena su capa electrónica externa. No se combinan químicamente en la naturaleza, aunque los tres gases nobles más pesados (criptón, xenón y radón) pueden formar compuestos químicos en el laboratorio. Por otra parte, las capas exteriores de los elementos como litio, sodio o potasio sólo contienen un electrón. Estos elementos se combinan con facilidad con otros elementos (transfiriéndoles su electrón más externo) para formar numerosos compuestos químicos. De forma equivalente, a los elementos como el flúor, el cloro o el bromo sólo les falta un electrón para que su capa exterior esté completa. También se combinan con facilidad con otros elementos de los que obtienen electrones.
Las capas atómicas no se llenan necesariamente de electrones de forma consecutiva. Los electrones de los primeros 18 elementos de la tabla periódica se añaden de forma regular, llenando cada capa al máximo antes de iniciar una nueva capa. A partir del elemento decimonoveno, el electrón más externo comienza una nueva capa antes de que se llene por completo la capa anterior. No obstante, se sigue manteniendo una regularidad, ya que los electrones llenan las capas sucesivas con una alternancia que se repite. El resultado es la repetición regular de las propiedades químicas de los átomos, que se corresponde con el orden de los elementos en la tabla periódica.
Resulta cómodo visualizar los electrones que se desplazan alrededor del núcleo como si fueran planetas que giran en torno al Sol. No obstante, esta visión es mucho más sencilla que la que se mantiene actualmente. Ahora se sabe que es imposible determinar exactamente la posición de un electrón en el átomo sin perturbar su posición. Esta incertidumbre se expresa atribuyendo al átomo una forma de nube en la que la posición de un electrón se define según la probabilidad de encontrarlo a una distancia determinada del núcleo. Esta visión del átomo como “nube de probabilidad” ha sustituido al modelo de sistema solar.
.
CAPÍTULO III
Principales autores de la mecánica cuántica. ..
Max Karl Ernst Ludwig Planck:
Físico alemán, premiado con el Nobel, considerado el creador de la teoría cuántica, de quién Albert Einstein dijo: "Era un hombre a quien le fue dado aportar al mundo una gran idea creadora". De esa idea creadora nació la física moderna, que intenta saber si "Dios juega o no a los dados", si el azar existe o no.
Como muchas veces suele ocurrir, las primeras inclinaciones intelectuales de Planck no estuvieron orientadas hacia la ciencia, sino que a la filología y la música, pero su profesor Hermann Müller, del Gimnasio Maximiliano, en Munich, le hizo desistir de sus aficiones.
Cuando ingresó en 1874 a la Universidad de Munich, y estudió un año en la Universidad de Berlín, dejó su pasión por los románticos alemanes como Brahms, Schubert y Schumann, para internarse en el laberinto que le abrieron sus profesores Hermann von Helmholtz y Gustav Robert Kirchhoff, quienes realizaron investigaciones que utilizó Planck, en 1900, para proponer su teoría de los cuantos (partículas comparables a un grano de luz), que dividió la física en dos etapas: la clásica, desarrollada en los siglos XVII, XVIII y XIX, y la moderna.
Así, Planck concluía unas investigaciones que comenzó en 1879, cuando hizo su tesis doctoral sobre el segundo principio de la termodinámica (rama de la física que se ocupa de la energía) del físico Sadi Carnot; ideas con las que el alemán Rudolf Clausius planteó su teoría de la entropía (cantidad de energía que se podía convertir en trabajo).
En el año 1880, ocupa su primer cargo académico en la Universidad de Kiel y, cinco años más tarde, es nombrado profesor titular de una de las cátedras de física, y desde 1889 hasta 1928 ocupó el mismo cargo en la Universidad de Berlín. En 1900 Planck formuló que la energía se radia en unidades pequeñas separadas denominadas cuantos. Avanzando en el desarrollo de esta teoría, descubrió una constante de naturaleza universal que se conoce como la constante de Planck. La ley de Planck establece que la energía de cada cuanto es igual a la frecuencia de la radiación multiplicada por la constante universal. Sus descubrimientos, sin embargo, no invalidaron la teoría de que la radiación se propagaba por ondas. Los físicos en la actualidad creen que la radiación electromagnética combina las propiedades de las ondas y de las partículas. Los descubrimientos de Planck, que fueron verificados posteriormente por otros científicos, promovieron el nacimiento de un campo totalmente nuevo de la física, conocido como mecánica cuántica y proporcionaron los cimientos para la investigación en campos como el de la energía atómica.
Durante el proceso en el cual Planck formulaba sus investigaciones, el lenguaje y la teoría necesarios, hoy conocidos como mecánica cuántica, estaban por aquel entonces evolucionando en los institutos de física de Europa. Planck, en sus sustentaciones teóricas, guarda una gran semejanza con las ideas de Goethe: basta una gran vía que permita la búsqueda para explorar todo le explorable, contemplando lo inexplorable. "Lo que se debe interpretar –decía Planck–... debe dirigirse hacia todo lo que sea explorable". Y de su exploración concluyó que el pensamiento causal y el físico son equivalentes.
La casualidad, como las direcciones en las que pueden caer las gotas de agua de una catarata, según un ejemplo del físico rihard feynman podían ser susceptibles de medición, según la teoría del quantum.
El estudio de la distribución de la energía en el campo de influencia de un cuerpo negro resume la teoría de Planck. La energía radiante se emite (el Sol) o absorbe (el cuerpo negro) sólo en múltiplos enteros de un cuanto, cuya magnitud es proporcional a la frecuencia de radiación absorbida o emitida.
Un cuerpo negro es un sistema ideal capaz de absorber toda la radiación que incide sobre él. Planck planteó una ecuación simple que describía la distribución de la irradiación de las variadas frecuencias, basado en una suposición: la energía no es divisible infinitamente; como la materia, está formada de partículas, a las que llamó quantum.
El tamaño de cada quantum, para cada radiación electromagnética, es directamente proporcional a su frecuencia: constante de Planck, que se representa con la h.
Los científicos sabían que el color de la luz que emite un cuerpo –la gama de sus longitudes de onda– está relacionado con el material del que está hecho el objeto y con su temperatura. Hablando en general, la luz azul, con longitudes de onda muy cortas, es la que prevalece en el espectro de los objetos muy calientes; las longitudes de onda rojas, o más largas, indican menos calor. Hay representadas también otras longitudes de onda, pero como regla general, cada temperatura se relaciona con una longitud de onda dominante, que proporciona al objeto resplandeciente un color característico. Para simplificar su análisis de la radiación, los teóricos del siglo XIX habían conjurado el cuerpo negro. Al contrario que los objetos reales, esta entidad imaginaria absorbe la radiación de todas las frecuencias, lo cual la hace completamente negra. También emite radiación de todas las frecuencias, independientemente de su composición material. Los experimentadores habían creado ingeniosos dispositivos para aproximar esta construcción teórica a los laboratorios, y habían aprendido mucho sobre las características de la radiación del cuerpo negro. Lo que les faltaba era una teoría para predecir la distribución o forma del espectro de radiación del cuerpo negro, es decir, la cantidad de radiación emitida a frecuencias específicas a varias temperaturas.
La mayoría de los científicos creían que la clave de este problema se hallaba en comprender la interacción entre radiación electromagnética y materia. En 1900, cuando Planck atacó el problema, aceptó la teoría electromagnética de la luz que sostenía que la luz era un fenómeno ondulatorio y que la materia –que se suponía que contenía pequeños cuerpos cargados eléctricamente, o partículas– irradiaba energía en la forma de ondas de luz cuando esas partículas cargadas eran aceleradas, La sabiduría aceptada decretaba también que la cantidad de energía radiada por una partícula cargada acelerada podía situarse en cualquier parte a lo largo de una gama continua.
Para el propósito de estudiar la radiación de un cuerpo negro, Planck imaginó las partículas cargadas como diminutos osciladores, acelerados y decelerados repetidamente de una forma sencilla, suave y regular, como si estuvieran unidos a un muelle ingrávido. Hasta ese momento, se mantenía firmemente dentro del reino de la física del siglo XIX. Pero a partir de ahí se desvió radicalmente.
En el camino de calcular el equilibrio de energía entre los supuestos osciladores y su radiación de entrada y salida, Planck halló que necesitaba suponer la existencia de quantums, o ciertas pequeñas divisiones de energía, antes que una gama continua de posibles energías. Definió un quantum de energía como la frecuencia de la oscilación multiplicada por un número diminuto que no tardó en ser conocido como la constante de Planck. Luego utilizó estas suposiciones para resolver el problema del cuerpo negro; su solución matemática predijo perfectamente la radiación del espectro del cuerpo negro.
El propio Planck nunca avanzó una interpretación significativa de sus quantums, y aquí quedó el asunto hasta 1905, cuando Einstein, basándose en el trabajo de Planck, publicó su teoría sobre el fenómeno conocido como efecto fotoeléctrico (arriba). Dados los cálculos de Planck, Einstein demostró que las partículas cargadas –que por aquel entonces se suponía que eran electrones– absorbían y emitían energías en cuantos finitos que eran proporcionales a la frecuencia de la luz o radiación. En 1930, los principios cuánticos formarían los fundamentos de la nueva física.
Aunque Planck sostuvo que la explicación era un modelo distinto al verdadero mecanismo de la radiación, Albert Einstein dijo que la cuantización de la energía era un avance en la teoría de la radiación. No obstante, Planck reconoció en 1905 la importancia de las ideas sobre la cuantificación de la radiación electromagnética expuestas por Albert Einstein, con quien colaboró a lo largo de su carrera.
En su carrera científica, Planck recibió muchos premios, especialmente, el Premio Nobel de Física, en 1918. En 1930 Planck fue elegido presidente de la Sociedad Káiser Guillermo para el Progreso de la Ciencia, la principal asociación de científicos alemanes, que después se llamó Sociedad Max Planck. Sus críticas abiertas al régimen nazi que había llegado al poder en Alemania en 1933 le forzaron a abandonar la Sociedad, de la que volvió a ser su presidente al acabar la II Guerra Mundial.
La oposición de Max Planck al régimen nazi, lo enfrentó con Hitler.En varias ocasiones intercedió por sus colegas judíos ante el régimen nazi.
Planck sufrió muchas tragedias personales después de la edad de 50 años. En 1909, su primera esposa Marie Merck murió después de 22 años de unión matrimonial, dejándolo con dos hijos hombres y unas hijas gemelas. Su hijo mayor Karl murió en el frente de combate en la Primera Guerra Mundial en 1916; su hija Margarete murió de parto en 1917, y su otra hija, Emma también murió de parto en 1919. Durante la Segunda Guerra Mundial, su casa en Berlín fue destruida totalmente por las bombas en 1944 y su hijo más joven, Erwin, fue implicado en la tentativa contra la vida de Hitler que se efectuó el 20 de julio de 1944. Por consiguiente, Erwin murió de forma horrible en las manos del Gestapo en 1945. Todo este cúmulo de adversidades, aseguraba su discípulo Max von Laue, las soportó sin una queja. Al finalizar la guerra, Planck, su segunda esposa y el hijo de ésta, se trasladaron a Göttingen donde él murió a los 90 años, el 4 de octubre de 1947. Max Planck hizo descubrimientos brillantes en la física que revolucionó la manera de pensar sobre los procesos atómicos y subatómicos. Su trabajo teórico fue respetado extensamente por sus colegas científicos.
Entre sus obras más importantes se encuentran Introducción a la física teórica (5 volúmenes, 1932-1933) y Filosofía de la física (1936).
Paul Dirac
Dirac nació el 8 de agosto de 1902, en Monk Road en Bishopston, Bristol, Inglaterra. Su padre era suizo y enseñaba francés en la universidad técnica mercantil Venturers en Bristol. Su madre era de Cornwall. Cursó sus estudios primarios en la escuela Bishop Road y los secundarios, primero, en la Merchant Venturers y, más tarde, en Cotham Grammar School. En 1918, entró a la universidad de Bristol, donde se graduó, en 1921, de ingeniero eléctrico con honores de primera clase. Atraído por las teorías de la relatividad de Einstein, pero impedido de tomar una beca en la universidad de Cambridge por razones financieras, permaneció en Bristol y se graduó en matemáticas, otra vez con honores de primera clase, en 1923.
Obtenido ese último grado académico, Dirac se fue al St John's College, Cambridge, para realizar investigaciones sobre física teórica bajo supervisión de Ralph (RH) Fowler del laboratorio Cavendish. Después de algunos años de intensa labor investigativa en ese establecimiento, Dirac finalizó el trabajo que le permitió obtener el premio Nobel. En 1932, lo designaron profesor de la cátedra de matemáticas Lucasian en Cambridge, puesto que fue ocupado en su época por Isaac Newton y hoy por Stephen Hawking.
Dirac tenía solamente 31 años cuando compartió el premio Nobel con el físico austriaco Erwin Schrödinger, en 1933. Hablaba con fluidez francés e inglés, pero era taciturno en ambos idiomas. Por otra parte, su timidez llegó a ser legendaria. Por ejemplo, cuando fue informado que acababa de ganar el premio, Dirac le dijo a Rutherford, entonces jefe de Cavendish, que él no lo deseaba aceptar porque le tenía aversión a la publicidad. ¡Rutherford le contestó que el rechazo del premio le traería aún más publicidad!
En 1937, Dirac se casó Margit Balasz (née Wigner), que era la hermana del famoso físico húngaro Eugene Wigner. El matrimonio tuvo dos hijas Mary Elizabeth y Florence Monica. Dirac se retiró de Cambridge en 1969 y se cambió a la universidad del estado de la Florida en los EE.UU. Murió en Tallahassee, Florida, el 20 de octubre de 1984.
Cuando Dirac se fue a Cambridge, a mediados de la década de 1920, varios experimentos habían demostrado que la física clásica no podría explicar el comportamiento de los átomos y de los electrones. En efecto, el impredecible comportamiento de las partículas en el mundo cuántico parecía tener poca relación con el comportamiento de los cuerpos a mucha mayor escala de la teoría de la relatividad. Ambas teorías estaban todavía evolucionando, y los esfuerzos por combinarlas sólo tuvieron éxito en parte. Por ejemplo, ninguno de los intentos de síntesis podía explicar adecuadamente una propiedad recientemente descubierta de los electrones llamada espín, propuesta para resolver las anomalías observadas en las posiciones y número de líneas en el espectro atómico. Por aquel entonces, los físicos pensaban que un electrón que girara rápidamente creaba un campo magnético, lo cual podía explicar esos cambios por otro lado misteriosos. Pero para producir estos efectos magnéticos, un electrón con las dimensiones asignadas en una teoría clásica tendría que girar tan rápido que los puntos de su ecuador excederían la velocidad de la luz, algo que la teoría de la relatividad decía que era imposible. En consecuencia, los físicos llegaron a la conclusión sobre la necesidad de una nueva teoría para explicar esos fenómenos.
Paul Dirac se enfrentó al desafío. Como su auténtica lengua eran las matemáticas, él consiguió en 1928 incorporar la relatividad a la descripción matemática de la mecánica de un átomo de hidrógeno. Su solución, llamada la ecuación Dirac del electrón, no sólo proporcionaba una explicación perfecta de las líneas espectrales sino que, en un inesperado desarrollo, describía también a los electrones de una forma que resolvía el dilema del espín. La sencilla elegancia de las matemáticas de Dirac hizo que su proposición consiguiera una aceptación rápida.
Dirac aseguró al espín un importante lugar en las nuevas mecánicas que iban a remplazar la «antigua teoría cuántica» de Bohr y Sommerfeld. Agreguemos que no solamente el electrón, sino otras partículas también están dotadas de espín, cuyo papel es cardinal en la estructura del núcleo atómico.
El objetivo de Dirac fue el de formular una ecuación de la onda asociada al electrón que satisficiera el principio einsteiniano de la relatividad. Este exige una simetría de las tres coordenadas del espacio y de la coordenada del tiempo. Mas, la ecuación de la onda, en la mecánica de Scrödinger, no era simétrica en las cuatro coordenadas, siendo de segundo orden en los coeficientes diferenciales con respecto al espacio, y sin embargo, de primer orden en la derivada del tiempo. Dirac logró señorear las dificultades y establecer una función de ondas conforme al postulado de simetría relativista: los cuatro componentes de la función obedecen a cuatro ecuaciones de primer orden, cuyo conjunto reemplaza la única ecuación de propagación de la mecánica ondulatoria no relativista.
Antes que Dirac formulara su ecuación, el problema de unir adecuadamente la mecánica cuántica y la teoría de la relatividad parecía estancado. Dirac, en su ecuación describe adecuadamente los fenómenos cuánticos y es compatible con el principio de la relatividad. Si existe algo así como una estética matemática, la ecuación de Dirac es una verdadera obra de arte, por la manera tan ingeniosa con la que el físico inglés resolvió un problema aparentemente irresoluble. Medularmente, la ecuación permite calcular la función de onda de un electrón, y de otras partículas elementales, tomando en cuenta todos los efectos relativistas. En ella, un electrón podía tener una energía infinitamente negativa. Pero lo que parecía una dificultad técnica resultó ser, gracias al ingenio de Dirac, la clave para descubrir un aspecto insospechado de la naturaleza.
.
Paul Dirac.
.
En la descripción de los planteamientos teóricos de Dirac soslayar su desarrollo matemático, sería una empresa ilusoria, "puesto que cuando se hace abstracción del andamiaje matemático, se comprueba, escribió el propio Dirac, que la teoría está construida a partir de conceptos que no pueden ser descritos por medios de nociones que nos son familiares y de las cuales no se puede ni siquiera definir el sentido por medio de palabras comunes”. El electrón, se decía con razón, es el contenido de las ecuaciones de Dirac. Esta radical disolución de entidades del mundo material en símbolos matemáticos, es el precio pagado por el mayor rigor y la mayor fecundidad de la nueva mecánica.
Si comparamos las teorías de Heisenberg y de Schrödinger con la formulada por Dirac, ésta aparece más abstracta y más general pero las sobrepasa por su poder de interpretación y de previsión. Un impresionante ejemplo de la prodigiosa fuerza de la teoría es la introducción automática del espín en la ecuación, con el cual, algunos años antes, Uhlenbeck y Goudsmit habían dotado hipotéticamente al electrón. En efecto, es un éxito extraordinario que las ecuaciones de Dirac, obtenidas con ayuda de razonamientos muy generales, en los que para nada interviene la hipótesis del espín, contengan en sí todas las propiedades del electrón magnético y giratorio. La hazaña, dice De Broglie, de hacer surgir el espín de ecuaciones establecidas con independencia de él, es uno de los resultados más notables de la física teórica contemporánea, que sin embargo, contiene tantos.
Por otra parte, la mecánica ondulatoria primitiva permanecía incapaz de dar cuenta de la estructura fina de los espectros ópticos y rontgenográficos, la teoría de Dirac lo logra con toda exactitud; asimismo, suministra una interpretación de los efectos Zeemann anormales, que ninguno de los teóricos anteriores había podido conseguir. Esto sin duda es mucho, pero no es todo.
El carácter relativista de su mecánica llevó a Dirac a admitir la posibilidad, para el electrón, de poseer un estado de energía negativa. Un corpúsculo en uno de estos estados manifestaría un comportamiento paradójico: para acelerarlo se requeriría frenarlo quitándole energía y, por el contrario, habría que proporcionarle energía para conducirlo a un estado de reposo. Nunca, en la experiencia, ningún electrón hizo evidente tan extrañas propiedades. Para salir de esta dificultad, Dirac, guiado por el principio de Pauli, formuló una ingeniosa hipótesis.
Para evitar que todos los electrones del universo cayeran a estados con energías infinitamente negativas, Dirac propuso que todos los estados con energía negativa estaban ocupados ya por electrones, aunque éstos no se puedan detectar directamente (¡el vacío de la mecánica cuántica resulta ser un mar infinito de partículas!, y esta aparente contradicción es todavía uno de los problemas más complejos de la física moderna). Pero si llegara a faltar uno de estos electrones de energía negativa, su ausencia, se detectaría como la presencia de una partícula con energía positiva y con la carga eléctrica contraria a la del electrón. Esa nueva partícula, predijo Dirac, sería un electrón; tendría la misma masa que un electrón y todas las demás propiedades, excepto el signo de la carga eléctrica, que sería positivo.
Los físicos, en 1930, acogieron con escepticismo la extraña hipótesis de Dirac. Muchos entre ellos consideraron al «antielectrón» del teórico inglés como el sueño de un matemático. Schröndinger propuso modificar la ecuación de Dirac para eliminar esos absurdos estados de energía negativa. A pesar de ello, Dirac permaneció fiel a su idea, y mientras se preguntaba si los estados energéticos desocupados no serían idénticos con los protones, la experiencia vino a traer, en agosto de 1932, la más brillante confirmación de la realidad del antielectrón. Al estudiar, con la cámara de Wilson, choques entre átomos y rayos cósmicos, Charles David Anderson , en California, notó sobre las fotografías las huellas de una nueva partícula, las del electrón con carga positiva. El nuevo corpúsculo, el positrón (o positón) reveló, en el curso de un examen detenido, exactamente las mismas propiedades que la clarividente teoría de Dirac exigiera para su antielectrón.
En esa época, no era fácil imaginar una justificación experimental más sorprendente de la osada construcción matemática de Dirac que el descubrimiento del positrón, que convierte un obstáculo aparentemente insalvable de su teoría en uno de sus más firmes soportes. En efecto, Dirac había previsto la formación simultánea de dos electrones, uno positivo y otro negativo, a expensas de la energía empleada para producir un «hueco» en la distribución de la electricidad negativa. Como veremos, esta atrevida profecía de la «materialización» de corpúsculos a partir de la energía y su inverso, la «desmaterialización», se convirtieron un año después del descubrimiento de Anderson en hechos empíricos.
Por otro lado, la perfecta simetría entre el electrón negativo y su contraparte positiva sugirió a Dirac la admisión de la posible reversión de la carga de cualquier clase de corpúsculos, y la previsión de la probable existencia del protón negativo. Incluso se descubrió posteriormente que algunos elementos radiactivos emiten positrones al decaer sus núcleos. Otro de los aciertos de su hipótesis previsora fue comprobado en 1953, cuando ya funcionaban los grandes aceleradores de partículas para estudiar el mundo subatómico. En efecto, con uno de esos instrumentos el italiano Emilio Segri y sus colaboradores lograron poner en evidencia el antiprotón, dotado de la misma masa, del mismo espín que el protón, portador, sin embargo, de carga negativa. Luego, se empezaron a producir antineutrones y todo tipo de antipartículas y, últimamente, antiátomos de hidrógeno.
Paul Dirac fue uno de los más eminentes representantes del grupo de jóvenes teóricos del período que siguiera a la primera guerra mundial. Perteneció a la a la primera generación de físicos libres de toda tradición clásica, y educado, desde sus años estudiantiles, en el espíritu de las nuevas teorías. Poseía una natural facilidad para el manejo de los nuevos métodos y conceptos. Espacio, tiempo, energía, partículas, son términos que nunca tuvieron para él la significación que poseían en la época clásica. La relatividad y los quantum son las herramientas naturales de sus investigaciones.
.
Werner Karl Heisenberg
.
(Wurzburgo, Alemania, 1901-Munich, 1976) Físico alemán. Hijo de un profesor de humanidades especializado en la historia de Bizancio, se formó en la Universidad de Munich, donde asistió a las clases de A. Sommerfeld y por la que se doctoró en el año 1923. También colaboró con M. Born, en la Universidad de Gotinga. Durante su formación fue compañero de W. Pauli tanto en Munich como en Gotinga. Más adelante trabajó con N. Bohr en Copenhague (1924-1927) y desempeñó, sucesivamente, los cargos de profesor de la Universidad de Leipzig (1927), director del Instituto Káiser Wilhelm de Berlín (1942) y del Max Planck de Gotinga (1946), así como del de Munich (1958).
Entre 1925 y 1926 desarrolló una de las formulaciones básicas de la mecánica cuántica, teoría que habría de convertirse en una de las principales revoluciones científicas del siglo XX. En 1927 enunció el llamado principio de incertidumbre o de indeterminación, que afirma que no es posible conocer, con una precisión arbitraria y cuando la masa es constante, la posición y el momento de una partícula. De ello se deriva que el producto de las incertidumbres de ambas magnitudes debe ser siempre mayor que la constante de Planck. El principio de incertidumbre expuesto por Heisenberg tiene diversas formulaciones equivalentes, una de las cuales relaciona dos magnitudes fundamentales como son la energía y el tiempo.
El enunciado del principio de incertidumbre causó una auténtica revolución entre los físicos de la época, pues suponía la desaparición definitiva de la certidumbre clásica en la física y la introducción de un indeterminismo que afecta a los fundamentos de la materia y del universo material. Por otro lado, este principio supone la práctica imposibilidad de llevar a cabo mediciones perfectas, ya que el observador, con su sola presencia, perturba los valores de las demás partículas que se consideran e influye sobre la medida que está llevando a cabo. Así mismo, Heisenberg predijo, gracias a la aplicación de los principios de la mecánica cuántica, el espectro dual del átomo de hidrógeno y logró explicar también el del átomo de helio.
En 1927 ideó una relación matemática para explicar las rayas espectrales. Para ello, y sobre la base del álgebra de matrices, desarrolló la llamada mecánica matricial, que justificaba las longitudes de onda de las rayas espectrales y que, más tarde, Von Neumann demostraría que era equivalente a la mecánica ondulatoria formulada por el físico austriaco E. Schrödinger. Fue autor también de importantes contribuciones a campos de la física tales como la teoría del ferromagnetismo, el estudio de las formas alotrópicas del hidrógeno molecular, la introducción de las fuerzas de intercambio y del isoespín y la teoría de la difusión.
Sus trabajos acerca de la teoría nuclear le permitieron predecir que la molécula del hidrógeno podía existir en dos estados, uno como ortohidrógeno, es decir, en que los núcleos de los dos átomos girasen en la misma dirección, y otro como parahidrógeno, en que dichos núcleos girarían en direcciones contrarias. Esta predicción, que se confirmó finalmente en 1929, tendría gran importancia años más tarde para el desarrollo de la astronáutica, ya que permitía frenar la evaporación del hidrógeno líquido en las grandes concentraciones de esta sustancia que se necesitan para propulsar los cohetes de combustible líquido.
Igual que Einstein, acabada la Segunda Guerra Mundial centró sus esfuerzos en el desarrollo de una teoría no lineal del campo unificado, aunque no obtuvo el resultado buscado en su empeño, tal como le sucedió a su ilustre colega. El desarrollo de la llamada mecánica cuántica matricial le valió la concesión del Premio Nobel de Física en 1932.
.
Louis Victor Pierre Raymond duc de Broglie:
Estudió historia en la Sorbonne en París, pensando en una carrera en el servicio diplomático. Pero a los 18 años, y después de finalizar un trabajo de investigación que se le había asignado, tomó la decisión de estudiar física.
De Broglie alcanzó su reconocimiento en el mundo de los físicos por la propugnación que describe en su teoría sobre la dualidad partícula–onda de la materia. En su tesis doctoral de 1924, propone esta teoría sosteniendo la naturaleza de onda del electrón, basándose en el trabajo de Einstein y de Planck. Esta afirmación, fue confirmada experimentalmente en 1927 por C J Davisson, C H Kunsman y L H Germer en los EE.UU. y por G P Thomson en Escocia. De Broglie, durante una entrevista en 1963, describió cómo había llegado a ese importante descubrimiento:
En conversaciones que frecuentemente sostenía con mi hermano siempre llegábamos a la conclusión que los rayos X se caracterizaban por ser corpúsculos y también ondas. Por ello, en el curso de verano de 1923, repentinamente concebí la idea de ampliar esta dualidad a las partículas materiales, especialmente a los electrones. Recordé que la teoría de Hamilton-Jacobi señalaba algo en esa dirección, ya que ella es aplicable a las partículas y, además, representa una óptica geométrica; por otra parte, en cuántica uno obtienen los números quantum de los fenómenos, que raramente se encuentran en mecánica pero ocurren frecuentemente en manifestaciones ondulatorias y en todos los problemas que se ocupan del movimiento de las ondas.
Después de doctorase, de Broglie permaneció en la Sorbonne, llegando a ser, en el año 1928, profesor de física teórica en el instituto Henri Poincaré. De Broglie enseñó allí hasta que se retiró en 1962. En 1945, fue nombrado consejero de la comisión de energía atómica francesa.
La teoría ondulatoria de De Broglie de la materia del electrón fue utilizada más adelante por schrodinger para desarrollar la mecánica de la onda. De Broglie recibió el premio Nobel en 1929.
De Broglie se autodescribió como: una persona de mente más proclive a la teoría pura que a la experimentación o a la ingeniería, con una mayor tendencia a asumir visiones especialmente generales y filosóficas...
Él escribió muchos trabajos ampliamente reconocidos incluyendo a aquellos que demuestran su interés en las implicaciones filosóficas de la física moderna, materia y luz: La Nueva Physics (1939); La revolución en Physics (1953);
La pregunta central en la vida de de Broglie era si la naturaleza estadística de la física atómica refleja una ignorancia de la teoría subyacente o si la estadística es todo lo que puede ser conocido. Durante la mayor parte de su vida él creyó lo primero, pero como un investigador joven consideró que la estadística ocultaba nuestra ignorancia. Sin embargo, en su madurez como científico, asombrosamente volvió a su visión juvenil, señalando que: las teorías estadísticas ocultan una realidad totalmente resuelta y averiguable detrás de las variables que eluden nuestras técnicas experimentales.
,
Erwin schrodinger
Viena, 1887-id., 1961) Físico austriaco. Compartió el Premio Nobel de Física del año 1933 con Paul Dirac por su contribución al desarrollo de la mecánica cuántica. Ingresó en 1906 en la Universidad de Viena, en cuyo claustro permaneció, con breves interrupciones, hasta 1920. Sirvió a su patria durante la Primera Guerra Mundial, y luego, en 1921, se trasladó a Zurich, donde residió los seis años siguientes.
En 1926 publicó una serie de artículos que sentaron las bases de la moderna mecánica cuántica ondulatoria, y en los cuales transcribió en derivadas parciales, su célebre ecuación diferencial, que relaciona la energía asociada a una partícula microscópica con la función de onda descrita por dicha partícula. Dedujo este resultado tras adoptar la hipótesis de De Broglie, enunciada en 1924, según la cual la materia y las partículas microscópicas, éstas en especial, son de naturaleza dual y se comportan a la vez como onda y como cuerpo.
Atendiendo a estas circunstancias, la ecuación de Schrödinger arroja como resultado funciones de onda, relacionadas con la probabilidad de que se dé un determinado suceso físico, tal como puede ser una posición específica de un electrón en su órbita alrededor del núcleo.
En 1927 aceptó la invitación de la Universidad de Berlín para ocupar la cátedra de Max Planck, y allí entró en contacto con algunos de los científicos más distinguidos del momento, entre los que se encontraba Albert Einstein.
Permaneció en dicha universidad hasta 1933, momento en que decidió abandonar Alemania ante el auge del nazismo y de la política de persecución sistemática de los judíos. Durante los siete años siguientes residió en diversos países europeos hasta recalar en 1940 en el Dublin Institute for Advanced Studies de Irlanda, donde permaneció hasta 1956, año en el que regresó a Austria como profesor emérito de la Universidad de Viena.
.
Albert Einstein
Ulm, 1879 - Princeton, 1955) Científico alemán. En 1880 su familia se trasladó a Munich y luego (1894-96) a Milán. Frecuentó un instituto muniqués, prosiguió sus estudios en Italia y finalmente se matriculó en la Escuela Politécnica de Zurich (1896-1901). Obtenida la ciudadanía suiza (1901), encontró un empleo en el Departamento de Patentes; aquel mismo año contrajo matrimonio.
En 1905 publicó en Annalen der Physik sus primeros trabajos sobre la teoría de los quanta, la de la relatividad y los movimientos brownianos, y llegó a profesor libre de la Universidad de Berna. En 1909 fue nombrado profesor adjunto de la de Zurich y en 1910 pasó a enseñar Física teórica en la Universidad alemana de Praga. Luego dio clases de esta misma disciplina en la Escuela Politécnica zuriquesa (1912). En 1913, nombrado miembro de la Academia de Prusia, se trasladó a Berlín. En 1916 se casó en segundas nupcias. Publicó entonces Die Grundlage der allgemeinen Relativitätstheorie e inició una serie de viajes a los Estados Unidos, Inglaterra, Francia, China, Japón, Palestina y España (1919-32).
En 1924 entregó a la imprenta Über die spezielle und die allgemeine Relativitätstheorie y el año siguiente recibió el premio Nobel por su teoría sobre el efecto fotoeléctrico. En 1933 abandonó la Academia de Prusia y se enfrentó valerosamente a Hitler. Iniciada la persecución nazi contra los judíos, marchó a América y enseñó en el Instituto de Estudios Superiores de Princeton (Nueva Jersey). En 1945 se retiró a la vida privada, a pesar de lo cual prosiguió intensamente su actividad científica.
Einstein es uno de los grandes genios de la humanidad y en el ámbito de las ciencias físicas ha llevado a cabo una revolución todavía en marcha y cuyos alcances no pueden medirse aún en toda su amplitud. En su primera formulación (teoría de la relatividad restringida) extendió a los fenómenos ópticos y electromagnéticos el principio de relatividad galileo-newtoniano, anteriormente limitado sólo al campo de la Mecánica, y afirmó la validez de las leyes de esta última tanto respecto de un sistema galileano de referencia K, como en relación con otro de referencia K' en movimiento rectilíneo y uniforme respecto de K.
Según las teorías de Einstein, la ley de la propagación de la luz en el vacío debe tener, como cualquier otra general de la naturaleza, la misma expresión ya referida, por ejemplo, a una garita ferroviaria o a un vagón de tren en movimiento rectilíneo y uniforme en relación con ésta; dicho en otros términos, la velocidad de la luz no se ajusta a la de los sistemas de referencia que se mueven en línea recta y de manera uniforme respecto del movimiento de la misma luz. En realidad, el experimento de Michelson-Morley, mil veces repetido y comprobado a partir de 1881, había demostrado la diferencia existente entre la velocidad de la luz y la de la Tierra.
La relatividad restringida ofrece la razón de tal hecho, antes inexplicable. A su vez, la invariabilidad de la velocidad de la luz lleva a la introducción, en Física, de las transformaciones de Lorentz, según las cuales la distancia temporal entre dos acontecimientos y la que separa dos puntos de un cuerpo rígido se hallan en función del movimiento del sistema de referencia, y por ello resultan distintas para K y K'. Ello nos libra, en la formulación de las leyes ópticas y electromagnéticas, de la relación con el hipotético sistema fijo "absoluto", rompecabezas metafísico de la Física clásica, puesto que tales leyes, como aparecen formuladas en la relatividad restringida, valen para K e igualmente para K', lo mismo que las de la Mecánica.
CAPÍTULO IV
Aplicaciones de la mecánica cuántica
Dos aplicaciones de la mecánica cuántica: .
La mecánica cuántica levantó la dualidad onda-partícula, mostrando que las partículas microscópicas (electrones, átomos, etc.) no son bolas de billar muy pequeñas sino otra cosa gobernada por otras ecuaciones. La dualidad onda-partícula en el campo electromagnético desaparece al hacer una teoría cuántica del mismo. Es de hacer notar que el comportamiento ondulatorio de los electrones contenido en la mecánica cuántica dio origen al microscopio electrónico construido por primera vez por Ernst Ruska en Berlín en la primera mitad de la década del 30. Otro hecho típicamente cuántico también merece mención por sus aplicaciones científico-tecnológicas: el efecto túnel. El nombre proviene de lo siguiente. Si se suelta una bolilla junto a la pared interna de un recipiente semiesférico, la misma sube del lado opuesto hasta aproximadamente la misma altura desde la que se la soltó; por razones de conservación de energía, la bolilla no puede escapar del recipiente. Pero cuando se trata de una partícula gobernada por las leyes de la mecánica cuántica, la misma tiene una probabilidad no nula de estar fuera del recipiente. Hablando clásicamente es como si hubiera cavado un túnel a través de la pared del recipiente. La primera aplicación práctica de esto fue el diodo de efecto túnel, uno de los dispositivos que revolucionó la electrónica. Más recientemente, en la primera mitad de la década del 80, los científicos Gerd Birnning y Heinrich Roher, del Laboratorio de Investigación de la IBM en Zurich, inventaron el microscopio de efecto túnel, un ultramicroscopio que casi permite "ver" los átomos. Recibieron el Premio Nobel por ello en 1986, compartiéndolo con Ruska por su invento del microscopio electrónico medio siglo antes (Robinson, 1986).
.
La mecánica cuántica en la química: .
La química cuántica es la aplicación de la mecánica cuántica a problemas de química.
Una aplicación de la química cuántica es el estudio del comportamiento de átomos y moléculas, en cuanto a sus propiedades ópticas, eléctricas, magnéticas y mecánicas, y también su reactividad química, sus propiedades redox, etc., pero también se estudian materiales, tanto sólidos extendidos como superficies.
Como los estudios mecanocuánticos sobre átomos se consideran en la frontera entre la química y la física, y no se incluyen por lo general dentro de la química cuántica, frecuentemente se considera como primer cálculo de química cuántica el llevado a cabo por los científicos alemanes Walter Heitler y Fritz London (aunque a Heitler y a London se les suele considerar físicos). El método de Heitler y London fue perfeccionado por los químicos americanos John C. Slater y Linus Pauling, para convertirse en el método de enlace de valencia (o Heitler-London-Slater-Pauling (HLSP)). En este método, se presta atención particularmente a las interacciones entre pares de átomos, y por tanto se relaciona mucho con los esquemas clásicos de enlaces entre átomos.
Friedrich Hund y Robert S. Mulliken desarrollaron un método alternativo, en que los electrones se describían por funciones matemáticas deslocalizadas por toda la molécula. El método de Hund-Mulliken (o de orbitales moleculares) es menos intuitivo para los químicos, pero, al haberse comprobado que es más potente a la hora de predecir propiedades que el método de enlace de valencia, es virtualmente el único usado en los últimos años.
La mecánica cuántica en la física:
En física, la mecánica cuántica (conocida originalmente como mecánica ondulatoria) es una de las ramas principales de la física que explica el comportamiento de la materia y de la energía. Su campo de aplicación pretende ser universal (salvando las dificultades), pero es en el mundo de lo pequeño donde sus predicciones divergen radicalmente de la llamada física clasica.
De forma específica, se considera también mecánica cuántica, a la parte de ella misma que no incorpora la relatividad en su formalismo, tan sólo como añadido mediante teoría de perturbaciones. La parte de la mecánica cuántica que sí incorpora elementos relativistas de manera formal y con diversos problemas, es la mecánica cuántica relativista o ya, de forma más exacta y potente, la teoría cuántica de campos (que incluye a su vez a la electrodinámica cuántica, cromodinámica cuántica y teoría electrodébil dentro del modelo estándar) y más generalmente, la teoría cuántica de campos en espacio-tiempo curvo. La única interacción que no se ha podido cuantificar ha sido la interacción gravitatoria.
La mecánica cuántica es la base de los estudios del átomo, los núcleos y las partículas elementales, (siendo ya necesario el tratamiento relativista) pero también en teoría de la información, criptografía y química.
.
La mecánica cuántica en la electronica: .
En la electrónica cuántica es el área de la física que se ocupa de los efectos de la mecánica cuántica en el comportamiento de los electrones en la materia y de sus interacciones con los fotones.
Hoy raramente se considera un subcampo en su propio derecho, ya que ha sido absorbida por otros campos: la física de estado sólido regularmente toma en cuenta la mecánica cuántica, y usualmente trata sobre los electrones. La aplicación específica de la electrónica se investiga dentro de la física del semiconductor.
El campo también abarca los procesos básicos de la operación del láser donde los fotones están interactuando con los electrones: absorción, emisión espontánea, y emisión estimulada.
El término fue usado principalmente entre los años 1950 y los años 1970. Hoy, el resultado de la investigación de este campo es usado principalmente en óptica cuántica, especialmente para la parte de ella que se nutre no de la física atómica sino de la física de estado sólido.
.
La mecánica cuántica y la educación: .
La introducción a la mecánica cuantica se expone tradicionalmente en Química, y no se llega a introducir en Física salvo aquellos centros de Ingeniería Superior que ofertan asignaturas del tipo Ampliación de la Física. Hoy en día. gracias al software interactivo se introducen ideas básicas de Mecánica Cuántica en Bachillerato y otras etapas pre-universitarias además de los fundamentos de la Mecánica clásica.
Desde que el ordenador se asomó tímidamente en las aulas como herramienta didáctica, distintos temas de Mecánica Cuántica son la pasión de profesores-programadores, por su naturaleza compleja desde la perspectiva matemática, y probablemente algo alejados de la experiencia cotidiana. El software de nueva generación proporciona descripciones cualitativas de las fases distintas de eventos o fenómenos mediante representaciones gráficas interactivas. Existen en Mecánica Cuántica pocas experiencias relevantes que puedan realizarse en un laboratorio escolar. La complejidad computacional de las experiencias reales, y los tiempos habitualmente cortos en los que ocurren, ocultan el proceso físico. Mediante las simulaciones en el ordenador se puede prescindir de aparatos de medida tradicionales y del exterior al sistema objeto del estudio y permite visualizar el proceso físico, acelerando o retardando según convenga.
La secuencia de contenidos destaca la dispersión de partículas asociada a fundamentos de Mecánica, el estudio de las fuerzas centrales y conservativas y el estudio de la interacción eléctrica. La trascendencia histórica de la experiencia de Rutherford en el descubrimiento de la estructura atómica suele acaparar los comentarios al principio del estudio del átomo.
Las teorías modernas del átomo se conceptualizan con el estudio del efecto fotoeléctrico y con la explicación que Einstein aporto al asunto, y con la experiencia de Frank-Hertz, la difracción de electrones y la experiencia de Stern-Gerlach.
Las soluciones simples de la ecuación de Schrödinger: el escalón de potencial, la barrera de potencial, el efecto túnel. El modelo simple de núcleo radioactivo aclara el concepto de la desintegración alfa. Verificar la ley exponencial decreciente de la desintegración, con una muestra formada por un número pequeño pero suficiente de núcleos radioactivos nos sumerge de pleno en ámbitos puros de la física y la mecánica cuántica. Los applets diseñados muestran que no podemos predecir la conducta de una micropartícula en el dominio cuántico pero podemos predecir la conducta de un número grande de partículas idénticas.
.
La mecánica cuántica en la salud: . 
Aplicada a la sanación. Nos define la mecánica cuántica como el estudio del comportamiento de la energía. Fue presentada la primera vez por M. Planck y A. Einstein, para explicar como se comportan las partículas que contiene las sub-partículas del átomo.
Electrones, protones, etc. están formados por muones, partones, etc. y afirma que de estas depende nuestro estado de salud o enfermedad.
Nuestro cuerpo físico está formado por sistemas, estos por órganos, estos por células,estas a su vez por átomos, estos por partículas sub-atómicas y estas por infra-partículas. Por lo que afirma que el cuerpo físico está formado por una cantidad astronómica de partones, luego el cuerpo físico es energía
La conclusión es que todo estado de salud o enfermedad es la alteración de esos grupos de partones que se manifiesta en el aspecto físico.
Si hay desequilibrio habrá enfermedad, si trabajamos para solucionar ese desequilibrio volveremos a tener un estado de salud.
Afirma también, que gracias al estudio de la mecánica cuantica puede decir que los milagros existen, sabiendo que la ciencia entiende como milagro “Toda manifestación en el plano físico que tuvo su causa en una dimensión, invisible para nosotros”. Dice que si conocemos y comprendemos los Mecanismos Cuánticos el Milagro se convierte en un hecho científico ya que es susceptible de ser estudiado y controlado.
La Dra. Thelma Moss en 1975 estudió mecánica cuántica y entre otras cosas investigó la secuencia del estudio científico de la variación de campo electromagnético de un mismo individuo realizado en el Departamento de Neuro_Psiquiatría de la Universidad de California. Hicieron varias fotografías con la cámara Kirlian y la fotografía en estado de relax de la yema de un dedo aparecía de color azul y el sentimiento de rabia en su máxima expresión da rojo.
El organismo va enfermando cuando está vibrando en baja frecuencia (roja). Rabia, miedo, resentimiento depresión y tristeza son causantes de gran cantidad de enfermedades.
Feibert y Thelma Moss Jefe del departamento de Neuro-psiquiatría de la Universidad de Ucla Trabajaron en un caso de leucemia en 1988:Fotografiaron el dedo del paciente con cámara Kirlian y aparecía opaco y color amarillento
Le hicieron un tratamiento energético conforme a los principios de Mecánica Cuántica.
La primera semana ya aparecían unos pequeños puntitos azules, tras 7 días de imposición de manos.
La 2ª se observaba en la fotografía como la energía amarilla se desplazaba a los extremos y en el centro aparecía energía azulacea.
Tras cinco semanas de tratamiento con proyecciones mentales de luz violeta y el intenso sentimiento de amor el paciente presentaba una intensa luz azul en la imagen Kirlian, estaba curada y en principio era un caso desahuciado por la medicina oficial. El tratamiento duró siete semanas
Pensamientos y emociones positivas nos ayudarán a matener nuestra energía equilibrada.
En un estudio psiquiatrico que hicieron a un paciente con personalidad múltiple. Se comprobó que la química de su cuerpo cambiaba con el cambio de personalidad. Se está trabajando en el poder manejar con la voluntad la salud y la prevención.
Nuestra mente es una estructura que pertenece al cuerpo bioléctrico y afirman que está separada del cerebro porque en algunos casos que han permanecido muertos por unos minutos y luego han sido reanimados por métodos artificiales dan detalles de las conversaciones que tuvieron los presentes mientras el cerebro del paciente no registraba actividad electrica.
El conocimiento de Mecanica Cuántica nos puede ayudar tengamos la religión que tengamos.
.
La mecánica cuántica en los alimentos: .
La Mecánica Cuántica de las galletas: Crean un modelo mecánico cuántico para ayudar a que los alimentos industriales tengan mejores cualidades nutritivas y organolépticas.
A veces creemos que las investigaciones que se hacen en ciencia básica son lejanas y que pocas veces tienen aplicación práctica, sobre todo cuando vienen de teorías que juzgamos exóticas, académicas o simplemente fundamentales.
La Mecánica Cuántica ya nos ha demostrado su utilidad en los dispositivos electrónicos de consumo, y más que lo hará conforme la miniaturización de los componentes de los microprocesadores y memorias se hagan cada vez más pequeños. Pero nunca pensaríamos que se podría aplicar a las galletas de nuestro desayuno.
Un alimento, como pueda ser una galleta, es algo complejo y sus atributos de sabor, olor y textura dependen en última instancia de las interacciones moleculares de sus componentes a lo largo de todo su proceso de fabricación.
Un grupo de investigadores liderados por Won bo Lee de UC Santa Barbara y del Centro de Investigaciones de Nestlé han investigado la física de la comida. Sus resultados pueden ayudar a la fabricación de alimentos más estables, nutritivos y más ricos en aromas y sabores.
Se han centrado en este caso en la interacción de los lípidos (grasas) con el agua, que son elementos vitales de la física de la estructura de los alimentos.
Los alimentos, además de saber bien, deben de cumplir funciones nutricionales saludables específicas. Están hechos de una gran variedad de componentes como proteínas, vitaminas, carbohidratos, etc, que dificultan su optimización estructural. Se puede llegar a pensar que, inspirándose en este trabajo mecánico cuántico publicado en Physical Review Letters, se podría conseguir ensamblar todos estos componentes en una estructura optimizada estable. Aunque los aspectos nutricionales no están relacionados directamente con la estructura del alimento, si queremos que estos alimentos se liberen en el organismo de manera adecuada, la estructura de la comida es una parámetro importante.
En el trabajo de investigación los autores han creado un modelo termodinámico que describe las fases o estados observados en una disolución acuosa de lípidos. Varios factores son responsables de las fases en este tipo de sistemas, que incluye la competición entre puentes de hidrógeno, entropía de lípidos, efectos hidrofóbicos, etc.
.
La mecánica cuántica en la computación: . 
En la computación cuántica, a diferencia de la computación actual donde cada bit puede estar en un estado discreto y alternativo a la vez, la unidad fundamental de almacenamiento es el bit cuántico, donde cada bit cuántico puede tener múltiples estados simultáneamente en un instante determinado, así reduciendo el tiempo de ejecución de algunos algoritmos de miles de años a segundos.
La computación cuántica está basada en las interacciones del mundo atómico, y tiene elementos como el bit cuántico, las compuertas cuánticas, los estados confusos, la tele transportación cuántica, el paralelismo cuántico, y la criptografía cuántica. Una arquitectura cuántica, muy aceptada entre los investigadores y orientada a ser compatible con las actuales arquitecturas, cuenta con memoria y una unidad de procesamiento aritmético/lógico, y con elementos cuánticos como la tele transportadora de código y el planificador dinámico. Su avance teórico ha sido muy exitoso, aún así, su realización depende de la futura implementación de una computadora desarrollan los fundamentos y los elementos básicos que conforman la computación cuántica. También se presenta una arquitectura cuántica muy aceptada entre los investigadores que desde un principio han orientado sus investigaciones hacia lograr una arquitectura compatible con las actuales, de ahí que esta tiene muchas semejanza con las arquitecturas existentes, con elementos propios de la computación cuántica.
La comunidad científica dedicada a investigar tópicos en el ámbito de la computación cuántica, ha logrado enormes avances teóricos, al demostrar que es posible reducir drásticamente los recursos computacionales requeridos en la ejecución de algoritmos. Algunos de esos algoritmos requieren un inmenso poder de cómputo aún en las computadoras más avanzadas de la actualidad. Algunos algoritmos matemáticos como la búsqueda de los factores de números primos, algoritmos de manejo de información como la búsqueda en bases de datos no ordenadas; han sido teóricamente desarrollados con mucho éxito, utilizando los fundamentos de la computación cuántica.
La teoría de la computación cuántica esta basada en las interacciones del mundo atómico y en futuras implementaciones de las computadoras cuánticas. Estas aún están en los laboratorios de investigación pero ya se tienen resultados alentadores, como el desarrollo de la computadora cuántica de cinco qubits desarrollado por Steffen.
Hay que destacar que en 1980 surgieron los primeros conceptos de computacion cuántica, con avances que precisaron la idea en 1994, gracias al agoritmo-cuantico lógico desarrollado por Peter Shor. El siguiente paso a los ordenadores es una red que los comunique y los mientras nadie a logrado construir un ordenador cuantico, recientemente han logrado construir una puerta lógica cuántica en fibra óptica.
. 
La mecánica cuántica en la internet: .
Aunque en la actualidad el objetivo y proceso es claro, nadie ha podido diseñar un método práctico para construir un ordenador cuántico. Prem Kumar (profesor de ingeniería eléctrica en la Universidad de Northwestern) ha dado un paso importante para hacer más práctica la computación cuántica y más tangible la idea de una futura Internet cuántica con una puerta lógica cuántica en una fibra óptica.
¿En qué se diferencian la Internet actual con una cuántica? Básicamente en que una red cuántica sería capaz de romper los límites de la comunicación por Internet. Hemos leído varias veces que la capacidad de la red de redes podría colapsar, que las velocidades enfrentarían cuellos de botella y que deberíamos olvidarnos del streaming de vídeos en el futuro. Una Internet cuántica podría solucionar todos estos problemas.
En Internet, la comunicación se lleva a cabo a través de pulsos de luz. La saturación de información y conexiones hace que esos pulsos se vuelvan cada vez más débiles, alcanzando un límite en lo que puede lograr. La mecánica cuántica describe que un fotón (unidad de luz indivisible) puede pasar por dos caminos diferentes a la vez. Con la ayuda de una memoria cuántica (detectar y almacenar la información en átomos), una Internet cuántica derribaría las limitaciones actuales de transferencias.
La computación cuántica es un paradigma que busca superar las limitaciones y velocidades de los ordenadores actuales. Mientras un ordenador común responde a leyes físicas clásicas, un ordenador cuántico opera con un fenómeno físico único de la mecánica cuántica que le permite procesar la información de una forma fundamentalmente nueva.
Los avances tecnológicos han permitido que los microchips cada vez sean más pequeños y que contengan más transistores para aumentar la velocidad de procesado. Sin embargo, este avance tiene un límite, pues existe un punto (escalas nanométricas) en que los electrones ya no pueden circular por los canales correctos y el chip deja de funcionar. Si existe un límite en el tamaño a manipular el único sentido en que se puede seguir es aumentar los valores de procesado en un mismo espacio.
Los ordenadores tradicionales trabajan a nivel de voltajes eléctricos. Un bit es una unidad de información representada como 0 ó 1 equivalente a si la corriente es verdadera o falsa. En la computación digital, un bit puede tomar sólo 2 valores, pero en la computación cuántica ese valor es exponencial. En un ordenador cuántico, trabajando a nivel de cuanto y acorde a las leyes de la mecánica cuántica, el qubit no es binario, sino que tiene más bien una naturaleza cuaternaria. Un qubit existe como cero, como uno y simultáneamente tanto como 0 y como 1, con un coeficiente numérico representando la probabilidad de cada estado. Esto se traduce a que un ordenador cuántico de 30 qubits equivaldría a un procesador de 10 teraflops.
Así, el uso de qubits puede dar lugar a nuevas puertas lógicas dando origen a nuevos algoritmos, permitiendo la resolución de tareas que pueden resultar demasiado complejas para los ordenadores actuales. La computación cuántica promete resolución de problemas instantáneos y una seguridad de transmisión de datos virtualmente perfecta. Un ordenador súper capaz que se comunica con el resto a gran velocidad y sin comprometer la información.
El trabajo de Plem Kumar no sólo representa un avance en el desarrollo de una Internet cuántica, sino que también sienta una base en la implementación práctica de ordenadores cuánticos. Las puertas lógicas reciben información, desarrollan una operación lógica y producen un resultado. Una puerta lógica cuántica es un componente fundamental en un ordenador cuántico, y crearla en abre todo un espectro de posibilidades. La puerta podría ser parte del circuito que pase información de forma segura a través de cientos de kilómetros de fibra. Podría llevar a redes distribuidas, como es la comunicación cuántica a larga distancia entre dos ordenadores cuánticos. En resumen, una Internet cuántica. Tal como dice Seth Lloyd (profesor de ingeniería mecánica en el MIT), “una red tal tendría poderes que no tiene la Internet actual. Particularmente, la comunicación a través de una Internet cuántica sería automáticamente segura”. Mayor velocidad, mayor capacidad, mayor seguridad. Una Internet perfecta.
.
La mecánica cuántica en la gravedad: .
La gravedad cuántica es el campo de la física teórica que procura unificar la teoría cuántica de campos, que describe tres de las fuerzas fundamentales de la naturaleza, con la relatividad general, la teoría de la cuarta fuerza fundamental: la gravedad. La meta es lograr establecer una base matemática unificada que describa el comportamiento de todas las fuerzas de las naturalezas, conocida como la Teoría del Campo Unificado.
Una teoría cuántica de la gravedad debe generalizar dos teorías de supuestos y formulación radicalmente diferentes:
La teoría cuántica de campos que es una teoría no determinista (determinismo científico) sobre campos de partículas asentados en el espacio-tiempo plano de la relatividad especial (métrica de Minkowski) que no es afectado en su geometría por el momento lineal de las partículas.
La teoría de la relatividad general que es una teoría determinista que modela la gravedad como curvatura dentro de un espacio-tiempo que cambia con el movimiento de la materia y densidades energéticas.
Las maneras más obvias de combinar mecánica cuántica y relatividad general, sin usar teorías de gauge, tales como tratar la gravedad como simplemente otro campo de partículas, conducen rápidamente a lo que se conoce como el problema de la renormalización. Esto está en contraste con la electrodinámica cuántica y las otras teorías de gauge que son en general renormalizables y donde el cálculo perturbativo mediante diagramas de Feynman pueden ser acomodados para dar lugar a resultados finitos, eliminando los infinitos divergentes asociados a ciertos diagramas vía renormalización.
. La mecánica cuántica en la electrodinámica: .
La electrodinámica cuántica (QED acrónimo de Quantum Electrodynamics) es la teoría cuántica del campo electromagnético. QED describe los fenómenos que implican las partículas eléctricamente cargadas que obran recíprocamente por medio de la fuerza electromagnética.
La electrodinámica cuántica es una descripción detallada de la interacción entre fotones y partículas cargadas de tipo fermiónico. La teoría cuántica comparte ciertos rasgos con la descripción clásica. De acuerdo con la descripción de la óptica clásica la luz viaja sobre todos los caminos permitidos, y su interferencia determina los frentes de onda que se propagan de acuerdo con el principio de Fermat. Similarmente, en la descripción cuántica de los fotones (y los fermiones), estos pasan por cada camino posible permitido por aberturas o sistemas ópticos. En ambos casos el observador detecta simplemente el resultado matemático de la superposición de todas las ondas consideradas a lo largo de integrales de línea. Una diferencia es que en la electrodinámica la velocidad efectiva de un fotón puede superar la velocidad de la luz en promedio.1
Además QED fue la primera teoría cuántica del campo en la cual las dificultades para construir una descripción completa de campos y de creación y aniquilación de partículas cuánticas, fueron resueltas satisfactoriamente.
.
La mecánica cuántica en la espuma cuántica: .
La espuma cuántica, también referida como espuma espaciotemporal, es un concepto relacionado con la mecánica cuántica, concebido por John Wheeler en 1955. La espuma sería supuestamente la fundación del tejido del universo, pero también se utiliza el término como una descripción cualitativa de las turbulencias del espacio-tiempo subatómico, que tienen lugar a distancias extremadamente pequeñas, del orden de la longitud de Planck. En esta escala de tiempo y espacio, el principio de incertidumbre permite que las partículas y la energía existan brevemente, para aniquilarse posteriormente, sin violar las leyes de conservación de masa y energía. Puesto que la escala de espacio y tiempo se ve reducida, la energía de las partículas virtuales se ve incrementada, y puesto que la energía curva el espacio-tiempo, de acuerdo a la teoría de la relatividad general de Einstein, esto sugiere que a escalas suficientemente pequeñas, la energía de las fluctuaciones sería suficientemente elevada para causar salidas significativas de dicha energía desde el espacio-tiempo liso visto desde una escala mayor, lo que le daría al entramado espaciotemporal un carácter "espumoso". Sin embargo, sin una teoría completa de la gravedad cuántica, es imposible saber cómo se apreciaría el espacio-tiempo a estas escalas, ya que se piensa que las teorías existentes no podrían hacer predicciones muy precisas en este contexto.
.
La mecánica cuántica en las investigaciones del agua: .
La ecuación de Schrödinger, uno de los fundamentos de la teoría de la mecánica cuántica, ha desvelado el funcionamiento de las moléculas del agua gracias al uso de un conjunto de ordenadores superpotentes. Formada por dos átomos de hidrógeno y por uno de oxígeno, se cree que el secreto de las propiedades de este líquido tan común como misterioso radica en la capacidad de sus moléculas para formar determinados enlaces entre los átomos de hidrógeno. El desarrollo de este nuevo modelo informático podría tener múltiples aplicaciones, y quizá resuelva determinadas cuestiones como la razón por la que el agua, en estado sólido (hielo), no se hunde dentro de sí misma.
Esencial para todas las formas de vida, y objetivo eterno de estudio, el agua es una sustancia con algunos misterios que aún no han podido ser revelados, al menos desde la física clásica.
El acercamiento a este extraño elemento constitutivo, sin embargo, desde la perspectiva de la física cuántica (desde la ecuación de Schrödinger para ser más exactos), y gracias al uso de un conjunto de ordenadores superpotentes, ha revelado la estructura subyacente del conjunto de moléculas aparentemente sencillas del agua, que están formadas “tan sólo” por dos átomos de hidrógeno y uno de oxígeno.
El logro lo ha alcanzado un equipo de científicos de la universidad norteamericana de Delaware y de la Radboud University de Holanda, que han desarrollado un nuevo método para desvelar las propiedades ocultas del agua, y sin necesidad de concienzudos experimentos de laboratorio: simplemente, informática.
.
Principios fundamentales .
Y es que, en teoría, toda la química y la física de la materia a escala macroscópica podría ser descrita íntegramente por una enorme ecuación de Schrödinger aplicable a más de 10 elevado a 23 átomos de una unidad de materia.
Utilizar esta ecuación y aplicarla de manera eficaz es actualmente posible gracias al uso de ordenadores con una capacidad de cálculo superpotente, que permitirían comprender algunas de las enigmáticas propiedades del agua. Este tipo de herramienta informática de análisis ya se ha aplicado en otros campos, como la meteorología y la mecánica celeste.
Los resultados de la investigación han sido publicados por la revista Science y han sido explicados en un comunicado de la universidad de Delaware. La investigación ha estado liderada por el profesor de física y astronomía de dicha universidad, Krzysztof Szalewicz, que ha colaborado con Robert Bukowski, de la Cornell University, y Gerrit Groenenboom y Ad van der Avoird, del Institute for Molecules and Materials de la Redbud University.
.
Conclusión .
La Mecánica Cuántica no sólo nos permitió la comprensión de los átomos, sino que también introdujo un nuevo universo de conceptos e ideas, muchos de los cuales a primera vista eran descabellados. Sin embargo todas las predicciones de la Mecánica Cuántica han sido confirmadas, incluso aquellas que parecían en total contradicción con el sentido común. No solamente amplió nuestra visión intelectual o filosófica de la realidad. También permitió el desarrollo tecnológico en el cual nos encontramos inmersos en estos días. Así fue posible realizar estudios microscópicos de los materiales con una nueva disciplina, la que se llamó Física del Estado Sólido o Física del Sólido.
La Física del Sólido es la base del desarrollo tecnológico del siglo XX. Por ejemplo, es prácticamente imposible imaginarse las telecomunicaciones modernas sin dispositivos cuyas bases no se encuentren en la Mecánica Cuántica. Un teléfono portátil, por ejemplo, tendría el tamaño de una casa, difícilmente posible de llevárselo al oído. Sin la Mecánica Cuántica habrían muy limitadas comunicaciones internacionales, significaría habernos quedado con el telégrafo de los símbolos de Morse y no existiría la Internet, el correo electrónico, el contacto con bibliotecas internacionales, etc. El mundo actual sería mucho más primitivo y atrasado.
Por otra parte hizo posible el avance de la medicina, con la infinidad de instrumentos nuevos que permiten diagnósticos y tratamientos mucho más simples y precisos. Baste mencionar aquí el láser, el scanner, los equipos de resonancia magnética nuclear, los rayos X, etc. todos los cuales no existirían sin este conocimiento básico.
Por otra parte la Mecánica Cuántica es la teoría mejor comprobada experimentalmente enla historia de la Ciencia: no da razones últimas de por qué la Naturaleza es como parece ser, o de si podría ser de otra forma, pero reproduce correctamente los comportamientos observados. Aunque algunas de sus características desafíen al sentido común, no contiene contradicciones, es compatible con todos los resultados experimentales conocidos, y ha permitido numerosas predicciones sobre nuevos fenómenos que hasta ahora siempre se han confirmado. Ello no la convierte en un dogma indiscutible, pero tampoco es una mera construcción social o un simple consenso entre quienes se dedican a ella, como mantienen los sociologos postmodernos y de constructivistas respecto a las ciencias de la naturaleza en general, negando su caracter objetivo. pregunta “¿onda o partícula?”, la respuesta ortodoxa es “a veces onda y a veces partícula”, mientras que en la teoría de de Broglie-Bohm es onda y partícula en todo momento.
Las leyes físicas no son simples convenciones sociales entre los físicos en un momento histórico dado, sin más elementos objetivos que los que se dan en similares consensos en las humanidades, el Arte o la Política, donde los criterios cambian y lo mayoritariamente.
La Mecánica Cuántica tampoco es un sistema puramente matemático depostulados y teoremas sometidos sólo a su consistencia lógica interna: es una teoría de la Naturaleza experimentalmente falsable. En cualquier momento puede aparecer nueva evidencia experimental que obligue a rechazarla o almenos modificarla. En concreto, sigue habiendo dificultades para compatibilizarla con la Relatividad General, y existen indicios de que a distancias del orden de la llamada longitud de Planck, 1.6 ×10 −35m, mucho más pequeñas que las alcanzadas hasta el presente, la estructura del espacio tiempo puede ser muy distinta de la considerada hasta ahora, exigiendo un nivel más profundo de cuantificación (del propio espacio-tiempo e incluso de su topología). Aunque éste sea el final de esta contribución, ciertamente no hemos llegadoal Fin de la Historia de la Mecánica Cuántica.