Post on 05-Aug-2015
EL FUTURO DE LAS COMPUTACION
EDGAR FEDERICO MONTOYA BARBOSA
Informe Sobre El Futuro De La Computación
Profesor: ALFONSO CARO
SENA
CENTRO DE SERVICIOS FINANCIEROS
TECNICO EN SISTEMAS
BOGOTA
2011
EL FUTURO DE LA COMPUTACION
La idea subyacente bajo el término cloud computing es que las aplicaciones son Web (están
en la nube) y los datos están en la red.
De momento nada nuevo (de esto se lleva hablando durante años) excepto que es ahora
cuando este paradigma es realmente posible gracias al ancho de banda disponible y que
según los expertos supondrá el fin de la “computación personal” y de las aplicaciones de
escritorio.
La cloud computing alude también a las tecnologías de data centers masivos para hostear
estas aplicaciones y servicios Web. En este modelo la fuerza de cómputo puede estar
repartida entre diferentes computadores distribuidos por Internet. Las tecnologías de
virtualización y de gestión dinámica de recursos juegan aquí un importante papel.
Google e IBM son los líderes en esto, recientemente llegaron a un acuerdo con las
universidades de Stanford, Washington, Carnegie Mellon, MIT, UC-Berkeley y Maryland para
participar en un programa piloto consistente en montar unos Virtual Labs (los computadores
están físicamente situados en Google, IBM y en la Univ. de Washington) para ejecutar
aplicaciones.
Aluden a que actualmente Google y Apple están en Sillicon Valley definiendo el modelo de
computación del futuro. Apple trabajando en la parte de front-end (dispositivos e interfaces de
usuario) y Google en la parte de back-end (capacidad de cómputo y almacenamiento, para
soportar todas las aplicaciones a las que los usuarios accederán desde Internet). Las
aplicaciones en sí serán proporcionadas en su mayoría por terceros, pero muchas de ellas
serán costeadas por la infraestructura de Google.
Google además de las búsquedas y la publicidad está invirtiendo billones de dólares
(americanos) al año en la construcción de data centers para albergar las aplicaciones del
futuro. Microsoft le sigue a la zaga en un intento de no perder su puesto de líder en el mundillo
de la computación personal.
Computadoras quánticas.
En 1965, el presidente emérito y cofundador de Intel, Gordon E. Moore- ideólogo de la ley-, se
da cuenta de que el número de transistores que contiene un microchip se duplica aprox. Cada
año pero, esta progresión no es infinita.
La miniaturización de circuitos tiene un límite ya que el reducir tanto su tamaño hace que
produzcan demasiado calor. Por otra parte, a la escala nanométrica entran las leyes de la
física quántica al juego, en la que los electrones se comportan de una manera probabilística.
Algunos Físicos en 1982 empezó a gestarse una idea que parecía descabellada: construir una
computadora quántica, una maquina capaz de aprovecharse de las particulares leyes físicas
del mundo subatómico para procesar a gran velocidad ingentes cantidades de datos y, en
definitiva, hacer que las supercomputadoras actuales parezcan simples ábacos.
A diferencia de las computadoras personales que han sido diseñadas para que trabajen con
información en forma de bits una computadora básica usa bits quánticos o qubits, capaces de
registrar unos y ceros a la vez. Esto lo logran gracias a la una de las premisas fundamentales
de la mecánica quántica: la sobre posición, que indica que a escalas ínfimas un único objeto
puede tener al mismo tiempo dos propiedades distintas o pueda estar en dos sitios a la vez.
De esta forma la velocidad d cálculo aumenta enormemente.
Computadoras Ópticas:
Muy rápidas y baratas.
Kevin Homewood está al frente de un grupo de expertos de la universidad de Surrey,
Inglaterra, que cree que la clave se encuentra en la luz. Según estos investigadores, es
factible construir un dispositivo óptico de computación que se aproveche de la velocidad luz y
de su gran capacidad para transportar información. El problema al que se han enfrentado
estos científicos es que el silicio es con el que se fabrican microchips normalmente emite
energía calorífica, no luminosa. Para superarlo Homewood y sus colegas construyeron
trampas a escala atómica en el interior del silicio donde consiguieron atrapar electrones y
forzarlos a liberar energía lumínica. A parte de miniaturizar los chips y hacerlos más eficientes
este prototipo podrá funcionar a temperatura ambiente.
Computadoras basadas en el ADN
California Leonard Adleman sorprendió a la comunidad científica al solventar esta cuestión
utilizando una pequeña gota de un líquido que contenía ADN. Adleman ideo un método de
plantear el problema a partir de bases enfrentadas que forman hebras de la molécula del
ADN: A, C, T y G, las letras del abecedario genético. De esta forma, utilizando los mismos
patrones químicos que permiten que las bases se unan de una forma específica se identificó
la solución correcta en un tiempo record: había nacido la computadora de ADN.
Y no es algo para tomarse a la ligera, pues cada centímetro cúbico de ADN contiene más
información que un billón de CD. Pero, a pesar de que tiene esta memoria masiva y de que las
computadoras de ADN utilizarían una cantidad mínima de energía para funcionar, aún se
desconoce cómo hacer una maquina útil capaz de aprovechar todas estas ventajas.
Computadoras Neuroelectrónicas
En el instituto Maxplanck de bioquímica, cerca de Múnich, el profesor Peter Fromherz y sus
colaboradores han conseguido hacer que el silicio interactué con tejidos vivos. Esta
tecnología, conocida como neuroelectrónica, abre una vía de comunicaciones entre
computadoras y células. El primer “neurochip” ha consistido en fusionar y hacer que trabajen
juntos un microchip y las neuronas de un caracol. En el futuro, gracias a esta tecnología,
podrían lograrse implantes que como una neuroprótesis capaces de sustituir las funciones del
tejido dañado del sistema nervioso.