Post on 13-Dec-2015
description
2.2 CEREBRO VS. MICROPROCESADOR
2.2.1 Cerebro VS. Microprocesador
La diferencia esencial entre el cerebro humano y las computadoras es en la
manera que se hace el procesamiento. Las computadoras modernas no son
más que versiones más jóvenes y eficientes que sus tatarabuelas, las
calculadoras. El otro problema de las computadoras es que el procesador y
la memoria no están integrados, son componentes distintos. En el caso del
cerebro los dos están íntegramente compaginados.
Con base en las comparaciones es posible darnos cuenta que estamos lejos
de desarrollar computadoras que lleguen cerca del poder del cerebro
humano. Sin embargo, esto aún no es motivo para desanimar. Finalmente,
puede ser que con los avances de la nanotecnología, inteligencia artificial y
de las computadoras con ADN los estudiosos puedan quebrar las barreras
del modelo computacional actual.
2.2.2 Cerebro
Es común que comparemos a la computadora con el cerebro humano. Y
parece que estas analogías quedaron más serias después de 1997, cuando
la computadora IBM Deep Blue le ganó al campeón mundial de ajedrez Garry
Kasparov en un partido de seis juegos, siendo que tres de estos resultaron
en empate.
A pesar de que la computadora sea un invento del cerebro, es indiscutible
que, en ciertos contextos, el invento supere al inventor. Actualmente,
computadoras son capaces de hacer cálculos y de trabajar para nosotros a
una velocidad asombrosa, sin caída de productividad o amenaza de
aburrimiento. Sin embargo, al mismo tiempo, estos “cerebros” no son tan
potentes o inteligentes como los que cargamos en nuestras cabezas.
La velocidad de procesamiento del cerebro humano no puede ser medida de
la misma manera como hacemos con las CPUs usadas en nuestras
computadoras. Sin embargo, es posible estimar este valor con base al
funcionamiento de la retina, el tejido nervioso del ojo responsable,
literalmente, por la visión que tenemos del mundo.
De acuerdo con el conocimiento actual de la estructura y el funcionamiento
de la retina humana, científicos establecieron que ésta es capaz de procesar
lo equivalente a diez imágenes de un millón de puntos por segundo. Y al
comparar el volumen de esta parte del ojo con la del cerebro humano,
estudiosos llegaron a la conclusión de que el cerebro posee 100 millones de
MIPS (Millones de Instrucciones Computacionales por Segundo).
Claro que, a pesar de que estas sean informaciones curiosas, no se puede,
simplemente, comparar al cerebro humano con un procesador. Es fácil darse
cuenta que la “arquitectura” de nuestro órgano es más compleja que la de
una CPU y que trata las tareas de manera diferente.
Pero ¿cuál sería el espacio disponible para el almacenamiento de
informaciones en nuestro cerebro? Finalmente, si pasamos años de nuestras
vidas aprendiendo cosas nuevas en la escuela y en el día a día, ¿será que
nuestra “memoria interna” nunca se agota?
De acuerdo con Robert Birge, de la Universidad de Siracusa, el cerebro
humano es capaz de guardar de 1 a 10 TB de informaciones, siendo que 3
TB sería la media más común. Esta estimativa fue realizada en 1996 y usó
como base la cuenta de neuronas, asumiendo que cada uno de estos fuera
capaz de almacenar 1 bit.
2.2.3 La Computadora
La computadora no es nada inteligente. Por más veloz que sea, está limitada
a ejecutar sólo la tarea para la que fue programada. Ésta, sin embargo, es
una de las desventajas que también tienen su lado bueno.
Al mismo tiempo que está limitada al algoritmo que debe ser ejecutado, la
máquina puede realizar la misma tarea durante horas y a una velocidad
constante, sin que te aburras o entres en cuestionamientos filosóficos sobre
la vida, el universo y todo lo demás.
La entrada y la salida de un microprocesador necesitan ser multiplexadas.
Esto significa que la CPU debe ser capaz de recibir datos de diversos
canales y procesarlos simultáneamente. De esta manera, la computadora es
capaz de dividir su tiempo con los incontables dispositivos adjuntados, como
cámara, tarjeta de memoria, parlantes e impresora.
Si el cerebro humano funcionara de esta manera, podrías realizar sólo una
tarea de cada vez: tendrías que mirar hacia un paisaje y sólo después pensar
sobre este, por ejemplo. Pero felizmente el cerebro funciona de manera
semejante a la computación paralela, siendo que las neuronas hacen el
papel de microprocesadores que trabajan en conjunto. Y a diferencia de un
sistema computacional común, el cerebro posee un bajo consumo de energía
y dispensa sistemas de refrigeración.
2.2.4 Microprocesador
El microprocesador es un circuito electrónico que actúa como unidad
central de proceso de un ordenador, proporcionando el control de las
operaciones de cálculo. Podríamos decir de él que es el cerebro del
ordenador. Los microprocesadores también se utilizan en otros sistemas
informáticos avanzados, como impresoras, automóviles o aviones.
Un microprocesador no es un ordenador completo. No contiene grandes
cantidades de memoria ni es capaz de comunicarse con dispositivos de
entrada —como un teclado, un joystick o un ratón— o dispositivos de salida
como un monitor o una impresora. Un tipo diferente de circuito integrado
llamado micro controlador es de hecho una computadora completa situada
en un único chip, que contiene todos los elementos del microprocesador
básico además de otras funciones especializadas. Los micro controladores
se emplean en videojuegos, reproductores de vídeo, automóviles y otras
máquinas.
2.3 Las 10 diferencias importantes entre cerebros y computadoras
Aunque la metáfora cerebro de computadora ha servido bien a la psicología
cognitiva, la investigación en neuro-ciencias cognitivas ha revelado muchas
diferencias importantes entre los cerebros y las computadoras. Apreciar
estas diferencias podría ser crucial para comprender los mecanismos de
procesamiento neural de la información, y en última instancia para la
creación de una inteligencia artificial. Abajo, examino las más importantes de
estas diferencias (y las consecuencias para la psicología cognitiva si deja de
reconocerlas).
2.3 .1 Los cerebros son análogos; las computadoras son digitales
Es fácil pensar que las neuronas son esencialmente binarias, ya que
disparan un potencial de acción si llegan a cierto umbral, que de otra manera
no disparan. Esta semejanza superficial al digital "1 y 0" oculta una amplia
variedad de procesos continuos y no lineales que influyen directamente en el
procesamiento neuronal.
Por ejemplo, uno de los principales mecanismos de la transmisión de la
información parece ser el ritmo en que las neuronas transmiten el impulso
nervioso, una variable esencialmente continua. De manera similar, las redes
de neuronas pueden disparar en relativa sincronía o en relativo desorden;
esta coherencia afecta la potencia de las señales recibidas por las neuronas
corriente abajo. Al final, dentro de todas y cada una de las neuronas hay un
circuito integrador en colador, compuesto por una variedad de canales
iónicos y membranas en continua fluctuación de potencial.
La imposibilidad de reconocer estas importantes sutilezas puede haber
contribuido al notorio error de caracterización de los perceptrones de Minksy
& Papert, una red nerviosa sin una capa intermedia entre la recepción y la
salida. En las redes lineales, cualquier función computada por una red de
tres capas también puede ser computada por una red de dos capas
adecuadamente ordenada. En otras palabras, se pueden modelar con
precisión combinaciones de funciones lineales múltiples mediante una única
función lineal. Porque sus simples redes de dos capas no pudieron resolver
muchos problemas importantes, Minksy & Papert razonaron que esas redes
más grandes tampoco podrían. Por otra parte, los cálculos realizados por
redes más ajustadas a la realidad (por ejemplo, no lineales) son altamente
dependientes de la cantidad de capas, por lo tanto, los "perceptrones"
subestiman tremendamente la potencia computacional de las redes
nerviosas.
2.3 .2 El cerebro usa una memoria de contenido direccionable
En las computadoras, se accede a la información en la memoria buscando su
preciso lugar en la memoria. Esto es conocido como memoria byte-
direccionable. Por contraste, el cerebro usa una memoria de contenido
direccionable, de modo tal que la información puede ser accedida en la
memoria a través de una "activación difusa" desde conceptos relacionados.
Por ejemplo, pensar en la palabra "zorro" puede activar automática y
difusamente los recuerdos relacionados con otros animales inteligentes, con
jinetes a caballo cazando zorros, o miembros atractivos del sexo opuesto.
El resultado final es que su cerebro tiene una especie de "Google
incorporado", donde apenas unas pistas (palabras clave) son suficientes para
provocar la recuperación de un recuerdo completo. Por supuesto, se pueden
hacer cosas similares en las computadoras, principalmente con el desarrollo
de enormes índices de los datos almacenados, que luego también tienen que
ser almacenados y buscados para encontrar información relevante (a
propósito, casi es lo que Google hace, con algunos trucos).
Aunque ésta podría parecer una diferencia menor entre las computadoras y
los cerebros, tiene profundos efectos en el cálculo neural. Por ejemplo, un
prolongado debate en la psicología cognitiva trataba sobre si se perdía la
información de la memoria por simple decadencia o por la interferencia de
otra información. En retrospectiva, este debate está parcialmente basado en
la falsa suposición de que estas dos posibilidades están separadas, como
puede ocurrir en las computadoras. Ahora muchos se dan cuenta de que
este debate representa una falsa dicotomía.
2.3 .3 El cerebro es una enorme computadora paralela; las
computadoras son modulares y seriales
Un desafortunado legado de la metáfora cerebro-computadora es la
tendencia de los psicólogos cognitivos hacia buscar una característica
modular en el cerebro. Por ejemplo, la idea de que las computadoras
necesitan memoria ha conducido a algunos a buscar el "área de la memoria",
cuando de hecho estas diferencias son mucho más confusas. Una
consecuencia de esta simplificación excesiva es que recién ahora estamos
aprendiendo que las regiones de "memoria" (como los hipocampos) son
también importantes para la imaginación, la representación de objetivos
nuevos, la navegación espacial, y otras y diversas funciones.
De manera similar, uno podría imaginar que hay un "módulo del lenguaje" en
el cerebro, como lo podría haber en las computadoras con programas de
procesamiento de lenguaje natural. Los psicólogos cognitivos incluso
afirmaron haber encontrado este módulo, sobre la base de pacientes con
daños en una región cerebral conocida como el Área de Broca. Evidencias
más recientes han mostrado que el lenguaje también es computado por
circuitos nerviosos ampliamente distribuidos y de dominio general, y que el
Área de Broca también podría estar involucrada en otros cálculos.
2.3 .4 La velocidad de procesamiento cerebral no es fija; no hay ningún
reloj de sistema
La velocidad de procesamiento de la información neural está sujeta a una
variedad de límites, incluyendo el tiempo que usa una señal electro-química
para cruzar axones y dendritas, la mielinación axonal, el tiempo de difusión
de los neuro-transmisores a través de la fisura sináptica, las diferencias en la
eficiencia sináptica, la coherencia del disparo nervioso, la actual
disponibilidad de neuro-transmisores, y la historia previa de disparos
nerviosos. Aunque hay diferencias individuales en algo que los
psicometristas llaman "velocidad de procesamiento", no refleja un concepto
monolítico o unitario, e indudablemente nada tan concreto como la velocidad
de un microprocesador. En cambio, la "velocidad de procesamiento"
psicométrico probablemente ponga un índice a una heterogénea
combinación de todas las limitaciones de velocidad mencionadas más arriba.
De forma similar, no parecer haber ningún reloj central en el cerebro, y existe
una discusión respecto a qué tan parecidos a un reloj son en realidad los
dispositivos que mantienen el tiempo en el cerebro. Para usar sólo un
ejemplo, a menudo se cree que el cerebelo calcula la información
involucrando un cronometraje preciso, como el requerido para los delicados
movimientos de un motor; sin embargo las evidencias recientes sugieren que
el tiempo en el cerebro tiene más semejanza con las olas en una laguna que
con un reloj digital corriente.
2.3 .5 La memoria a corto plazo no es como la RAM
Aunque la aparente semejanza entre la RAM y la memoria a corto plazo o
"de trabajo" envalentonaron a muchos de los primeros psicólogos cognitivos,
un examen más minucioso revela sorprendentes e importantes diferencias.
Aunque la RAM y la memoria a corto plazo parecen necesitar energía (un
disparo nervioso en el caso de la memoria a corto plazo, y electricidad en el
caso de la RAM), la memoria a corto plazo parece contener sólo
"apuntadores" a la memoria a largo plazo, mientras que la RAM contiene
datos que son isométricos a los que contiene el disco duro. (Vea aquí más
sobre "apuntadores de atención" en la memoria a corto plazo).
A diferencia de la RAM, la capacidad límite de la memoria a corto plazo no es
fija; la capacidad de la memoria a corto plazo también parece fluctuar con las
diferencias en la "velocidad de procesamiento" (ver diferencia #4) así como
con la experiencia y el conocimiento.
2.3 6 Diferencia #6: No se puede hacer ninguna distinción entre equipo
y software con respecto al cerebro o la mente
Durante años, fue tentador imaginar que el cerebro era el equipo donde un
"programa mental" o "software mental" es ejecutado. Esto dio origen a una
variedad de modelos abstractos -parecidos a programas- de la cognición,
donde los detalles de cómo ejecutaba el cerebro ejecutaba en realidad esos
programas eran considerados irrelevantes, de la misma manera que un
programa Java puede lograr la misma función que un programa C++.
Por desgracia, esta atractiva distinción entre equipo y software oscurece un
hecho importante: la mente emerge directamente del cerebro, y los cambios
de opinión son siempre acompañados por cambios en el cerebro. Cualquier
descripción abstracta del procesamiento de la información siempre
necesitará especificar cómo la arquitectura nerviosa puede implementar esos
procesos, de otro modo los modelos cognitivos son excesivamente forzados.
Algunos culpan a este malentendido por el notorio fracaso la "IA simbólica".
2.3 .7 Las sinapsis son mucho más complicadas que las puertas
lógicas eléctricas
Otra característica perjudicial de la metáfora cerebro-computadora es que
parece sugerir que los cerebros también pueden funcionar a base de señales
eléctricas (potenciales de acción) que viajan a lo largo de puertas lógicas
individuales. Por desgracia, esto es sólo una media verdad. Las señales que
son propagadas a lo largo de los axones son en realidad de naturaleza
electro-química, y significa que viajan mucho más despacio que las señales
eléctricas en una computadora, y que pueden ser moduladas de
innumerables maneras. Por ejemplo, la transmisión de una señal no sólo
depende de las llamadas "puertas lógicas" de la arquitectura sináptica sino
también de la presencia de una variedad de químicos en la fisura sináptica,
de la relativa distancia entre sinapsis y dendritas, y muchos otros factores.
Esto se suma a la complejidad del procesamiento que tiene lugar en cada
sinapsis, y es por lo tanto profundamente equivocado pensar que las
neuronas funcionan simplemente como transistores.
2.3 8 A diferencia de las computadoras, el procesamiento y la memoria
son llevados a cabo por los mismos componentes en el cerebro
Las computadoras procesan la información de la memoria usando una CPU,
y luego vuelven a escribir los resultados de ese procesamiento en la
memoria. No existe tal diferencia en el cerebro. Mientras las neuronas
procesan la información, también están modificando sus sinapsis, que son en
sí mismas el lugar se asiento de la memoria. Por consiguiente, la
recuperación de memoria siempre modifica ligeramente esos recuerdos. (Por
lo general los hacen más fuertes, pero a veces menos exactos.
2.3 .9 El cerebro es un sistema auto-organizado
Este punto resulta naturalmente del punto previo; la experiencia da forma
profunda y directamente a la naturaleza del procesamiento de la información
neural de una manera que simplemente no ocurre en los microprocesadores
tradicionales. Por ejemplo, el cerebro es un circuito de auto-reparación; algo
conocido como "plasticidad inducida por un trauma" se pone en
funcionamiento después de una lesión. Esto puede conducir a una variedad
de cambios interesantes, incluyendo algunos que parecen revelar un
potencial sin uso en el cerebro (conocido como savantismo adquirido), y
otros que pueden resultar en una profunda disfunción cognitiva (como es por
desgracia mucho más típico en las lesiones cerebrales traumáticas y en los
trastornos del desarrollo).
En el campo de la neuro-psicología tenemos una consecuencia del error al
reconocer esta diferencia, donde se examina el desempeño cognitivo de los
pacientes con lesión cerebral para determinar la función computacional de la
región dañada. Por desgracia, y por una pobre comprensión de la naturaleza
de la plasticidad inducida por trauma, la lógica no puede ser tan sencilla.
Problemas similares subyacen los trabajos sobre los trastornos del desarrollo
y sobre el nuevo campo de la "genética cognitiva", donde las consecuencias
de la auto-organización nerviosa son frecuentemente ignoradas.
2.3 .10 Los cerebros tienen cuerpos
Esto no es tan trivial como podría parecer; resulta que el cerebro toma
sorprendentes ventajas del hecho de que tiene un cuerpo a su disposición.
Por ejemplo, a pesar de su sensación instintiva que podría cerrar los ojos y
saber la ubicación de los objetos a su alrededor, una serie de experimentos
en el campo de la ceguera ha mostrado que nuestra memoria visual es en
realidad muy escasa. En este caso, el cerebro "descarga" sus necesidades
de memoria al ambiente en donde existe: ¿por qué molestarse en recordar la
ubicación de los objetos cuando un vistazo será suficiente? Un sorprendente
conjunto de experimentos realizados por Jeremy Wolfe ha mostrado que
incluso después de preguntar cientos de veces qué formas geométricas
simples se ven en una pantalla de computadora, los sujetos continúan
respondiendo a esas preguntas por la vista y no de memoria. Una amplia
variedad de evidencia de otros dominios sugiere que apenas estamos
empezando a comprender la importancia del cuerpo en el procesamiento de
la información.
el sistema operativo más rápido. En la esquina roja, tu cerebro: un modelo
clásico con pocas variaciones de fábrica y disponible solamente en color gris.
¿Quién gana?
El cerebro humano es la computadora más eficiente y sofisticada que existe.
Esto no es debido a su capacidad de procesamiento sino a la manera en que
procesa la información y la cantidad de cosas que hace en relación a su
tamaño y consumo de energía, que no sobrepasa la de un bombillo de 20
watts y pesa y ocupa menos espacio que la mayoría de las laptops.
2.4 Velocidad de transmisión
2.4.1 Introducción
La velocidad de transmisión es la relación entre la información transmitida a
través de una red de comunicaciones y el tiempo empleado para ello.
Cuando la información se transmite digitalizada, esto implica que está
codificada en bits (unidades de base binaria), por lo que la velocidad de
transmisión también se denomina a menudo tasa binaria o tasa de bits (bit
rate, en inglés).
La unidad para medir la velocidad de transmisión es el bit por segundo (bps)
pero es más habitual el empleo de múltiplos como kilobit por segundo (kbps,
equivalente a mil bps) o megabit por segundo (Mbps, equivalente a un millón
de bps).
Es importante resaltar que la unidad de almacenamiento de información es el
byte, que equivale a 8 bits, por lo que a una velocidad de transmisión de 8
bps se tarda un segundo en transmitir 1 byte.
2.4.2 Confusiones frecuentes sobre la velocidad de transmisión
La velocidad de transmisión a través de un canal de comunicaciones hace
referencia al número de bits transmitidos por unidad de tiempo, pero esto
incluye también la información contenida en las cabeceras de los protocolos
empleados para transmitir la información entre equipos.
Así pues, si la velocidad nominal de una conexión es de 100 bps y
empleamos un protocolo que utiliza tramas de 50 bits de los cuales 10
corresponden a la cabecera, la cantidad de información efectiva que
podremos enviar por segundo será de 80bps. Esta es la razón por la que
nunca podremos enviar datos a las velocidades nominales de las conexiones
que utilizamos (como los 100Mbps de una red Ethernet convencional o los
54Mbps de una red WiFi 802.11g)
Otra confusión frecuente proviene de la asimetría de muchas conexiones,
especialmente de los accesos de banda ancha. En general, las conexiones
ADSL o las de cable-modem ofrecen velocidades distintas de subida y de
bajada, con una relación de asimetría cercana a 1:10 favorable a las
descargas. Esto implica que el tiempo empleado en descargar una
información de la red será de unas 10 veces menos que el tiempo necesario
para enviar esa misma información.
Además, es frecuente que los operadores ofrezcan conexiones con
velocidades nominales más altas que las que perciben los usuarios, puesto
que la calidad de servicio está condicionada por un gran número de factores
tales como la tecnología empleada, las posibles interferencias, la atenuación
del medio de transmisión (dependiente muchas veces de la distancia a los
nodos o centrales telefónicas que proporcionan el servicio), etc.
2.4.3 Tipos
La velocidad de transferencia de datos puede ser constante o variable:
2.4.3.1 Tasa de bits constante
(CBR): Aplica una cuantificación uniforme, por lo que no tiene en cuenta si en
la señal hay zonas con mayor o menor densidad de información, sino que
cuantifica toda la señal por igual.
2.4.3.2 Tasa de bits variable
(VBR): Aplica una cuantificación no uniforme que sí que hace diferenciación
entre las zonas con mayor o menor densidad de información, por lo que la
cuantificación resulta más eficaz.
2.4.3.3 Ancho de banda
Para señales analógicas, el ancho de banda es la longitud, medida en Hz,
del rango de frecuencias en el que se concentra la mayor parte de la
potencia de la señal. Puede ser calculado a partir de una señal temporal
mediante el análisis de Fourier. También son llamadas frecuencias efectivas
las pertenecientes a este rango.
2.4.3.4 Baudio
El baudio (en inglés baud) es una unidad de medida, usada en
telecomunicaciones, que representa el número de símbolos por segundo en
un medio de transmisión digital. Cada símbolo puede codificar 1 o más bits
dependiendo del esquema de modulación.
2.4.3.5 Frecuencia de reloj
La frecuencia de reloj indica la velocidad a la que un ordenador realiza sus
operaciones más básicas, como sumar dos números o transferir el valor de
un registro a otro. Se mide en ciclos por segundo (hercios)
2.4.3.6 Throughput
Se llama throughput al volumen de trabajo o de información neto que fluye a
través de un sistema, como puede ser una red de computadoras.
Es particularmente significativo en almacenamiento de información y
sistemas de recuperación de información, en los cuales el rendimiento es
medido en unidades como accesos por hora.