Post on 22-Mar-2016
description
Ilustración de equipo muestra un
nanotubo doblada en un anillo. Nanolitografía es
un método utilizado para crear las placas de
circuitos.
1 Nanolitografía (1999)
Los teléfonos celulares de hoy en día, las computadoras y los sistemas de
GPS no serían tan compactos como son, sin la técnica conocida como
nanolitografía, una rama de la ciencia Revolucionario de la nanotecnología.
Nanolitografía es una manera de manipular la materia a escala de átomos
individuales con el fin de crear las placas de circuitos para la variedad de
dispositivos electrónicos.
A través de la utilización de un microscopio de fuerza atómica, tamaño
átomo-nanomateriales como los nanocristales, nanocapas, y los nanotubos
están dispuestas en las estructuras. Esta nanotecnología, desarrollado en
1999 por Chard Mirkin, de la Universidad de Northwestern, ha permitido
que las placas de circuitos a ser mucho más pequeño. Esto, a su vez, ha
llevado al desarrollo de equipos tan pequeñas que podrían ser utilizados en
otras tecnologías de nanoescala, como la materia programable.
Hecho: Nanolitografía tiene sus fundamentos en la invención
del microscopio en 1590.
2 Nanotubos de carbón (1991)
En 1991, el físico japonés Sumio Iijima
descubrió los nanotubos de carbono,
considerado como uno de los
descubrimientos más importantes en la
historia de la física. Los nanotubos pueden
ser construidos por un método de
evaporación de arco, en el que se pasa una
corriente de 50-amp entre dos electrodos
de grafito en helio. Los resultados son los
nanotubos, que miden 3 a 30 nanómetros
de diámetro. Una de las sorprendentes
propiedades de los nanotubos de carbono
es su fuerza. Su resistencia a la tensión es
cinco veces la del acero, y su resistencia a la
tracción es de hasta 50 veces la del acero.
Los nanotubos de carbono también se
pueden utilizar como semiconductores.
Algunos nanotubos de conductividad es
mayor que la del cobre, por ejemplo.
Los científicos e ingenieros están buscando
formas de utilizar los nanotubos en la
industria de la construcción, así como en
aplicaciones aeroespaciales. Hoy en día, las
pantallas planas y algunos dispositivos de
detección ande microscopio incorporar
nanotubos de carbono. En el futuro muchos
artículos todos los días, desde casas a los
chips de ordenador, en las baterías de
coche – puede ser hecha de nanotubos de
carbono.
Los nanotubos de carbono se
componen de hojas de
laminados de los átomos de
carbono. Los tubos pueden
encontrar uso en pequeñas
Componentes eléctricos
3 La red informática mundial
La red informática mundial ha cambiado la vida para siempre por gusto millones
de computadoras en todo el mundo. A pesar de que los términos red informática
mundial y el internet se usan indistintamente, no son la misma cosa. El internet es
el sistema que une la red de información de la web. Es posible tener internet sin la
web, pero la web no puede existir sin internet.
El internet comenzó en 1962 como ASPARNET, una red de dos ordenadores
concebida por los militares de estados unidos. Que la red creció a más de un
millón de computadoras por 1992. En 1990 el científica informático británico Tim
Berners-lee invento la web, es decir.
4 BUCKYBALL (1985)
A principios de 1965 científicos predijeron la teoría existente de una molécula
hecha de múltiples átomos de carbón en forma de esfera o cilindro. Pero 20 años
más tarde Richard Smalley y otros profesores de Houston, Texas y profesores de
Sussex, Inglaterra se centraron en el láser, ellos generaron imitando
simétricamente y geométricamente, en esta notable semejanza hicieron
construcciones de ángulos. El arquitecto R. Buckminster llamo al nuevo
kminsterfullerene o buchyball para acortarlo. El recibió el premio novel en 1996.
Cada fullerene tenía tecnología implicada en moléculas. Análisis de buckyball hiso
entender la manipulación de hojas conductoras de calor y materiales de silicón
basado en dispositivos como computadoras, celulares y eléctricos similares.
El material también exhibe increíble resistencia a la tracción así prometiendo
nuevas posibilidades en arquitectura, ingeniería y diseños de avión.
En 1991 un investigador japonés Sumio Lijima descubrió un oblond versión de el
buckyball últimamente llamado nanotubo, estimulando la revolución de la
nanotecnología del siglo 21.
5 SISTEMA DE POSICION GLOBAL (1978)
Localizado alrededor de 12,00o miles de la tierra y viaja a una velocidad de 7,000
miles por hora, el satélite basado en el sistema de navegación fue lanzado en
1978 por estados unidos. Departamento de defensa para fines militares poco
después, los fabricantes de GPS sai's atienden reconocido su masa de mercado
potencial y clama por su uso como una aplicación civil. el departamento de
defensa cumplió con su petición en el decenio de 1980.
GPS, que es extremadamente preciso, funciona sobre el principio de
triangulación, mediante el la posición de un determinando objeto (una persona en
un coche, por ejemplo) es determinando por la distancia del objeto de cuatro
satélites en la red con un dispositivo que es comunicado. la red GPS, esta
compuesta por 24 satélites con 3 a la espera en caso de fracaso, y cada uno de
los satélites hace dos vueltas completas alrededor del planeta todos los días.
Así pues, ¿qué significa el futuro del GPS? para estar seguro, la red siguen siendo
más precisos y a una cada vez mayor de grano fino información de un lugar
determinado.los conductores que aún necesidad de tener sus ojos de la carretera
a mirar el dispositivo gps. pero eso puede cambiar. una empresa virtual call
decisiones sólidas está trabajando en una solución llamada virtual cable, que está
diseñado para ser integrado en un coche de whindshield. una línea roja que
parece seguir el paisaje guía al conductor a su destino.
6 Computadora personal (1977)
De acuerdo a la compañía NIelsen, más del 80 por ciento de los hogares estadounidenses tenía una computadora de escritorio en 2008, y de esos, aproximadamente un 90 por ciento tenía acceso a Internet. Ya se trate de un modelo de principios - como el Commodore PET (muy popular en las escuelas a finales de los 70s), el Apple II (uno de los primeros microcomputadores de gran éxito de producción masiva), y el PC de IBM (diseñado para reemplazar los dos primeros dispositivos en hogares) - o la última y mejor en máquinas, todos los equipos tienen los mismos componentes básicos. Una computadora se compone de una placa madre, un procesador, una unidad central de procesamiento, memoria, unidades de disco, un ventilador, y los cables. Se adjunta a la computadora son sus periféricos: el ratón, teclado, monitor, altavoces, impresora, escáner, etc. Estos componentes trabajan juntos para ejecutar el software: el sistema operativo y los programas adicionales, tales como un programa de procesamiento de texto, software de administración de dinero, o un software de edición de fotos.
Con el ordenador personal, la tecnología informática se puso a disposición del
público en general. Las computadoras eran no más grandes, piezas muy caras del
equipo que sólo las grandes corporaciones o agencias gubernamentales podían
pagar o científicos ordenadores sólo podían operar. Este importante desarrollo en
última instancia, dio a luz a nuevas industrias, cambiaron la forma de comunicarse,
e irrevocablemente alterado sus trabajos y sus vidas personales.
7 realidades aumentadas
A diferencia de una realidad virtual basada en un entorno informático, la realidad
aumentada esta diseñada para mejorar el mundo real mediante la superposición
de elementos de audio, visuales y de otro tipo sobre sus sentidos.
Boeing investigador Tom Caudell primero en acuñar el término de la realidad
argumentada en1990 para describir el desplaye digital utilizado por los electricistas
de líneas aéreas, que combinan la realidad virtual de gráficos cual física. Pero el
concepto es mucho mas antiguo de lo que la película de 1998 quien engaño a
Roger.
Rabbit es un buen ejemplo de la tecnología y la emisora antes de que una versión
más simplista que locutores usan en los partidos de futbol televisados en el
análisis de una obra.
Realidad aumentada esta impulsando el desarrollo de la electrónica de consumo,
debido a su utilidad en aplicaciones de teléfonos inteligentes.
El sistema de posicionamiento global es esencial para la realidad aumentada, que
depende de GPS para point ubicación de una persona.
Utiliza una llamada phona cámara y GPS para reunir información sobre la zona
circundante. Layar muestra entonces información sobre ciertos lugares cercanos
como restaurantes o cines y superposiciones de esta información en la pantalla
del teléfono. Apunte el teléfono en un edificio, y los informes de Layar en
cualquiera de las empresas que están contratando edificio o localiza la historia del
edificio en la enciclopedia en línea Wikipedia. Existen algunas limitaciones a la
tecnología de la realidad aumentada está en la actualidad existe: El sistema utiliza
una llamada phona cámara y GPS para reunir información sobre la zona
circundante. Layar muestra entonces información sobre ciertos lugares cercanos
como restaurantes o cines y superposiciones de esta información en la pantalla
del teléfono. Apunte el teléfono en un edificio, y los informes de Layar en
cualquiera de las empresas que están contratando edificio o localiza la historia del
edificio en la enciclopedia en línea Wikipedia. Existen algunas limitaciones a la
tecnología de la realidad aumentada está en la actualidad existe: El sistema GPS
tiene un alcance de sólo unos 30 metros de las pantallas de phon celular
8 Aprender mas
Aprender más.
Como títulos en una pagina, la
realidad aumentada puede
Proporcionar antecedentes y la
explicación, tal como una
Biografía del arquitecto Frank
Gehry al visitar sus edificios de
firma.
Orientarse y navegar.
Sistemas de posicionamiento
global permitirán etiquetas
geográficas que se asignan a
una persona su ubicación en
cualquier momento y vías
alternas.
Tomar decisiones
Considera opciones y toma
decisiones virtualmente. Aquí
las galerías están
representadas por imágenes
del museo holdings, tal como
Richard Serra’s la materia del
tiempo
9 Electrónica molecular (1974)
Como su nombre indica, la electrónica molecular se refiere al uso de componentes moleculares para construir dispositivos electrónicos. Desde químicos Mark Ratner y Ari Aviram creó el abetos dispositivo electrónico molecular en 1974 - un rectificador, cosa que convierte la corriente alterna en corriente continua - científico han seguido avanzando tanto en su comprensión de la ciencia y de sus aplicaciones potenciales. Muchos investigadores están trabajando para reemplazar semiconductores en todas sus aplicaciones con interruptores electrónicos moleculares. Algunas empresas están en condiciones de ofrecer tales conmutadores a la computadora y electrónicos - fabricantes de dispositivos. Un ejemplo es un Huntsville, Alabama - empresa con sede en CALMEC llamado, que ha creado un interruptor de tamaño molecular. Este dispositivo puede ser utilizado en los semiconductores electrónicos, permitiendo así que la tecnología electrónica para ser miniaturizado aún más de lo que es hoy en día. Metal de oro se deposita en la oblea para formar circuitos electrónicos para la micro – electro – mecánicos (MEM) DISPOSITIVOS.
10 Teléfonos Celular (1973)
Es difícil decir qué es más ubicuo en la palabra de hoy el ordenador personal o el teléfono celular que fue inventado en 1973 por Martin Cooper cuando era el director de investigación y desarrollo de Motorola. Un teléfono celular es en realidad una radio, si bien de manera muy sofisticada., Es un full-duplex devece, lo que significa que dos frecuencias diferentes se utilizan para hablar y escuchar. La comunicación se produce en los canales, de los cuales el teléfono celular promedio contiene más de 1.650. En una red de telefonía celular típica un vehículo, que proporciona el servicio de telefonía celular se asigna 800frecuencies que se proporciona intohexagonal unidades llamadas células. Cada célula contiene cerca de diez millas cuadradas Cada célula tiene su propia estación base y la torre de los dos teléfonos celulares y la torre celular tienen bajo potencia transmisores en ellos. el teléfono y la célula torre utilizar una frecuencia especial para comunicarse entre sí (que esta frecuencia no se puede encontrar una fuera de alcance o no de servicio de mensaje se visualiza en la pantalla del teléfono como un usuario utiliza el teléfono y películas a partir de una célula a otra. el frecuncy se pasa de una célula a la siguiente. las montañas Carner la frecuencia necesaria para comunicarse con la persona en el otro extremo controla continuamente la señal strengh.It las películas de llamantes de una portadores networkto que de otra, la llamada no será dado de baja de la mandíbula, pero las personas que llaman pueden dejar cuando ve a los cargos que significa en su factura Los primeros teléfonos móviles eran bullky y tenía antenas (izquierda) de hoy los teléfonos inteligentes (abajo) son más pequeños y mucho más potente.
Un mapa de uso
de Internet en todo
el mundo muestra
la densidad de
conexiones en
América del Norte
y Europa. Lo que
comenzó como
una colaboración
entre el mundo académico, Gobierno
y la industria a finales de 1960 y
principios de 1970 se ha convertido
en una infraestructura de gran
cantidad de información. El Internet
funciona gracias a unas pocas
tecnologías.
La primera es la conmutación de
paquetes, donde los datos están
contenidos en unidades con formato
especial, o paquetes, que se envían
desde la fuente al destino a través de
los conmutadores de red y routers.
Cada paquete contiene información
de dirección que identifica al
remitente y el destinatario. El uso de
estas direcciones, conmutadores de
red y routers a determinar la mejor
manera de transferir el paquete entre
los puntos en el camino a su destino.
El Internet también se basa en un
concepto clave conocida como red de
arquitectura abierta. En cierto sentido,
esto es lo que hace de Internet.
Con este concepto, los diferentes
proveedores puede usar cualquier
tecnología de red individual que
quieren, y las redes de trabajar juntos
a través de una arquitectura de redes.
Así, estas redes actúan como iguales
por los demás y ofrecer sin costura
final para terminar el servicio. Una
tecnología importante tercera es
control de transmisión /Protocolo de
Internet o TCP / IP. Esto es lo que
hace que una red de arquitectura
abierta posible. Piense en ello como
el lenguaje de comunicación básico
de Internet. TCP reúne un mensaje o
archivo en pequeños paquetes que
son transmitidos a través de Internet,
IP y lee la parte de dirección de cada
paquete para que llegue a su destino
correcto. Cada equipo de puerta de
enlace en la red comprueba esta
dirección para determinar dónde
enviar el mensaje.
11
INTERNET (1969)
EL PODER DE LA INFORMACION
12 Nanotecnología (1959)
A finales del año 1959 la meta de crear dispositivos más y más pequeños estaba en la
mente de los científicos e investigadores y habían hecho algunos progresos. Por
ejemplo inventores habían desarrollado motores del tamaño de un dedo.
Richard Feynman profesor del instituto físico psicológico de california prevé ahora
grandes avances. En lo noche del 29 de diciembre de 1959, el dio su discurso ahora
famoso en nanotecnología en un evento para la sociedad física americana. En su
discurso titulado “Hay abundancia de habitación en el cuarto del fondo. El describió l
habilidad para escribir toda la enciclopedia británica en la cabeza de un pin por el uso
de las herramientas o maquinas de tamaño-átomo
La visión de Feynman de la nanotecnología consistía en muchas aplicaciones
prácticas. El se baso sus ideas revolucionaras en el hecho de que cada célula viva en
un organismo contiene toda la información genética necesaria para crear ese
organismo
Esta fue su evidencia que almaceno vastas cantidades de datos en objetos posibles en
un minuto.
ircuitos Integrales (CI) se encuentran en casi todos los dispositivos electrónicos utilizados en la actualidad, desde teléfonos celulares hasta televisores. Un circuito electrónico complejo, cada IC contiene un diodo, un transistor, una resistencia y un condensador. Estos componentes trabajan juntos para regular el flujo de electricidad a través de un dispositivo. Sin embargo, los circuitos integrados tienen desventajas: Todas las conexiones deben permanecer intactas o el dispositivo no funcionará, y la velocidad es sin duda un factor. Si los componentes de los CIs son demasiado grandes o los cables que conectan los componentes son demasiado largos, por ejemplo, el dispositivo es lento e ineficaz. En 1958, los estadounidenses Jack Kilby y Robert Noyce por separado resolvieron este problema utilizando el mismo material para construir tanto el
Circuito integrado y el chip. Los cables y componentes ya no tenían que montarse manualmente. Los circuitos podrían Hacerse más pequeños, y el proceso de fabricación podría ser automatizado. (Para demostrar cuán pequeños pueden ser estos circuitos, considere esto: El CI original sólo tenía un transistor, tres resistencias y un condensador, y era del tamaño de un dedo meñique de adulto. Hoy en día, un CI menor que un centavo puede contener 125 millones de transistores.) En 1961, se presentaron los primeros circuitos integrados disponibles comercialmente, y los fabricantes de ordenadores inmediatamente vieron la ventaja que ofrecían. En 1968, Noyce fundó Intel, la compañía que introdujo el microprocesador, que tomó el CI para dar un paso más allá mediante la colocación de una unidad central del ordenador, la memoria y los controles de entrada y salida en un pequeño chip.
DATO: La invención de los semiconductores en 1911 allanó el camino para el desarrollo de los circuitos integrados. Alejandra Diyarza AldoMaldonado BryanMoreno
Circuitos
Integrados
14 Cloud Computing.
En el pasado, la informática se basó en una infraestructura física: routers, pipas de
datos, hardware y servidores. estos elementos no se han ido, ni es probable que
Desaparecer por completo, pero el proceso de la entrega de recursos de los
servicios de navegación aérea se está moviendo hacia un modelo en el que se
utiliza el Internet para almacenar las aplicaciones necesarias.
Un beneficio inmediato de este modelo es un menor costo.
por ejemplo, las empresas ya no tienen que comprar licencias individuales
software para todos los empleados. con la computación en nube, una sola
aplicación da acceso de múltiples usuarios remotos a la software.
Mensajes de correo electrónico basados en Web, como Gmail de Google, es un
ejemplo de la computación en nube.
para entender el concepto de la computación en nube, ayuda a pensar en los
términos de capas. Las capas frontales son lo que los usuarios ver e interactuar
con una UENTA-Facebook, por ejemplo. La parte posterior se compone de la
arquitectura hardware y software que se ejecuta la interfaz de usuario en la parte
delantera. Dado que los equipos están configurados en la red, las aplicaciones
pueden tomar ventaja de toda la potencia de cálculo combinado como si se
estuvieran ejecutando en una máquina en particular.
mientras que hay ventaja de este modelo, no es sin inconvenientes. la privacidad y
la seguridad son dos de las mayores preocupaciones. Después de todo, una
compañía está permitiendo que los datos importantes, potencialmente sensibles a
residir en el Internet, donde, en teoría, nadie nube acceder a él. Las empresas que
prestan servicios de computación en la nube, sin embargo, están motivados
encarecidamente a garantizar la privacidad y seguridad-su reputación están en
juego. Un sistema de autenticaciones que emplea nombres de usuario y
contraseñas u otro tipo de autorización ayuda a garantizar la privacidad.
15 TEORIA DE LA INFORMACION
Teoría de la información tiene su origen en un documento de 1948 por el ingeniero
americano matemático Claude Shannon:
"La teoría matemática de comunicación esta teoría permite que la información en un
mensaje a ser cuantificados, usando como bits de datos que representan uno de dos
estados: Dentro o fuera de. También dicta cómo codificar y transmitir información en la
presencia de "ruido".
Genérale puede corromper un mensaje en el camino. en el oído de la teoría de Shannon
es el concepto de incertidumbre. La mayor incertidumbre que hay con respecto a lo que
es la señal.
La más vista de información tiene la obligación de asegurarse de que la información
esencial se transmite.
Shannon llamó a esta incertidumbre-medida basada entro de información. Que
matemáticamente probado que una señal puede ser codificado-reducido a su forma más
simple. Eliminando de este modo la interferencia o ruido para transmitir un mensaje
claro y sólo el mensaje.
Aunque hay siempre una posibilidad de error en transmisión, la aplicación de la teoría
de la información ampliamente minimiza esa posibilidad.
A través de teoría de la codificación, una rama importante de la teoría de la Teoría de la
información tiene su origen información, los ingenieros de estudiar las propiedades de
los códigos para el diseño eficiente propósito de, por datos fiables la eliminación de
redundancia y los errores en los datos transmitidos.
Tiene dos características principales.
Codificación de fuente es un intento para comprimir los datos de una fuente con el fin
de transmitir los datos de forma más eficiente en una fuente con el fin de transmisión
de los datos de manera más eficiente (si alguna vez ha "comprimido" en un archivo para
enviar a alguien).
Codificación de canal añade bits de datos extra para hacer la transmisión de datos más
resistentes a las perturbaciones presentes en el canal de transmisión.
₪ Viridiana Serrano Arenas
₪ Adrian Valencia Solís
16 Transistor (1947)
Un transistor es un tipo de semiconductor sin que los modernos dispositivos electrónicos, incluyendo computadoras no podrían funcionar. Aunque hay varios tipos diferentes de transistores todos contienen una pieza sólida de material semiconductor con menos de terminales que pueden conectarse a un circuito externo. Esta tecnología transferencias corrientes a través de un material que normalmente tiene resistencia alta (en otras palabras es una resistencia): de ahí su resistencia de un aportador de traslado al transistor. Antes de la introducción de los equipos de transistores operan mediante tubos de vacío cual eran voluminosos y caros de producir. Las computadoras más potentes contienen miles de ellos, cosa que está por qué los primeros ordenadores habitaciones enteras llenas. En 1947 físicos estadounidenses John Bardeen y Walter Brattain en los Laboratorios Bell observó que cuando los
contactos eléctricos se aplicaron a un cristal de germanio, la energía generada fue mayor que la potencia utilizada. Americano William Shockley, también físico, vio el potencial en esto, y en los próximos meses el equipo ha trabajado para ampliar su conocimiento de los semiconductores. En 1956 los tres hombres ganaron el Nobel de la Física por la invención del transistor. así que ¿por qué el transistor a la electrónica Moderna? entre otros beneficios, que pueden ser producidos en masa usando un proceso altamente automatizado para un costo relativamente bajo. Además, los transistores pueden ser producidos individual o, más comúnmente envasados en integrar circuitos con otros componentes para producir circuitos electrónicos completos. Y transistores son versátiles, cosa que está por qué se utiliza en prácticamente todos los dispositivos electrónicos que hoy conocemos.
Ivan Romano Reyes Karla Pelcastre Flores Maquina 16
Aunque la mayoría de la gente lo
conoce como un prolífico autor de
ciencia ficción, Arthur C. Clarke hizo
una contribución significativa a la
tecnología de las comunicaciones. En
octubre de 1945, expuso su concepto
de satélites de comunicaciones
geoestacionarios, en un artículo titulado
"Extra-Terrestres Relés y Latas
Estaciones Rocket Dar Cobertura
Mundial de Radiocomunicaciones de
ancho?". Aunque Clarke no fue el
primero en llegar a la teoría, fue el
primero en popularizar.
El geoestacionario término se refiere a
la posición de la órbita de los satélites
alrededor de la Tierra. La órbita de un
geosincrónica satélite repite
regularmente en puntos específicos.
Cuando esa órbita regular se encuentra
sobre la línea ecuatorial y es circular, se
denomina geoestacionaria.
Las ventajas de los satélites
geoestacionarios son muchas.
Recepción y transmisión de las antenas
en el suelo no es necesario un
seguimiento de los satélites, ya que no
vacilan en sus órbitas. Antenas sin
seguimiento son más baratas que las
antenas de seguimiento, por lo que los
costos de funcionamiento de dicho
sistema se reducen. Las desventajas:
Debido a que los satélites son tan altos,
las señales de radio tardan un poco
más en ser recibida y transmitida, lo que
resulta en un retardo de la señal
pequeña pero significativa. Además,
estos satélites tienen una cobertura
geográfica incompleta desde estaciones
terrestres de mayor latitud de
aproximadamente 60 tienen dificultades
para recibir señales de manera fiable en
elevaciones más bajas.
. A pesar de los inconvenientes, no se
puede negar que los satélites de
comunicaciones han revolucionado
áreas como las comunicaciones
globales, la radiodifusión de televisión, y
los pronósticos meteorológicos, y tienen
defensa importante y aplicaciones de
inteligencia.
18 Las ondas de radio
El físico Escocés James Clerk Maxwell fue uno de los primeros científicos en especulas
acerca del electromagnetismo natural. Las ecuaciones que formulo describen el
comportamiento de los campos electricidad y el magnetismo, también como su
interacción con la materia. Maxwell teorizo que los campos de electricidad y
magnetismo viajan a través del espacio vacío, en forma de ondas, en constante
velocidad. También propuso que las ondas de luz y las ondas radio son 2 formas de
radiación electromagnética.
En 1888, el físico alemán Heinrich Hertz se convirtió en la primera persona en
demostrar a Maxwell la teoría satisfactoriamente cuando probo la existencia de las
ondas de radio. Hertz hizo esto por el divorcio del edificio que podía detectarse a gran
frecuencia y ultra alta frecuencia de las ondas de radio. Publico su trabajo en un libro
titulado Ondas Eléctricas: Siendo la Investigación dentro de la propagación de Acción
Eléctrica con Velocidad Finita a través del Espacio. Estos experimentos empleados a
gran medida, el campo de transmisión electromagnética, y otras ciencias en el campo
eventualmente adicional desarrollado en Hearz la antenas receptoras.
Hertz también encontró que las ondas de radio serian transmitidas a través de
diferentes tipos de materia tipos de y fueran reflejados por otros. Este descubrimiento
ultimadamente llevo la invención del radar. Siempre pavimento el camino de la
comunicación, aunque nunca reorganizara este importante aspecto de sus
experimentos.
En reconocimiento de su contribución, el Hearz a estado designada en una parte oficial
del sistema métrico internacional desde 1933. Este es el plazo usado por unidades de
radio y frecuencias eléctricas.
Erick Muñoz Meneses
Luis Mauricio Calderón Rodríguez
19 A GRAN ESCALA DE LA RED DE SUMINISTRO
ELÉCTRICO
Inventor Thomas Edison fue el primero en diseñar e implementar la generación de
energía eléctrica y la distribución a los hogares, negocios y fábricas, un hito clave en el
desarrollo de la palabra industrializada moderna. Edison patentó este sistema en 1880
con el fin de sacar provecho de su invención de la lámpara eléctrica-no era nada si no
es un astuto hombre de negocios. El 17 de diciembre de 1880, se fundó la Edison
Illuminating Company, con sede en Pearl Street Station en New York City. El 4 de
septiembre de 1882, Edison encendió el sistema eléctrico de potencia de su estación
Pearl Street generadora de distribución, que proporcionan 110 voltios de corriente
directa a cerca de 60 clientes en el Bajo Manhattan.
Aunque Edison perdió la llamada guerra de las corrientes que siguieron-con la
consecuencia de que la corriente alterna se convirtió en el sistema a través del cual se
distribuye la energía eléctrica, su sistema de distribución de energía sigue siendo
importante por varias razones. Estableció el valor comercial de dicho sistema, y que
ayudó a estimular los avances en el campo como ocupación valiosa. Por ejemplo, el
ingeniero eléctrico americano Charles Proteus Steinmetz, a través de su trabajo en
corriente alterna, hizo posible la expansión de la industria de la energía eléctrica en los
Estados Unidos mediante la formulación de teorías matemáticas para ingenieros que
diseñaban motores eléctricos para su uso en la industria.
LÓGICA BOOLEANO (1854)
La operación de las computadoras está
basada en una cosa:
Determinar si una puerta o cambio está
abierto o cerrado, lo cual es usualmente
señalado por los numero 0 y 1. Esta es la
esencia de la Lógica Booleano que subraya
toda la informática moderna. El concepto
fue llamado después por el matemático
ingles George Boole, quien definió un
sistema de lógica algebraica en 1854. La
motivación de Boole para crear esta teoría
fue su creencia de que los símbolos de la
operación matemática podrían estar
separados de esas cantidades y podrían
estar tratadas como distintos objetos de
cálculo.
Cercano al siglo siguiente, Claude Shannon
demostró que los circuitos eléctricos con
transmisiones eran modelos perfectos para
la lógica de Boolean, un hecho que permite
el desarrollo
de la computadora eléctrica.las
computadoras usan la lógica de Boolean
para decidir si una declaración es
verdadera o falsa ( esto tenía que ser con
una evaluación, no verazmente). Estas son
tres puertas básicas: Y, O Y NO. La
operación Y dice que si solamente todas las
entradas están encendidas las salidas
estarán encendidas. La operación O dice
que si alguna entrada está encendida la
salida estará encendida. La operación NO
dice que las salidas tendrá un estado
opuesto al de la entrada.
0: ABIERTO
1: CERRADO
La tradición algebraica en lógica, desarrollado
por el matemático ingles George Boole
(anteriormente). Hoy encontramos esta
aplicación den varios tipos de tomas de
daciones
HECHO.: aunque inventada en el siglo XIX, las formas lógicas de Boolean las
bases de la mayoría de las investigaciones de internet del siglo XXI.
Matería programable, que se introdujo
por primera vez por Massachusetts
Instituto de Tecnología (MIT), los
investigadores Tommaso Toffols y
Margolus Norman en un documento de
1991, se está convirtiendo rápidamente
en una realidad, aunque a una escala
relativamente pequeña.
Materia programable es materia que
puede simular o formar objetos diferentes
como resultado de cualquiera de los usos
de entrada o de sus propios cálculos.
Algunos materia programable está
diseñado para crear diferentes formas,
mientras que otra materia, tales como
células biológicas sintéticas, está
programado para funcionar como un
interruptor genético que se activa y
señales de otras células para cambiar las
propiedades tales como el color o la
forma. Los posibles beneficios y
aplicaciones de la materia programable
en particular, la posibilidad de usarlo
para realizar el procesamiento de
información y otras formas de
computación han creado un gran
entusiasmo en el mundo de la
investigación.
Desde la publicación de Toffoli y papel
Margoluss, es mucho lo que se ha hecho
para cumplir con el potencial que el
previsto. En 2008, por ejemplo, la
Corporación Intel anunció que sus
investigadores habían utilizado la materia
programable para desarrollar los
primeros prototipos de un dispositivo
móvil en la escala de centímetro y
milímetro. En 2009, la Academia de
Proyectos de Investigación avanzada de
los EE.UU. Departamento de Defensa
informó de que cinco equipos diferentes
de investigadores de la Universidad de
Harvard, el MIT y la Universidad de
Cornell están haciendo progresos en la
investigación de la materia programable.
En 2010 uno de estos equipos, dirigido
por Daniela Rus, del MIT, anunció su
éxito en la creación de hojas plegables
puertos auto agencia espera para las
aplicaciones futuristas del concepto. sus
miembros imaginar, por ejemplo, un
soldado equipado con un cubo de
material ligero programable que podría
ser formado en el lugar, en casi cualquier
cosa que él o ella necesita
Mary Carmen Pena Xochitemol
EL PODER DE LA INFORMACIÓN
EL PODER DE LA INFORMACIÓN
Diferencia
del motor (1822)
harles Babbage un filósofo matemático inglés, inventor e ingeniero mecánico, realizado en 1822 que un motor de clases podría ser programado con el uso de tarjetas de papel que guardan información en las columnas que contienen patrones de orificios perforados. Babbage vio que una persona podría programar una serie de instrucciones por medio
de tarjetas perforadas, y la máquina automáticamente podría llevar a cabo esas instrucciones. El uso que vaya de la máquina diferencial de Babbage fue calcular diversas funciones matemáticas, tales como logaritmos. A pesar de que nunca fue terminado, se considera una de las primeras computadoras de uso general digitales.
NUMEROS BINARIOS /
CÓDIGO BINARIO (1697)
En 1670 el filósofo y matemático alemán Gottfried Wilhelm Leibniz, -en cuyos logros se incluye la invención del cálculo y muchos avances importantes en las matemáticas, la lógica y la ciencia- invento una máquina aritmética que podía multiplicar así como sumar.
Leibniz también vio que su máquina podría ser modificada para usar un sistema binario de cálculo,-- un concepto que está en el corazón de la computación digital.
En el sistema de Leibniz, el término binario se refiere a un sistema de número mediante el cual todos los valores eran expresados con los números 1 y 0. El sistema binario puede entenderse mejor por su comparación con el sistema de base 10, de hoy que se expresa usando números del 0 al 9. En la base 10, el número 367, por ejemplo, se representa 3 x 100 + 6 x. 10 +7 x. Cada posición en el numeral 367 representa una potencia de diez, comenzando con cero y aumentando de derecha a izquierda. En el sistema binario, o base 2, cada posición representa una potencia de dos. Así, en binario, 1101 representa 1 x 23 + 1 x 22 + 0 x21 +1 x 20 , lo que es igual 8+ 4+ 0+ 1, o 13
23
NÚMEROS
Sistema numérico
Moderno (800) l sistema de numeración hindú-
árabe sobre la que se basa el
sistema de numeración módem se
desarrolló probablemente en el siglo IX
por los matemáticos indios, adoptadas
por el matemático persa Al-Khwarizmi y
matemático árabe Al-Kindi, y se extendió
a todo el mundo Westem por la alta Edad
Media.
Las características del sistema de
numeración módem son los conceptos
de valor relativo y valores deciman. El
sistema de valor posicional indica que el
valor de cada dígito en un número de
varios dígitos depende de su posición.
Tome el número 279, por ejemplo.
De acuerdo con el sistema de valor de
posición, el 2 representa las decenas, y
el 9 representa unos. Así, el número
aparece como 279. Mientras tanto, el
sistema decimal relacionada presenta
números en incrementos de diez. En
otras palabras, cada valor de posición es
diez veces el valor del lugar antes de
ella. El sistema decimal matemáticos
permite realizar operaciones aritméticas
con números altos que de otro modo
sería muy engorroso de manipular.
Ordenadores hacer uso de la sistema de
numeración posicional. Ya que un equipo
utiliza una pequeña cantidad de memoria
para almacenar un número, algunos
números son demasiado grandes o
demasiado pequeños para ser
representado. Que es donde números de
punto flotante vienen pulg punto decimal
puede "flotar" en relación con los dígitos
significativos en un número. Por ejemplo,
una representación de punto fijo que
tiene siete dígitos decimales con dos
cifras decimales pueden representar los
números, 12345,67 123,45, 1,23, y así
sucesivamente, mientras que la misma
representación de coma flotante también
puede representar a 1,234567, 123456,7,
0,00001234567, y así sucesivamente.
24 E