Actividad 5

Post on 13-Aug-2015

45 views 1 download

Transcript of Actividad 5

Hipervínculos

Hipervínculos páginas web

www.fayerwayer.com

http://victorti.webs.com/

http://www.chw.net/mx/

Hipervínculos a otros documentos

Actividad 1

Actividad 2

Actividad 3

Hipervínculos dentro del documento

Pagina # 2

Pagina # 3

REINGENIERÍA

1. DEFINICIÓN FORMAL DE REINGENIERÍA

Estamos entrando en el nuevo siglo, con compañías que funcionaron en el XX con diseños administrativos del siglo XIX. Necesitamos algo enteramente distinto.

Ante un nuevo contexto, surgen nuevas modalidades de administración, entre ellas está la reingeniería, fundamentada en la premisa de que no son los productos, sino los procesos que los crean los que llevan a las empresas al éxito a la larga. Los buenos productos no hacen ganadores; los ganadores hacen buenos productos. Lo que tienen que hacer las compañías es organizarse en torno al proceso.

Las operaciones fragmentadas situadas en departamentos especializados, hacen que nadie esté en situación de darse cuenta de un cambio significativo, o si se da cuenta, no puede hacer nada al respecto, porque sale de su radio de acción, de su jurisdicción o de su responsabilidad. Esto es consecuencia de un concepto equivocado de administración organizacional.

Rompiendo todos los récords en el área, IBM ha desarrollado tecnologías de hardware y software que le permitirán unir 200.000 discos duros para crear una sola gran unidad de almacenamiento de 120 petabytes (120 millones de GB), la más grande que se haya armado hasta el momento.

Hasta ahora, los sistemas más grandes de este tipo que se pueden adquirir normalmente llegan hasta los 15 petabytes. Para hacerse una idea, 120 petabytes podrían almacenar 24.000 millones de MP3 (de 5 MB cada uno).

El repositorio de datos probablemente será usado para almacenar simulaciones complejas de una supercomputadora o algo por el estilo – no se conoce quién encargó este experimento.

Los detalles exactos respecto al sistema de IBM no han sido revelados, aunque se sabe que usará una versión actualizada del General Parallel File System (GPFS) de la compañía. Se trata de un sistema que guarda archivos individuales en múltiples discos, de manera de poder luego leerlos en paralelo al mismo tiempo, acelerando el tiempo de escritura y lectura de los datos. GPFS también soporta redundancia y tolerancia a fallas, de modo que cuando muere un disco, sus contenidos son reconstruidos en un disco de reemplazo automáticamente.

En la parte del hardware, los 120 petabytes se dividirán en 200.000 discos duros comunes. Los discos se ordenarán en racks tal como funciona hoy, aunque se trata de cajones más anchos de lo normal, diseñados así para que cupieran más discos. El sistema deberá utilizar un sistema de enfriado bastante avanzado que utilizará líquido.

El sistema todavía está en desarrollo, pero podría representar un avance significativo en el área del almacenamiento, considerando que hoy en día entre las redes sociales y experimentos como el LHC producimos más datos de los que se pueden guardar.