sábado, 9 de noviembre de 2013

memoria CMOS

      Así como la computadora necesita memoria ROM para almacenar de forma permanente las instrucciones de arranque, también requiere de cierta memoria que pueda conservar datos de configuración de la computadora, tal como la cantidad de almacenamiento secundario con la que cuenta, la cantidad de memoria, el tipo de monitor, etc. Por ejemplo, la computadora necesita saber con cuanta memoria cuenta para así poder asignarla a los programas que se van a ejecutar. Como la memoria RAM pierde toda la información cuando se apaga la computadora, no es la más adecuada para almacenar esta información de configuración. La memoria ROM tampoco sirve para este propósito, ya que si se almacena la cantidad de memoria que contiene el sistema, no sería posible agregar más memoria pues la información contenida en la memoria ROM es permanente y no habría manera de reportar al sistema dicha expansión. Por lo tanto, la información de configuración del sistema necesita un tipo de memoria que sea más permanente que la memoria RAM, pero menos permanente que la memoria ROM, por lo que la memoria CMOS es la indicada para este propósito.
La memoria CMOS (complementary meta oxide semiconductor memory) es un chip que requiere de muy poca energía para mantener los datos, por lo que puede cargarse con una batería pequeña y recargable que se encuentra integrada en la tarjeta madre; esta batería permite que la memoria CMOS conserve los datos de configuración del sistema aunque se apague la computadora.
Así cuando se modifica la configuración del sistema, por ejemplo, al agregar mayor cantidad de memoria RAM, los datos en la CMOS deben actualizarse; esto se logra manualmente al ejecutar el programa de configuración de CMOS.
Hoy en día la mayoría de los BIOS están almacenados en una memoria flash capaz de ser reescrita, esto es lo que permite que se pueda actualizar. El BIOS se apoya en la memoria CMOS porque se construye con esa tecnología, en ella carga y almacena los valores que necesita y que son susceptibles de ser modificados (cantidad de memoria instalada, numero de discos duros, fecha y hora, etc.). A pesar de que se apague la computadora, los valores de la memoria de BIOS se mantienen intactos, ¿cómo es posible?, pues gracias a una pila que la alimenta. Puesto que el consumo es muy bajo y se recarga al encender la computadora, la pila puede durar varios años.

En que año se creo el internet?

Internet no es un nuevo tipo de red física, sino un método de interconexión. Aparece por primera vez en 1969 cuando ARPAnet establece su primera conexión entre tres universidades en California y una en Utah. 
Al contrario de lo que se piensa comúnmente, Internet no es sinónimo de World Wide Web (WWW). Ésta es parte de Internet, siendo la World Wide Web uno de los muchos servicios ofertados en la red Internet. 
La Web es un sistema de información mucho más reciente, desarrollado inicialmente por Tim Berners Lee en 1989. El WWW utiliza Internet como medio de transmisión. 
1969, DARPA comienza a planificar la creación de una red que conecte computadores en caso de una eventual guerra atómica que incomunique a los humanos sobre la tierra, con fines principalmente de defensa.

1972, se realizó la Primera demostración pública de ARPANET, una nueva Red de comunicaciones financiada por la DARPA que funcionaba de forma distribuida sobre la red telefónica conmutada. El éxito de ésta nueva arquitectura sirvió para que en 

1973 la DARPA iniciara un programa de investigación sobre posibles técnicas para interconectar redes (orientadas al tráfico de paquetes) de distintas clases. Para éste fin, desarrollaron nuevos protocolos de comunicaciones que permitiesen este intercambio de información de forma "transparente" para las computadoras conectadas. De la filosofía del proyecto surgió el nombre de "Internet", que se aplicó al sistema de redes interconectadas mediante los protocolos TCP e IP. 

1983, el 1 de enero, ARPANET cambió el protocolo NCP por TCP/IP. Ese mismo año, se creó el IAB con el fin de estandarizar el protocolo TCP/IP y de proporcionar recursos de investigación a Internet. Por otra parte, se centró la función de asignación de identificadores en la IANA que, más tarde, delegó parte de sus funciones en el Internet registry que, a su vez, proporciona servicios a los DNS. 

1986, la NSF comenzó el desarrollo de NSFNET que se convirtió en la principal Red en árbol de Internet, complementada después con las redes NSINET y ESNET, todas ellas en Estados Unidos. Paralelamente, otras redes troncales en Europa, tanto públicas como comerciales, junto con las americanas formaban el esqueleto básico ("backbone") de Internet. 

1989, con la integración de los protocolos OSI en la arquitectura de Internet, se inició la tendencia actual de permitir no sólo la interconexión de redes de estructuras dispares, sino también la de facilitar el uso de distintos protocolos de comunicaciones. 
En el CERN de Ginebra, un grupo de Físicos encabezado por Tim Berners-Lee, crearon el lenguaje HTML, basado en el SGML. 

En 1990 el mismo equipo construyó el primer cliente Web, llamado WorldWideWeb (WWW), y el primer servidor web. 

2006, el 3 de enero, Internet alcanzó los mil cien millones de usuarios. Se prevé que en diez años, la cantidad de navegantes de la Red aumentará a 2.000 millones. 

En julio de 1961 Leonard Kleinrock publicó desde el MIT el primer documento sobre la teoría de conmutación de paquetes. Kleinrock convenció a Lawrence Roberts de la factibilidad teórica de las comunicaciones vía paquetes en lugar de circuitos, lo cual resultó ser un gran avance en el camino hacia el trabajo informático en red. El otro paso fundamental fue hacer dialogar a los ordenadores entre sí. Para explorar este terreno, en 1965, Roberts conectó una computadora TX2 en Massachusetts con un Q-32 en California a través de una línea telefónica conmutada de baja velocidad, creando así la primera (aunque reducida) red de computadoras de área amplia jamás construida. En los EE.UU. se estaba buscando una forma de mantener las comunicaciones vitales del país en el posible caso de una Guerra Nuclear. Este hecho marcó profundamente su evolución, ya que aún ahora los rasgos fundamentales del proyecto se hallan presentes en lo que hoy conocemos como Internet.

SSD (dispositivos de estado sólido) almacenamiento ultrarápido

Una unidad SSD (solid state drive - dispositivo de estado sólido) es un dispositivo de almacenamiento masivo que utiliza memoria no volátil para almacenar la información. Para entenderlo fácilmente podemos decir que es como un disco duro pero que, en vez de guardar los datos en discos magnéticos que giran a alta velocidad, guardan la información en chips de memoria como los de los pendrive USB o tarjetas de memoria, que conservan su contenido sin recibir alimentación eléctrica.
 
Comparados con los discos duros los dispositivos SSD son más resistentes, ligeros, y silenciosos porque no contienen partes móviles ni motores. Además el acceso a la información que guardan es muchísimo más rápido al contar con menor tiempo de acceso y latencia (retardos en el acceso a los datos). Sin embargo los SSD son más  sensibles a campos magnéticos y descargas de electricidad estática.
 
Los dispositivos SSD usan la misma interfaz (forma de conexión) que los discos duros tradicionales, por lo que son totalmente intercambiables y compatibles.
 
En la traducción al español de SSD es común traducir la D de drive por disco, lo cual no es técnicamente correcto.
 
Los SSD tienen el inconveniente de ser más caros que los discos duros y ofrecer menor capacidad de modo que suelen usarse en compañía de estos para mejorar notablemente las prestaciones de los ordenadores almacenando en ellos el sistema operativo y los ficheros críticos y usando el disco duro para el almacenamiento masivo de datos y programas.
 
Por su ligereza, robustez, y pequeño tamaño son utlizados en algunos ordenadores ultrafinos.
 
Desde 2010 los discos duros se frabican utilizando memoria de tipo NAND flash que conserva los datos sin alimentación eléctica. Para algunos usos especiales que requieren aún mayor velocidad de acceso se utiliza memoria RAM alimentada de forma independiente, pero esto es la excepción.
 
Aunque por fuera todos los SSD parecen iguales, en su interior están las diferencias que marcan sus prestaciones y también su precio. Fundamentalmente existen tres tipos de dispositivos: 
  1. SLC (Single Level Cell) que guardan un bit en cada celda de memoria. Tienen menor pérdida de rendimiento pero son más caros de fabricar. Son los más rápidos.
  2. MLC (Multi Level Cell) que guardan hasta cuatro bits por celda de memoria. Son los más comunes. Su coste de fabricación es más reducido. Tienen una velocidad media.
  3. TLC (Tripe Level Cell) que guardan hasta ocho bits por celda de memoria. Son los más baratos pero también los más lentos y los que pueden tener más fallos.
 Un inconveniente del uso de los SSD como almacenamiento masivo de datos es que los sistemas de ficheros (FAT, FAT32, NTFS, exFAT, HFS, etc.) se idearon para optimizar el trabajo con discos duros, que tienen una forma muy distinta de acceder a la información. Estos sitemas de archivos no son eficaces para ordenar los archivos dentro del SSD lo que provoca una pérdida de rendimiento que aumenta a medida que se usa. Para recuperar el rendimiento hay que formatear la unidad SSD lo que no resulta práctico para el trabajo diario. Por eso los distintos sistemas operativos usan diferentes sistemas de archivos y tecnologías para trabajar con unidades SSD.
 
Algunos SSD llevan una tecnología llamada GC (garbage collector - recogedor de basura) que permiten programar o forzar manualmente limpiezas de la unidad, consistentes en el borrado de los bloques que ya no se usan.
 
Para aunar la velocidad de los SSD con la capacidad de los discos duros, existen dispositivos híbridos que usan un pequeño disco SSD para hacer de caché del disco duro con lo que se consigue aumentar el rendimiento del disco duro.