Don't wanna be here? Send us removal request.
Text
Portada
0 notes
Text
Adquisición de datos
Para representar cada carácter dentro de la computadora se tiene un número definido con a base a un sistema específico de códigos.
Sistema Binario
El código binario es el sistema numérico usado para la representación de textos, o procesadores de instrucciones de computadora, utilizando el sistema binario (sistema numérico de dos dígitos, o bit: el «0» /cerrado/ y el «1» /abierto/). En informática y telecomunicaciones, el código binario se utiliza con variados métodos de codificación de datos, tales como cadenas de caracteres, o cadenas de bits. Estos métodos pueden ser de ancho fijo o ancho variable. Por ejemplo en el caso de un CD, las señales que reflejarán el «láser» que rebotará en el CD y será recepcionado por un sensor de distinta forma indicando así, si es un cero o un uno.
Código ASCII
ASCII (acrónimo inglés de American Standard Code for Information Interchange —Código Estándar estadounidense para el Intercambio de Información—), pronunciado generalmente [áski]1:6 o (rara vez) [ásθi] o [ási], es un código de caracteres basado en el alfabeto latino, tal como se usa en inglés moderno. Fue creado en 1963 por el Comité Estadounidense de Estándares (ASA, conocido desde 1969 como el Instituto Estadounidense de Estándares Nacionales, o ANSI) como una evolución de los conjuntos de códigos utilizados entonces en telegrafía. Más tarde, en 1967, se incluyeron las minúsculas, y se redefinieron algunos códigos de control para formar el código conocido como US-ASCII.
ASCII es, en sentido estricto, un código de siete bits, lo que significa que usa cadenas de bits representables con siete dígitos binarios (que van de 0 a 127 en base decimal) para representar información de caracteres. En el momento en el que se introdujo el código ASCII muchas computadoras trabajaban con grupos de ocho bits (bytes u octetos), como la unidad mínima de información; donde el octavo bit se usaba habitualmente como bit de paridad con funciones de control de errores en líneas de comunicación u otras funciones específicas del dispositivo.
Unicode
Unicode es un estándar de codificación de caracteres diseñado para facilitar el tratamiento informático, transmisión y visualización de textos de numerosos idiomas y disciplinas técnicas, además de textos clásicos de lenguas muertas. El término Unicode proviene de los tres objetivos perseguidos: universalidad, uniformidad y unicidad.1
Unicode define cada carácter o símbolo mediante un nombre e identificador numérico, el punto de código (code point). Además incluye otras informaciones para el uso correcto de cada carácter, como sistema de escritura, categoría, direccionalidad, mayúsculas y otros atributos. Unicode trata los caracteres alfabéticos, ideográficos y símbolos de forma equivalente, lo que significa que se pueden mezclar en un mismo texto sin utilizar marcas o caracteres de control.
El estándar fue diseñado con los siguientes objetivos:
Universalidad: Un repertorio suficientemente amplio que albergue a todos los caracteres probables en el intercambio de texto multlingüe.
Eficiencia: Las secuencias generadas deben ser fáciles de tratar.
No ambigüedad: Un código dado siempre representa el mismo carácter.
Unicode define tres formas de codificación bajo el nombre UTF (Unicode transformation format: formato de transformación Unicode):10
UTF-8: codificación orientada a byte con símbolos de longitud variable.
UTF-16: codificación de 16 bits de longitud variable optimizada para la representación del plano básico multilingüe (BMP).
UTF-32: codificación de 32 bits de longitud fija, y la más sencilla de las tres.
Las formas de codificación se limitan a describir el modo en que se representan los puntos de código en formato inteligible por la máquina. A partir de las 3 formas identificadas se definen 7 esquemas de codificación.
1 note
·
View note
Text
Memoria ROM
¿Qué es la memoria ROM?
En informática, cuando hablamos de memoria ROM (acrónimo de Read–Only Memory, es decir, Memoria de Sólo Lectura), nos referimos a un tipo de almacenamiento empleado en computadores y otros dispositivos electrónicos, que se caracteriza por ser únicamente de acceso para lectura y nunca para escritura, es decir, que se la puede recuperar pero no modificar o intervenir.
¿Para qué sirve la memoria ROM?
La memoria ROM tiene dos usos principales, que son:
Almacenamiento de software. Comúnmente, los ordenadores en la década de 1980 traían todo su sistema operativo almacenado en ROM, para que los usuarios no pudieran alterarlo por error e interrumpir el funcionamiento de la máquina. Aún hoy en día se la utiliza para instalar el software de arranque o de funcionamiento más básico (el BIOS, SETUP y POST, por ejemplo).
Almacenamiento de datos. Dado que los usuarios no suelen tener acceso al ROM de un sistema, se lo emplea para almacenar los datos que no requerirán de modificación alguna en la vida del producto, como tablas de consulta, operadores matemáticos o lógicos y otra información de índole técnica.
Tipos de memoria ROM
PROM. Acrónimo de Programmable Read–Only Memory (Memoria de Sólo Lectura Programable), es de tipo digital y puede ser programada una única vez, ya que cada unidad de memoria depende de un fusible que se quema al hacerlo.
EPROM. Acrónimo de Erasable Programmable Read–Only Memory (Memoria de Sólo Lectura Borrable y Programable) es una forma de memoria PROM que puede borrarse al exponerse a luz ultravioleta o altos niveles de voltaje, borrando la información contenida y permitiendo su remplazo.
EEPROM. Acrónimo de Electrically Erasable Programmable Read-Only Memory (Memoria de Sólo Lectura Borrable y Programable Eléctricamente) es una variante del EPROM que no requiere rayos ultravioleta y puede reprogramarse en el propio circuito, pudiendo acceder a los bits de información de manera individual y no en conjunto
Memoria Flash
Memoria flash de tipo NOR
Cableado y estructura en silicio de la memoria flash NOR.
En las memorias flash de tipo NOR, cuando los electrones se encuentran en FG (Floating Gate), modifican (prácticamente anulan) el campo eléctrico que generaría CG (control Gate) en caso de estar activo. De esta forma, dependiendo de si la celda está a 1 o a 0, el campo eléctrico de la celda existe o no. Entonces, cuando se lee la celda poniendo un determinado voltaje en CG, la corriente eléctrica fluye o no en función del voltaje almacenado en la celda. La presencia/ausencia de corriente se detecta e interpreta como un 1 o un 0, reproduciendo así el dato almacenado. En los dispositivos de celda multinivel, se detecta la intensidad de la corriente para controlar el número de electrones almacenados en FG e interpretarlos adecuadamente.
Memoria flash de tipo NAND
Cableado y estructura en silicio de la memoria flash NAND.
Las memorias flash basadas en puertas lógicas NAND funcionan de forma ligeramente diferente: usan un túnel de inyección para la escritura y para el borrado un túnel de ‘soltado’. Las memorias basadas en NAND tienen, además de la evidente base en otro tipo de puertas, un costo bastante inferior, unas diez veces de más resistencia a las operaciones, pero solo permiten acceso secuencial (más orientado a dispositivos de almacenamiento masivo), frente a las memorias flash basadas en NOR que permiten lectura de acceso aleatorio. Sin embargo, han sido las NAND las que han permitido la expansión de este tipo de memoria, ya que el mecanismo de borrado es más sencillo (aunque también se borre por bloques) lo que ha proporcionado una base más rentable para la creación de dispositivos de tipo tarjeta de memoria. Las populares memorias USB o también llamadas Pendrives, utilizan memorias flash de tipo NAND.
1 note
·
View note
Text
Tecnologías de memoria SRAM y DRAM
SRAM son las siglas de la voz inglesa Static Random Access Memory, que significa memoria estática de acceso aleatorio (o RAM estática), para denominar a un tipo de tecnología de memoria RAM basada en semiconductores, capaz de mantener los datos, mientras siga alimentada, sin necesidad de circuito de refresco.
A diferencia de la DRAM, en la cual la señal de la línea de salida se conecta a un capacitador, y este es el que hace oscilar la señal durante las operaciones de lectura, en las celdas SRAM son los propios biestables los que hacen oscilar dicha señal, mientras que la estructura simétrica permite detectar pequeñas variaciones de voltaje con mayor precisión. Otra ventaja de las memorias SRAM frente a DRAM, es que aceptan recibir todos los bits de dirección al mismo tiempo.
La memoria dinámica de acceso aleatorio o DRAM (del inglés dynamic random-access memory) es un tipo de tecnología de memoria de acceso aleatorio (RAM) basada en condensadores, los cuales pierden su carga progresivamente, necesitando de un circuito dinámico de refresco que, cada cierto período, revisa dicha carga y la repone en un ciclo de refresco.
Se usa principalmente como módulos de memoria principal de ordenadores y otros dispositivos. Su principal ventaja es la posibilidad de construir memorias con una gran densidad de posiciones y que todavía funcionen a una velocidad alta: en la actualidad se fabrican integrados con millones de posiciones y velocidades de acceso medidos en millones de bit por segundo.
La celda de memoria es la unidad básica de cualquier memoria, capaz de almacenar un Bit en los sistemas digitales. La construcción de la celda define el funcionamiento de la misma, en el caso de la DRAM moderna, consiste en un transistor de efecto de campo y un condensador. El principio de funcionamiento básico, es sencillo: una carga se almacena en el condensador significando un 1 y sin carga un 0. El transistor funciona como un interruptor que conecta y desconecta al condensador. Este mecanismo puede implementarse con dispositivos discretos y de hecho muchas memorias anteriores a la época de los semiconductores, se basaban en arreglos de celdas transistor-condensador.
Tipos de RAM
FPM RAM
Fast Page Mode RAM (FPM-RAM) fue inspirado en técnicas como el Burst Mode usado en procesadores como el Intel 486. Se implantó un modo direccionamiento en el que el controlador de memoria envía una sola dirección y recibe a cambio esa y varias consecutivas sin necesidad de generar todas las direcciones. Esto supone un ahorro de tiempos ya que ciertas operaciones son repetitivas cuando se desea acceder a muchas posiciones consecutivas. Funciona como si deseáramos visitar todas las casas en una calle: después de la primera vez no sería necesario decir el número de la calle únicamente seguir la misma. Se fabricaban con tiempos de acceso de 70 o 60 ns y fueron muy populares en sistemas basados en el 486 y los primeros Pentium.
EDO RAM
Extended Data Output RAM (EDO-RAM) fue lanzada al mercado en 1994 y con tiempos de accesos de 40 o 30 ns suponía una mejora sobre FPM, su antecesora. La EDO, también es capaz de enviar direcciones contiguas pero direcciona la columna que va a utilizar mientras que se lee la información de la columna anterior, dando como resultado una eliminación de estados de espera, manteniendo activo el búfer de salida hasta que comienza el próximo ciclo de lectura.
BEDO RAM
Burst Extended Data Output RAM (BEDO-RAM) fue la evolución de la EDO-RAM y competidora de la SDRAM, fue presentada en 1997. Era un tipo de memoria que usaba generadores internos de direcciones y accedía a más de una posición de memoria en cada ciclo de reloj, de manera que lograba un 50 % de beneficios, mejor que la EDO. Nunca salió al mercado, dado que Intel y otros fabricantes se decidieron por esquemas de memoria sincrónicos que si bien tenían mucho del direccionamiento MOSTEK, agregan funcionalidades distintas como señales de reloj, entre otras cosas.
Tipos de tarjetas de memoria
Paquete DIP (Dual In-line Package, paquete de pines en-línea doble).
Paquete SIPP (Single In-line Pin Package, paquete de pines en-línea simple): fueron los primeros módulos comerciales de memoria, de formato propietario, es decir, no había un estándar entre distintas marcas.
Módulos RIMM (Rambus In-line Memory Module, módulo de memoria en-línea rambus): Fueron otros módulos propietarios bastante conocidos, ideados por la empresa RAMBUS.
Módulos SIMM (Single In-line Memory Module, módulo de memoria en-línea simple): formato usado en computadoras antiguas. Tenían un bus de datos de 16 o 32 bits.
Módulos DIMM (Dual In-line Memory Module, módulo de memoria en-línea dual): usado en computadoras de escritorio. Se caracterizan por tener un bus de datos de 64 bits.
Módulos SO-DIMM (Small Outline DIMM): usado en computadoras portátiles. Formato miniaturizado de DIMM.
Módulos FB-DIMM (Fully-Buffered Dual Inline Memory Module): usado en servidores.
1 note
·
View note
Text
Memoria cache
¿Qué es la memoria caché?
La definición de memoria caché en informática nos dice que es uno de los recursos con los que cuenta una CPU (Unidad Central de Procesamiento) para almacenar temporalmente datos recientemente procesados en una memoria auxiliar. Se trata de lo que se conoce como una memoria estática de acceso aleatorio (SRAM) muy rápida y colocada cerca de la CPU.
Así, pese a su pequeño tamaño, la memoria caché opera con mayor velocidad, dotando al microprocesador de un tiempo extra para acceder a los datos que se usan con más frecuencia.
¿Para qué sirve la memoria caché?
La principal función de la memoria caché es almacenar datos o instrucciones que la CPU va a necesitar en un futuro inmediato, de manera que se gana velocidad en la ejecución de procesos, evitando que la CPU tenga que esperar y aumentando así el rendimiento del equipo.
De manera que la memoria caché sirve para mejorar el rendimiento y velocidad de la CPU en la ejecución de las tareas cotidianas.
¿Cómo funciona la memoria caché?
El funcionamiento de la memoria caché es bastante sencillo; cuando iniciamos un proceso o programa en nuestro ordenador, este empieza a ejecutar una serie de instrucciones que son gestionadas por el procesador. Esa información se carga primero en la RAM y luego pasa al procesador, de manera que para agilizar este proceso, las instrucciones principales y las que más se utilizan se copian en la memoria caché, así el procesador podrá tener acceso inmediato a ellas y no tener que ir a buscar las originales almacenadas en la RAM.
Esto ahorra tiempo de procesamiento y hacer que el equipo sea más rápido a la hora de ejecutar ciertas instrucciones disponibles en la memoria caché. Por eso, la memoria caché es un elemento fundamental en los procesadores actuales.
Podemos decir que la memoria caché funciona como una memoria de instrucciones transitoria.
3 formas de almacenar datos en caché
Aunque las configuraciones de almacenamiento en la caché van evolucionando a medida que avanza y se desarrolla la tecnología actual, hay 3 configuraciones que se usan normalmente para almacenar datos en ella:
Memoria caché asignada directa: Se asigna una localización exacta a cada bloque en la memoria caché. Se trata de un caché mapeado directo, que funciona como una tabla con tres columnas, en la que el bloque de caché contiene los datos reales recuperados y almacenados, una etiqueta con toda o parte de la dirección de esos datos recuperados y un bit de bandera que muestra la presencia en la entrada de la fila de un bit de datos válido.
Mapeo de caché completamente asociativo: Funciona de forma similar al anterior, pero permite mapear un bloque de memoria en cualquier ubicación de caché en vez de en una ubicación de memoria caché previamente especificada.
Mapeo de caché asociativo: A medias de los otros dos, aquí cada bloque se mapea a un subconjunto de ubicaciones de caché.
Latencia, ancho de bus y la falta de cache
Hemos entendido que los datos fluyen desde el disco duro hasta el núcleo de procesamiento a través de todos los niveles de memoria. Donde primero busca el procesador la siguiente instrucción a procesar, es en la memoria caché, un sistema de calidad debería se saber ubicar correctamente los datos en función de su importancia para así reducir al máximo los tiempos de acceso a ellos, lo que se llama latencia.
La latencia es entonces, el tiempo que se tarda en acceder a los datos desde la memoria. Mientras más lejos y más lenta, mayor latencia y más tiempo tendrá que esperar la CPU su siguiente instrucción. Así cuando una instrucción no está situada en la memoria caché, el procesador debe buscarla directamente en la memoria RAM, a esto se le denomina falta de caché o caché miss, es entonces cuando se experimenta un PC más lento.
El ancho de bus también es de gran importancia para la velocidad, ya que éste marca la capacidad para transferir mayores bloques de datos desde la memoria a la CPU. Tanto CPU como memoria RAM son de 64 bits, pero la función de Dual Channel es capaz de doble esta capacidad a 128 bits para que la transferencia entre estos elementos tenga mayor capacidad.
AMAT son las siglas de Average Memory Access Time, o tiempo medio de acceso a memoria. Es una media por el hecho que no todas las instrucciones una CPU o una GPU tienen la misma latencia y dependen de la memoria de la misma manera. Pero al mismo tiempo nos sirve para medir el rendimiento de la caché de una CPU o una GPU.
Para calcular el AMAT de cualquier CPU o GPU se utiliza la siguiente fórmula:
AMAT = Hit Time + Miss Rate * Miss Penalty
Lo que nos interesa es que el AMAT sea bajo, ya que mide el tiempo de acceso de la CPU a los datos y por tanto la latencia a la hora de encontrar los datos. En cuanto a los diferentes valores de la fórmula AMAT para medir el rendimiento de la memoria caché estos son los siguientes:
El primer valor que es el Hit Time, que es el tiempo en que la CPU o la GPU tardará en encontrar el dato en la caché. En este caso es importante que la caché sea pequeña para que su recorrido se pueda realizar más rápido. Ya que cuanto más grande sea la caché entonces se tardará más en hacer el recorrido. Este es el motivo por el cual los niveles de caché más cercanos al núcleo tienen tamaños muy pequeños.
El segundo valor es el Miss Rate, que es el porcentaje de veces en los que los datos no se encuentran en la caché. Esto entra en contradicción con el Hit Rate, ya que la mejor manera de encontrar un dato en caché es aumentar la capacidad de almacenamiento de esta. La caché además ha de tener mecanismos para saber qué datos ha de conservar en su interior, para dar espacio a otros que van a tener un mayor acceso a corto plazo por parte de las CPU o las GPU.
El tercer valor es el Miss Penalty, este es el tiempo de latencia que se tarda en acceder a un dato si se encuentra en la memoria RAM y no en la caché. Esto supone un tiempo enorme en lo que a ciclos de reloj se refiere. Ya que como es obvió, en el caso de que el datos se encuentre en la RAM y no en la caché se ha de sumar el tiempo de búsqueda previó en la jerarquía de caches previa a la RAM.
El rendimiento de la memoria caché dependerá por tanto de cómo se optimice el Hit Time o el Miss Rate, dado que optimizar un apartado supone perjudicar al otro, los arquitectos han de decidir a qué valor le dan más importancia a la hora de diseñar una nueva CPU o una nueva GPU.
0 notes
Text
Almacenamiento Magnético UDD
La unidad de disco duro o unidad de disco rígido (en inglés: hard disk drive, HDD) es un dispositivo de almacenamiento de datos que emplea un sistema de grabación magnética para almacenar y recuperar archivos digitales. Se compone de uno o más platos o discos rígidos, recubiertos con material magnético y unidos por un mismo eje que gira a gran velocidad dentro de una caja metálica sellada. Sobre cada plato, y en cada una de sus caras, se sitúa un cabezal de lectura/escritura que flota sobre una delgada lámina de aire generada por la rotación de los discos. Permite el acceso aleatorio a los datos, lo que significa que los bloques de datos se pueden almacenar o recuperar en cualquier orden y no solo de forma secuencial. Las unidades de disco duro son un tipo de memoria no volátil, que retienen los datos almacenados incluso cuando están apagados.
Direccionamiento
Hay varios conceptos para referirse a zonas del disco:
Platillos: divididos en pistas concéntricas, las cuales están numeradas desde la pista número cero hasta la última. A mayor cantidad de pistas que tenga el disco duro, mayor será la capacidad de almacenamiento de este.
Cara: cada uno de los dos lados de un plato.
Pista : una circunferencia dentro de una cara ; la pista cero (0) está en el borde exterior.
Cilindros: constituyen conjuntos de pistas que tienen la misma cantidad en los diferentes platillos que conforman al disco duro, es decir, el número de cilindros en un disco duro es igual al número de pistas que hay en cualquier de los platillos de este
Revoluciones por minuto: o revoluciones por segundo, permiten determinar la velocidad rotacional de un disco duro
Cabezal: número de cabeza o cabezal por cada cara.
Sector : cada una de las divisiones de una pista. El tamaño del sector no es fijo, siendo el estándar actual 512 bytes, aunque la asociación IDEMA ha creado un comité que impulsa llevarlo a 4 KiB . Antiguamente el número de sectores por pista era fijo, lo cual desaprovechaba el espacio significativamente, ya que en las pistas exteriores pueden almacenarse más sectores que en las interiores. Así, apareció la tecnología grabación de bits por zonas (Zone Bit Recording , ZBR ) que aumenta el número de sectores en las pistas exteriores, y utiliza más eficientemente el disco duro. Así las pistas se agrupan en zonas de pistas de igual cantidad de sectores. Cuanto más lejos del centro de cada plato se encuentra una zona, esta contiene una mayor cantidad de sectores en sus pistas. Además mediante ZBR, cuando se leen sectores de cilindros más externos la tasa de transferencia de bits por segundo es mayor; por tener la misma velocidad angular que cilindros internos pero mayor cantidad de sectores.
Sector geométrico: son los sectores contiguos pero de pistas diferentes.
Clúster: es un conjunto contiguo de sectores.
El primer sistema de direccionamiento que se usó fue el Cilindro-Cabezal-Sector (Cylinder-Head-Sector, CHS), ya que con estos tres valores se puede situar un dato cualquiera del disco. Más adelante se creó otro sistema más sencillo, que actualmente se usa: direccionamiento de bloques lógicos (Logical Block Addressing, LBA), que consiste en dividir el disco entero en sectores y asignar a cada uno un único número.
Características de un disco duro
Las características que se deben tener en cuenta en un disco duro son:
Tiempo medio de acceso: tiempo medio que tarda la aguja en situarse en la pista y el sector deseado; es la suma del Tiempo medio de búsqueda (situarse en la pista), Tiempo de lectura/escritura y la Latencia media (situarse en el sector).
Tiempo medio de búsqueda: tiempo medio que tarda la aguja en situarse en la pista deseada; es la mitad del tiempo empleado por la aguja en ir desde la pista más periférica hasta la más central del disco.
Tiempo de lectura/escritura: tiempo medio que tarda el disco en leer o escribir nueva información: Depende de la cantidad de información que se quiere leer o escribir, el tamaño de bloque, el número de cabezales, el tiempo por vuelta y la cantidad de sectores por pista.
Latencia media: tiempo medio que tarda la aguja en situarse en el sector deseado; es la mitad del tiempo empleado en una rotación completa del disco.
Tasa de transferencia: velocidad a la que puede transferir la información a la computadora una vez que la aguja está situada en la pista y sector correctos. Puede ser velocidad sostenida o de pico.
Velocidad de rotación: Es la velocidad a la que gira el disco duro, más exactamente, la velocidad a la que giran el/los platos del disco, que es donde se almacenan magnéticamente los datos. La regla es: a mayor velocidad de rotación, más alta será la transferencia de datos, pero también mayor será el ruido y mayor será el calor generado por el disco duro. Se mide en número revoluciones por minuto (RPM). No debe comprarse un disco duro IDE de menos de 5400 RPM (ya hay discos IDE de 7200 RPM), a menos que te lo den a un muy buen precio, ni un disco SCSI de menos de 7200 RPM (los hay de 10.000 RPM). Una velocidad de 5400 RPM permitirá una transferencia entre 80MB y 110MB por segundo con los datos que están en la parte exterior del cilindro o plato, algo menos en el interior revoluciones por minuto de los platos. A mayor velocidad de rotación, menor latencia media.
Otras características son:
Caché de pista: es una memoria tipo flash dentro del disco duro.
Interfaz: medio de comunicación entre el disco duro y la computadora. Puede ser IDE/ATA, SCSI, SATA, USB, Firewire, Serial Attached SCSI
Landz: zona sobre las que aparcan las cabezas una vez se apaga la computadora.
Tipos de conexión de datos
Las unidades de discos duros pueden tener distintos tipos de conexión o interfaces de datos con la placa base. Cada unidad de disco rígido puede tener una de las siguientes opciones:
IDE
SATA
SCSI
SAS
IDE
La interfaz ATA (Advanced Technology Attachment) o PATA (Parallel ATA), originalmente conocido como IDE (Integrated Device Electronics o Integrated Drive Electronics), controla los dispositivos de almacenamiento masivo de datos, como los discos duros y ATAPI (Advanced Technology Attachment Packet Interface) o unidades de discos ópticos como lectoras o grabadoras de CD y DVD.
SATA
Serial ATA o SATA es el más común de los estándares de conexión, utiliza un bus serie para la transmisión de datos.
Notablemente más rápido y eficiente que IDE.
Físicamente es mucho más pequeño y cómodo que los IDE, además de permitir conexión en caliente (hot plug).
SCSI
Las interfaces Small Computer System Interface (SCSI) son interfaces preparadas para discos duros de gran capacidad de almacenamiento y velocidad de rotación.
Se presentan bajo tres especificaciones:
SCSI Estándar (Standard SCSI),
SCSI Rápido (Fast SCSI) y
SCSI Ancho-Rápido (Fast-Wide SCSI).
Su tiempo medio de acceso puede llegar a 7 milisegundos y su velocidad de transmisión secuencial de información puede alcanzar teóricamente los 5 Mbit/s en los discos SCSI Estándares, los 10 Mbit/s en los discos SCSI Rápidos y los 20 Mbit/s en los discos SCSI Anchos-Rápidos (SCSI-2).
SAS
Serial Attached SCSI (SAS) es la interfaz de transferencia de datos en serie, sucesor del SCSI paralelo, aunque sigue utilizando comandos SCSI para interaccionar con los dispositivos SAS. Aumenta la velocidad y permite la conexión y desconexión rápidamente. Una de las principales características es que aumenta la velocidad de transferencia al aumentar el número de dispositivos conectados, es decir, puede gestionar una tasa de transferencia constante para cada dispositivo conectado, además de terminar con la limitación de 16 dispositivos existente en SCSI, es por ello que se vaticina que la tecnología SAS irá reemplazando a su predecesora SCSI.
Además, el conector es el mismo que en la interfaz SATA y permite utilizar estos discos duros, para aplicaciones con menos necesidad de velocidad, ahorrando costes. Por lo tanto, las unidades SATA pueden ser utilizadas por controladoras SAS pero no a la inversa, una controladora SATA no reconoce discos SAS.
0 notes
Text
Almacenamiento Electrónico SSD
La unidad de estado sólido, la o el SSD (acrónimo inglés de Solid State Drive), también llamado a veces incorrectamente disco de estado sólido pues carece de disco físico, es un tipo de dispositivo de almacenamiento de datos que utiliza memoria no volátil, como la memoria flash, para almacenar datos, en lugar de los platos o discos magnéticos de las unidades de discos duros (HDD) convencionales.
Las unidades SSD pueden usar la misma interfaz SATA que los discos duros, por lo que son fácilmente intercambiables sin tener que recurrir a adaptadores o tarjetas de expansión para compatibilizarlos con el equipo, pero también la interfaz PCIe para obtener velocidades mayores de lectura/escritura, pudiendo superar los 10 GB/s, si bien esto depende de la generación de PCIe que utilice y otros factores de su diseño. Aunque en sus inicios el formato físico más común de estas unidades era el de un disco duro estándar de 2.5 o 3.5 pulgadas, actualmente existen otros formatos de consumo en uso como mSATA o M.2, y otros empresariales como NF1
Una memoria de estado sólido SSD es un dispositivo de almacenamiento, no volátil, fabricado exclusivamente con componentes electrónicos. Está pensado para utilizarse en equipos informáticos en sustitución de una unidad de disco duro convencional, como memoria auxiliar o para crear unidades híbridas HHDD compuestas por SSD y disco duro.
Al no tener piezas móviles reduce drásticamente el tiempo de acceso, latencia y otros, diferenciándose así de los discos duros electromagnéticos.
Al ser inmune a las vibraciones externas, es especialmente apto para vehículos, computadoras portátiles, etcétera.
La interfaz del bus de una SSD determina el tipo de bus que usa para la comunicación a nivel físico con el dispositivo en el que se sitúa la SSD. Existen principalmente dos: SATA3, que permite velocidades de hasta 6 Gb/s (750 MB/s); y PCI Express (PCIe) cuya velocidad máxima dependerá de la generación que implemente, siendo de hasta 16 Gb/s por canal PCIe 4.0. Lo más habitual es tener conexiones PCIe ×2 y ×4 (dos y cuatro canales PCIe agregados, respectivamente). También existen otros buses como SATA Express.
Conector físico
Existen distintos conectores físicos utilizados en las SSD, y cada uno está ligado a una interfaz de bus. Por ejemplo, las SSD doméstica de 2.5 pulgadas usan un conector SATA para usar SATA3 como si fueran un disco duro, mientras que la especificación M.2 determina una serie de formatos para los contactos del conector en función de si el bus es SATA3 o PCIe. Existe también el conector SATA Express (SATA 3.2) que usa una interfaz de bus PCIe ×2, y el U.2 que también usa PCIe; suelen ser usados en unidades con formato de disco de 2.5 o 3.5 pulgadas.
Protocolo de comunicación
La interfaz de comunicación es la forma en la que se transmiten los unos y ceros a nivel físico entre la unidad de estado sólido y el equipo anfitrión. Principalmente se usan: AHCI que está ligada a Serial ATA, y NVMe que está ligado a PCIe. Puesto que es un protocolo de comunicación a nivel físico, la información se divide en grupos de bits (carga útil) y a cada grupo se le asigna una cabecera para realizar labores de control de transmisión y corrección de errores.
En el caso de AHCI, el envío se realiza con una gran pérdida de bus útil al hacer una codificación 8b/10b (ocho bits de carga útil son diez bits enviados), mientras que NVMe tiene una codificación 128b/130b, por lo que se desperdicia menos ancho de bus en la transmisión de información. Debido a ello la velocidad máxima real de SATA3 es de 600 MB/s aunque la teórica es de 750 MB/s. En el caso de PCIe, la velocidad máxima real de una conexión PCIe 3.0 ×1 sería de 984 MB/s.
0 notes
Text
Sistemas RAID
Un grupo/matriz redundante de discos independientes1 (también, RAID, del inglés redundant array of independent disks) hace referencia a un sistema de almacenamiento de datos que utiliza múltiples unidades (discos duros o SSD), entre las cuales se distribuyen o replican los datos.
Dependiendo de su configuración (a la que suele llamarse nivel), los beneficios de un RAID respecto a un único disco son uno o varios de los siguientes: mayor integridad, tolerancia frente a fallos, tasa de transferencia y capacidad. En sus implementaciones originales, su ventaja clave era la habilidad de combinar varios dispositivos de bajo coste y tecnología más vieja en un conjunto que ofrecía mayor capacidad, fiabilidad, velocidad o una combinación de éstas que un solo dispositivo de última generación y coste más alto.
RAID 0
El RAID 0 se usa habitualmente para proporcionar un alto rendimiento de escritura ya que los datos se escriben en dos o más discos de forma paralela, aunque un mismo fichero solo está presente una vez en el conjunto. RAID 0 también puede utilizarse como forma de crear un pequeño número de grandes discos virtuales a partir de un gran número de pequeños discos físicos. Un RAID 0 puede ser creado con discos de diferentes tamaños, pero el espacio de almacenamiento añadido al conjunto estará limitado por el tamaño del disco más pequeño (por ejemplo, si se hace un conjunto dividido con un disco de 450 GB y otro de 100 GB, el tamaño del conjunto resultante será solo de 200 GB, ya que cada disco aporta 100 GB).
RAID 1
Un RAID 1 crea una copia exacta (o espejo) de un conjunto de datos en dos o más discos. Esto resulta útil cuando queremos tener más seguridad desaprovechando capacidad, ya que si perdemos un disco, tenemos el otro con la misma información. Un conjunto RAID 1 solo puede ser tan grande como el más pequeño de sus discos. Un RAID 1 clásico consiste en dos discos en espejo, lo que incrementa exponencialmente la fiabilidad respecto a un solo disco; es decir, la probabilidad de fallo del conjunto es igual al producto de las probabilidades de fallo de cada uno de los discos (pues para que el conjunto falle es necesario que lo hagan todos sus discos).
Además, dado que todos los datos están en dos o más discos, con hardware habitualmente independiente, el rendimiento de lectura se incrementa aproximadamente como múltiplo lineal del número de copias; es decir, un RAID 1 puede estar leyendo simultáneamente dos datos diferentes en dos discos diferentes, por lo que su rendimiento se duplica. Para maximizar los beneficios sobre el rendimiento del RAID 1 se recomienda el uso de controladoras de disco independientes, una para cada disco (práctica que algunos denominan splitting o duplexing).
RAID 2
Distribuye los datos entrelazadas a nivel de bit. El código de error se intercala a través de varios discos también a nivel de bit, el código de error se calcula con el código de Hamming. Todo giro del cabezal de disco se sincroniza y los datos se distribuyen en bandas de modo que cada bit secuencial está en una unidad diferente. La paridad de Hamming se calcula a través de y los bits correspondientes y se almacena en al menos un disco de paridad. Este nivel es solo significante a nivel histórico y teórico, ya que actualmente no se utiliza.
RAID 3
Un RAID 3 usan "data striping" con un disco de paridad dedicado. divide los datos al nivel de bytes. Permite tasas de transferencias extremadamente altas. Un RAID 3 necesitaría un mínimo de tres discos, utilizando uno para datos de paridad. En estos se copian los datos en distribución RAID 0 en los 2 primeros discos, sin embargo, en el tercer disco, se crea el byte de paridad. Esto quiere decir que si por ejemplo perdemos un byte de uno de los discos, siempre podremos recuperarlo mediante el byte de paridad que se ha generado anteriormente.
En el ejemplo del gráfico, una petición del bloque «A56» formado por los bytes Ah1 a Af6 requeriría que los tres discos de datos buscaran el comienzo (Ag1) y devolvieran su contenido. Una petición simultánea del bloque «Bh» en el cual guarda la suma de los números de un archivo y en caso de pérdida de datos se hace la diferencia con la suma o la multiplicación incluso.
RAID 4
Un RAID 4, también conocido como IDA (acceso independiente con discos dedicados a la paridad), usa división a nivel de bloques con un disco de paridad dedicado. Necesita un mínimo de 3 discos físicos. El RAID 4 es parecido al RAID 3 excepto porque divide a nivel de bloques en lugar de a nivel de bytes. Esto permite que cada miembro del conjunto funcione independientemente cuando se solicita un único bloque. Si la controladora de disco lo permite, un conjunto RAID 4 puede servir varias peticiones de lectura simultáneamente. En principio también sería posible servir varias peticiones de escritura simultáneamente, pero al estar toda la información de paridad en un solo disco, este se convertiría en el cuello de botella del conjunto.
RAID 5
Un RAID 5 (también llamado distribuido con paridad) es una división de datos a nivel de bloques que distribuye la información de paridad entre todos los discos miembros del conjunto. El RAID 5 ha logrado popularidad gracias a su bajo coste de redundancia. Generalmente, el RAID 5 se implementa con soporte hardware para el cálculo de la paridad. RAID 5 necesitará un mínimo de 3 discos para ser implementado.
Cada vez que un bloque de datos se escribe en un RAID 5, se genera un bloque de paridad dentro de la misma división (stripe). Un bloque se compone a menudo de muchos sectores consecutivos de disco. Una serie de bloques (un bloque de cada uno de los discos del conjunto) recibe el nombre colectivo de división (stripe). Si otro bloque, o alguna porción de un bloque, es escrita en esa misma división, el bloque de paridad (o una parte del mismo) es recalculada y vuelta a escribir. El disco utilizado por el bloque de paridad está escalonado de una división a la siguiente, de ahí el término «bloques de paridad distribuidos». Las escrituras en un RAID 5 son costosas en términos de operaciones de disco y tráfico entre los discos y la controladora.
RAID 10
Un RAID 1+0, a veces llamado RAID 10, es lo más parecido a un RAID 0+1 con la excepción de que los niveles RAID que lo forman se invierte: el RAID 10 es una división de espejos.
En cada división RAID 10 o RAID 1+0, pueden fallar todos los discos salvo uno sin que se pierdan datos. Sin embargo, si los discos que han fallado no se reemplazan, el restante pasa a ser un punto único de fallo para todo el conjunto. Si ese disco falla entonces, se perderán todos los datos del conjunto completo. Como en el caso del RAID 0+1, si un disco que ha fallado no se reemplaza, entonces un solo error de medio irrecuperable que ocurra en el disco espejado resultaría en pérdida de datos.
0 notes
Text
Almacenamiento óptico (CD)
El disco compacto (conocido popularmente como CD por las siglas en inglés de Compact Disc) es un disco óptico utilizado para almacenar datos en formato digital, consistentes en cualquier tipo de información (audio, imágenes, vídeo, documentos y otros datos).
Tienen un diámetro de 12 centímetros, un espesor de 1,2 milímetros y pueden almacenar hasta 80 minutos de audio o 700 MB de datos. Los Mini-CD tienen 8 cm y son usados para la distribución de sencillos y de controladores guardando hasta 24 minutos de audio o 210 MB de datos.
Esta tecnología fue inicialmente utilizada para el CD audio, y más tarde fue expandida y adaptada para el almacenamiento de datos (CD-ROM), de video (VCD y SVCD), la grabación doméstica (CD-R y CD-RW) y el almacenamiento de datos mixtos (CD-i, Photo CD y CD EXTRA).
A pesar de que puede haber variaciones en la composición de los materiales empleados en la fabricación de los discos, todos siguen un mismo patrón: los discos compactos se hacen de un disco grueso, de 1,2 mm, de policarbonato de plástico, al que se le añade una capa reflectante de aluminio, utilizada para obtener más longevidad de los datos. Así se reflejará la luz del láser (en el rango de espectro infrarrojo, y por tanto no apreciable visualmente); posteriormente se le añade una capa protectora de laca, que actúa como protector del aluminio y, opcionalmente, una etiqueta en la parte superior. Los métodos comunes de impresión en los CD son la serigrafía y la impresión ófset. En el caso de los CD-R y CD-RW se usa oro, plata, y aleaciones de las mismas, que por su ductilidad permite a los láseres grabar sobre ella, cosa que no se podría hacer sobre el aluminio con láseres de baja potencia..
Procedimiento de lectura del CD
Dentro del equipo reproductor de CD, hay un conjunto de dispositivos electrónicos y ópticos para descodificar la información contenida en la pista espiral del CD y enviarla posteriormente a un equipo de audio o a un ordenador (audio-CD en el primer caso; CD-ROM en el segundo). El procedimiento de lectura y descodificación es similar en ambos casos. El lector del CD está integrado por tres componentes:
a) Un motor que hace girar el disco. Su velocidad se controla entre 200 y 500 r.p.m., ya que según la información este localizada cerca del interior o del exterior del disco, la velocidad de rotación debe cambiar para que la velocidad de lectura sea siempre la misma.
b) Un láser de semiconductor, que emite una radiación de 780 nm de longitud de onda, unido a un sistema de lentes que enfoca el láser hacia las protuberancias.
c) Un mecanismo de seguimiento, que mueve el conjunto del láser y su óptica con objeto de seguir con precisión la pista espiral en toda la superficie del CD.
La siguiente figura ilustra el esquema de funcionamiento:
El láser se enfoca a la pista donde están las protuberancias. La luz del láser atraviesa la capa A de policarbonato, llega a la zona de protuberancias, se refleja en la capa de aluminio que la recubre por detrás (capa B) y la luz reflejada llega a un detector que registra cambios en la intensidad de la luz que llega a él. Los bordes de las protuberancias reflejan la luz de manera diferente que las zonas planas y el detector del sistema detecta estos cambios. La electrónica posterior interpreta estos cambios como "unos" y "ceros". El siguiente video muestra el interior de un lector de un CD:
Habitualmente, se utiliza una codificación denominada codificación de no retorno a cero (NRZI), de tal forma que un "uno" se asocia a una transición de zona plana a una protuberancia o de una protuberancia a una zona plana, mientras que un "cero" corresponde a la ausencia de cambio, es decir, seguir en la zona plana o seguir en la protuberancia, según corresponda el caso. Una vez registrado por el detector el código de "unos" y "ceros", se envía a un conversor Digital-Analógico, que convierte el código en una señal analógica de audio, que posteriormente se amplifica y se envía al altavoz, desde el que se emiten las ondas sonoras que nos permiten escuchar la música. La figura ilustra con detalle la secuencia completa:
Tiempo de acceso
Para describir la calidad de un CD-ROM este es probablemente uno de los parámetros más interesantes. El tiempo de acceso se toma como la cantidad de tiempo que le lleva al dispositivo desde que comienza el proceso de lectura hasta que los datos comienzan a ser leídos. Este parámetro viene dado por: la latencia, el tiempo de búsqueda y el tiempo de cambio de velocidad (en los dispositivos CLV). Téngase en cuenta que el movimiento de búsqueda del cabezal y la aceleración del disco se realizan al mismo tiempo, por lo tanto no estamos hablando de sumar estos componentes para obtener el tiempo de acceso sino de procesos que justifican esta medida.
CLV:
CD RW
El disco compacto regrabable, conocido por las siglas CD-RW (del inglés Compact Disc - ReWritable, originalmente R y W se usaban como los atributos del CD, que significan "read" y "write", lectura y escritura) es un tipo soporte digital en disco óptico utilizado para almacenar cualquier tipo de información.
Este tipo de CD puede ser grabado múltiples veces, ya que permite que los datos almacenados sean borrados.
En 1996, fue desarrollado conjuntamente por las empresas Sony y Philips; comenzó a comercializarse en 1997.
Tecnologías como el DVD han desplazado en parte esta forma de almacenamiento, aunque su uso sigue vigente.
En el disco CD-RW la capa que contiene la información está formada por una aleación cristalina de plata, indio, antimonio y telurio que presenta una interesante cualidad: si se calienta hasta cierta temperatura, cuando se enfría deviene cristalino, pero si al calentarse se alcanza una temperatura aún más elevada, cuando se enfría queda con estructura amorfa. La superficie cristalina permite que la luz se refleje bien en la zona reflectante mientras que las zonas con estructura amorfa absorben la luz. Por lo cual el CD-RW utiliza tres tipos de luz:
Láser de escritura: usado para escribir. Calienta pequeñas zonas de la superficie para que el material se torne amorfo.
Láser de borrado: usado para borrar. Tiene una intensidad menor que el de escritura con lo que se consigue el estado cristalino.
Láser de lectura: usado para leer. Tiene menor intensidad que el de borrado. Se refleja en zonas cristalinas y se dispersa en las amorfas.
En los principios, la capacidad de un CD-RW fue de 650 MB; actualmente la capacidad es la misma que la de un CD-R, 700 MB.
0 notes
Text
Almacenamiento óptico (DVD)
El DVD es un tipo de disco óptico para almacenamiento de datos. La sigla DVD2 corresponde a Digital Versatile Disc3 (Disco Versátil Digital), de modo que coinciden los acrónimos en español e inglés. En sus inicios, la “V” intermedia hacía referencia a video (Digital Video Disc o Disco de Video Digital), debido a su desarrollo como reemplazo del formato VHS para la distribución de vídeo a los hogares.
Características generales del DVD
Posee una medida estándar de 120 mm de diámetro.
Su señal es digital.
Como mecanismo de lectura/escritura requiere del láser rojo.
Permite guardar información con un alto nivel de calidad.
Almacena mucha más información que un CD.
La capacidad de un DVD varía desde un mínimo de 4,7 GB hasta 17,1 GB.
Formatos de DVD
Los DVD se pueden clasificar:
Según su contenido:
DVD-Video: películas (vídeo y audio).
DVD-Audio: audio de alta fidelidad. Por ejemplo: 24 bits por muestra, una velocidad de muestreo de 48 kHz y un rango dinámico de 144 dB.[cita requerida]
DVD-Data: todo tipo de datos.
Según su capacidad de regrabado (La mayoría de las grabadoras de DVD nuevas pueden grabar en ambos formatos y llevan ambos logotipos, «+RW» y «DVD-R/RW»):
DVD-ROM: solo lectura, manufacturado con prensa.
DVD-R y DVD+R: grabable una sola vez. La diferencia entre los tipos +R y -R radica en la forma de grabación y de codificación de la información. En los +R los agujeros son 1 lógicos mientras que en los –R los agujeros son 0 lógicos.
DVD-RW y DVD+RW: regrabable.
DVD-RAM: regrabable de acceso aleatorio. Lleva a cabo una comprobación de la integridad de los datos siempre activa tras completar la escritura.
DVD+R DL: grabable una sola vez de doble capa.
El DVD-ROM almacena desde 4,7 GB hasta 17 GB.
Según su número de capas o caras:
DVD-5: una cara, capa simple; 4,7 GB o 4,38 GiB. Discos DVD±R/RW.
DVD-9: una cara, capa doble; 8,5 GB o 7,92 GiB. Discos DVD+R DL. La grabación de doble capa permite a los discos DVD-R y los DVD+RW almacenar significativamente más datos, hasta 8,5 GB por disco, comparado con los 4,7 GB que permiten los discos de una capa. Los DVD-R DL (dual layer) fueron desarrollados para DVD Forum por Pioneer Corporation. DVD+R DL fue desarrollado para el DVD+R Alliance por Philips y Mitsubishi Kagaku Media. Un disco de doble capa difiere de un DVD convencional en que emplea una segunda capa física ubicada en el interior del disco. Una unidad lectora con capacidad de doble capa accede a la segunda capa proyectando el láser a través de la primera capa semitransparente. El mecanismo de cambio de capa en algunos DVD puede conllevar una pausa de hasta un par de segundos. Los discos grabables soportan esta tecnología manteniendo compatibilidad con algunos reproductores de DVD y unidades DVD-ROM. Muchos grabadores de DVD soportan la tecnología de doble capa, y su precio es comparable con las unidades de una capa, aunque el medio continúa siendo considerablemente más caro.
DVD-10: dos caras, capa simple en ambas; 9,4 GB o 8,75 GiB. Discos DVD±R/RW.
DVD-14: dos caras, capa doble en una, capa simple en la otra; 13,3 GB o 12,3 GiB. Raramente utilizado.
DVD-18: dos caras, capa doble en ambas; 17,1 GB o 15,9 GiB. Discos DVD+R.
También existen DVD de 8 cm que son llamados miniDVD (no confundir con cDVD, que son CD que contienen información de tipo DVD video) que tienen una capacidad de 1,5 GB.
Velocidad
La velocidad de transferencia de datos de una unidad DVD está dada en múltiplos de 1350 KB/s.
1 note
·
View note
Text
Jerarquía de memoria
La jerarquía de memoria es la organización piramidal de la memoria en niveles que tienen las computadoras.
El objetivo es acercarse el rendimiento de una memoria de gran velocidad al coste de una memoria de baja velocidad, basándose en el principio de cercanía de referencias.
Los puntos básicos relacionados con la memoria pueden resumirse en:
Capacidad
Velocidad
Coste por bit
La cuestión de la capacidad es simple, cuanto más memoria haya disponible, más podrá utilizarse.
La velocidad óptima para la memoria es la velocidad a la que el microprocesador puede trabajar, de modo que no haya tiempos de espera entre cálculo y cálculo, utilizados para traer operandos o guardar resultados.
En suma, el coste de la memoria no debe ser excesivo, para que sea factible construir un equipo accesible.
Los tres factores compiten entre sí, por lo que hay que encontrar un equilibrio.
Las siguientes afirmaciones son válidas:
A menor tiempo de acceso mayor coste.
A mayor capacidad menor coste por bit.
A mayor capacidad menor velocidad.
Se busca entonces contar con capacidad suficiente de memoria, con una velocidad que sirva para satisfacer la demanda de rendimiento y con un coste que no sea excesivo.
Gracias a un principio llamado cercanía de referencias, es factible utilizar una mezcla de los distintos tipos y lograr un rendimiento cercano al de la memoria más rápida.
Niveles jerárquicos
Los niveles
Nivel 0: Registro
Nivel 1: Memoria caché
Nivel 2: Memoria primaria (RAM)
Nivel 3: Disco duro (con el mecanismo de memoria virtual)
Nivel 4: Cintas magnéticas (consideradas las más lentas, con mayor capacidad, de acceso secuencial)
Tasa de aciertos y tasa de fallos:
Cuando una dirección se presenta en el sistema caché pueden ocurrir dos cosas:
Acierto de caché (hit): el contenido de la dirección se encuentre en un bloque ubicado en una línea de la caché.
Fallo de caché (miss): el contenido de la dirección no se encuentre en ningún bloque ubicado en alguna línea de la caché.
AMAT
AMAT son las siglas de Average Memory Access Time, o tiempo medio de acceso a memoria. Es una media por el hecho que no todas las instrucciones una CPU o una GPU tienen la misma latencia y dependen de la memoria de la misma manera. Pero al mismo tiempo nos sirve para medir el rendimiento de la caché de una CPU o una GPU.
Para calcular el AMAT de cualquier CPU o GPU se utiliza la siguiente fórmula:
AMAT = Hit Time + Miss Rate * Miss Penalty
Lo que nos interesa es que el AMAT sea bajo, ya que mide el tiempo de acceso de la CPU a los datos y por tanto la latencia a la hora de encontrar los datos. En cuanto a los diferentes valores de la fórmula AMAT para medir el rendimiento de la memoria caché estos son los siguientes:
El primer valor que es el Hit Time, que es el tiempo en que la CPU o la GPU tardará en encontrar el dato en la caché. En este caso es importante que la caché sea pequeña para que su recorrido se pueda realizar más rápido. Ya que cuanto más grande sea la caché entonces se tardará más en hacer el recorrido. Este es el motivo por el cual los niveles de caché más cercanos al núcleo tienen tamaños muy pequeños.
El segundo valor es el Miss Rate, que es el porcentaje de veces en los que los datos no se encuentran en la caché. Esto entra en contradicción con el Hit Rate, ya que la mejor manera de encontrar un dato en caché es aumentar la capacidad de almacenamiento de esta. La caché además ha de tener mecanismos para saber qué datos ha de conservar en su interior, para dar espacio a otros que van a tener un mayor acceso a corto plazo por parte de las CPU o las GPU.
El tercer valor es el Miss Penalty, este es el tiempo de latencia que se tarda en acceder a un dato si se encuentra en la memoria RAM y no en la caché. Esto supone un tiempo enorme en lo que a ciclos de reloj se refiere. Ya que como es obvió, en el caso de que el datos se encuentre en la RAM y no en la caché se ha de sumar el tiempo de búsqueda previó en la jerarquía de caches previa a la RAM.
El rendimiento de la memoria caché dependerá por tanto de cómo se optimice el Hit Time o el Miss Rate, dado que optimizar un apartado supone perjudicar al otro, los arquitectos han de decidir a qué valor le dan más importancia a la hora de diseñar una nueva CPU o una nueva GPU.
0 notes
Text
Conclusiones
Durante esta unidad se pudo observar el avance tecnológico que hubo en los últimos años en relación con las computadoras, las formas de almacenamiento que estas han tenido y como fue que se diseñaron y con que fin de uso. Lo más impresionante es la velocidad que manejan las computadoras, discos duros y unidades ópticas para hacer la lectura y escritura de datos. Por ejemplo, la memoria más rápida en toda la computadora es la memoria cache, la cual se encarga de tener los datos almacenados por si el CPU los necesita.
Los discos duros son lo que más se usa en el mundo y son de relevancia para salvar nuestra información en servidores, computadoras y laptops, es por ello que se busco el tener una opción más rápida de acceso que no ocupara tanto espacio. De aquí surgieron los SSD, que tienen velocidades mucho mayores que un HDD, pero tienen una vida útil más corta.
Con la jerarquía de memoria se puede diseñar una computadora que cubra las necesidades de la empresa, personales o de educación dependiendo en el sector donde trabajemos, como ingenieros esta es una parte importante de nuestra educación, ya que nos permite acoplar los dispositivos a lo que vayamos a realizar o la infraestructura que se necesite.
Sin duda esta unidad fue de mucha ayuda y nos permitió conocer de manera más profunda como es que funcionan nuestros equipos y que tecnologías hay disponibles para poder diseñar un buen servido o mesa de trabajado o simplemente una computadora personal.
Jesús Osnaya Johann Emmanuel 8CM12
0 notes