recuperación de los datos

informaciones técnicas    

home recuperaciòn diagnòstico procedimiento costes contact us mòdulo informaciones
 


Esta página afronta algunos argumentos técnicos que conciernen los hard disk y el rescate de los datos sobre respaldas magnéticos en general.

Enumero argumentos tratados:


¿Cómo es hecho dentro de un hard disk?

¡He aquí un disco abierto!

Aquí sobre es representado un disco IDE de la última generación, falto de la tapadera protectora, por los más curiosos se trata de un Maxtor DiamondMax de 3.5", 5400 rpm y SMART. También los discos SCSI constructivamente son parecidos y se pueden reconducirle a este immagine.Le partes principales son contenidas en un chasis, típicamente de liga ligero pressofusa, cerrado estanco por una tapadera, dotado de guarniciones y de muchas vides de fijado. Al interior:

  • los discos: en el modelo en figura son cuatro, pero pueden ser de 2 en sobre

  • el motor principal, no visible, porque sobre el lado opuesto, que lleva en rotación los discos

  • los cabezales, correos al extremo de un brazo lleva cabezal: soy una pareja por cada disco y actúan sobre las dos caras

  • el motor de movimentazione, que hace cumplir un movimiento a lo largo de un arco de círculo a los bracci entregados cabezales

  • el circuito electrónico de gestión interior de las señales de y por los cabezales, actualmente sólo constituido por una microplaqueta dedicada

  • el cableado interior: en este caso constituido por un circuito impreso flexible

  • el conector IDE a 40 polos, estándares, o bien SCSI estándar a 50 o wide a 68 polos,

  • el conector de alimentación a 4 polos, estándar

  • los jumpers de configuración master/slave y por las varias opciones previstas por el Constructor

  • el circuito impreso del controller, no visible, porque sobre el lado opuesto,

Como se puede ver, las partes constructivas del disco están reducidas y el funcionamiento es asegurado de la elevada tecnología de los materiales empleados y de la experiencia que se ha desarrollado en estos años y que ha llevado a los resultados actuales. En breve se ha pasado como de los ya prehistóricas 10 MB grandes una caja de zapatos, con tiempos de acceso de muchas decenas de milisegundos a los 36 GB en el tamaño 3.5" con tiempos de acceso inferior a los 9ms. A ej., Maxtor, en uno su publicidad, nota 5 años como sus líneas productivas estuvieran capaz de desenhornar un disco de 2 GB cada 9 segundos y hoy sean a un disco por 20 GB cada 2 segundos. Por este los Constructores aseguran períodos de garantía de 2 o más años, hasta 5 o 6 o más por los SCSI. Se tiene que en todo caso notar que la mortalidad de los discos, sobre todo en la fase inicial de trabajo, mortalidad infantil, es todavía bien presente, aunque muy reducido en relación al pasado y al concepto de cobertura debe ser tenido bien presente, si se desea trabajar en seguridad.
También particulares a primera vista no evidentes son dependientes de una tecnología muy sofisticada. ¡A es.., dentro del chasis es introducida una' atmósfera controlada y todo el ensamblaje de las partes es efectuado en habitaciones faltos de polvo, dichas habitaciones blancas, dónde el porcentaje de polvo tiene que ser inferior a pocas partes por millón, contra los muchos millones del entorno común! ). Esta atmósfera controlada es un factor indispensable por el funcionamiento del disco en cuántos los microscópicos cabezales sobrevuelan a elevadas velocidades las delicadas superficies de los platos, sin tocarle, a poco millonésimo de milímetro, gracias a efectos aerodinámicos y la presencia del más pequeño grano de impureza sería como dañino por un coche en carrera el encontrarse delante un peñasco. Pues la abertura de la tapadera protectora, en entorno normal, a lo mejor para echar un' vistazo al interior, provoca la muerte inmediata del disco, y el decaer Garantía.

VUELVE SOBRE


Los motores
La unidad de disco contiene dos motores: uno sirve a llevar en rotación los platos, el otro a mover los cabezales.
Se trata de motores de alto precisone, controlados electrónicamente de especiales circuitos integrados.
Los discos solicitan una alimentación a +5V por los circuitos lógicos y +12V por los motores. Un conector estándar, tipo AMP, ha sido elegido en común por todas las unidades magnéticas sea HDD sea CDROM o parecidos en el tamaño 51/4." El consumo de los discos de las últimas generaciones está muy contenido y la mayor parte de la energía es empleada justo de los motores. El corriente principio es absorbido durante el arranque del disco para llevar en rotación los platos (spin-up), después de qué habrán impulsos de corriente durante el movimentazione de los cabezales. El consumo mínimo se tiene durante el estado de sleep o caseta by, en cuyo son parados los motores y la parte de control se dispone en condiciones de mínimo consumo. El tablero siguiente reconduce algunos valores por una comparación:

spin-up

operativo

sleep

10/20W

5/6W

0.5/1W

Por tanto, en las modernas unidades de disco, el problema del consumo eléctrico es relativamente poco importante, mientras lo es aquel del enfriamiento, en cuánto una cierta parte de la energía absorta es disipada en calor que tiene que ser eliminado eficazmente, pena un acortamiento de la vida del disco. A pesar del empleo de materiales a elevada tecnología, la necesita respetar las tolerancias micrométricas y el trabajo interior de las partes, necesarios al logro de prestaciones cada vez más elevadas, devuelven el calor un enemigo notable. Hasta hace poco fue común a la electrónica de control el efectuar un ricalibrazione térmico, necesaria para mantener la correcta alineación entre los cabezales y los platos, siguiendo las deformaciones debidas al calor; este ricalibrazione solicita una momentánea detención en el traslado de los datos, mientras que el controller provee a la operación. Consigue de ello que, por muchos procesos en que el constante flujo de datos es vital (masterizzazione) audio, vídeo digital, el ricalibrazione, si dilatara más de cierto tiempo, constituye un daño notable a la integridad del proceso mismo.
En los discos más recientes este rey alineación es efectuada al vuelo, on fly, durante el funzionamentoe ordinario y no se averigua el problema de la pérdida de sincronismo más entre los procesos y el flujo de los datos.
Actualmente la dimensión estándar es 3.5" de ancho y 1/2" de espesor y en este tamaño son disponibles discos IDE hasta 26 GB y discos SCSI hasta 36 GB, mientras por este últimos, con tamaños mecánicos mayores, las persuaden pueden subir a muchas decenas de GB.

VUELVE SOBRE


Vemos en detalle algunas partes:

El circuito impreso del controller
Una ficha contiene todas las partes que constituyen el controller del disco. En general es constituida por un circuito impreso encajado en el cuerpo del disco y contenedor un microprocesador, muchos circuitos auxiliares, de la memoria, sea para uso interior sea con funciones de cache. El circuito desarrolla las siguientes funciones:

  • Control del motor de rotación de los platos

  • Control del movimiento del actuador de los cabezales

  • Gestión de la interfaz con el exterior, IDE u otro,

  • Gestión de las funciones de ahorro energético, si presentas.

  • Gestión de las funciones de corrección de los errores, control del flujo de los datos, SMART, si implementara,

Cada constructor soluciona el problema con un diferente circuito y a menudo el mismo constructor emplea muchas soluciones, mientras arista unificada el sistema de interfacciamento con el resto del PC.

La práctica existen diferentes estándares por la interfaz; los lo principal son:

  • ST506

  • ESDI

  • SCSI

  • AT-autobús, de cuyo luego se han derivado

  • IDE/EIDE/ATA

Es importante considerar que existe una fundamental diferencia entre interfaz y sistema de control del disco.
Los discos con las viejas interfaces ST506 o ESDI tuvieron el controller situado sobre la ficha que fue insertada en el autobús del mainboard, mientras la electrónica situado sobre el disco real tuvo funciones limitadas a la escritura y a la lectura de los datos, a causa de los mandos transmitidos por el controller.
En los discos más recientes, o bien aquellos dictas AT-autobús, desarrollados él en fin como IDE/EIDE/ATA, en cambio, toda la lógica de control es situada sobre el disco y el sistema sólo pone a disposición un canal de comunicación constituido por las puertas IDE de interfaz.

La imagen siguiente es relativa a un viejo modelo con interfaz ST-506, pero suficientemente ejemplifica lo dicho.
El microprocesador de control del disco es, obviamente dotado de un propio firmware, un software de gestión interno al circuito, a veces sobre sobre EPROM o sobre ROM, más raramente en Flash, de un mismo Ram, de uno o más clock y de circuitos de I/O oportunos.
A menudo está disponible también una cierta cantidad de cache que constituye un buffer para tratar de modo más fluido el flujo de los datos de y hacia el disco, generalmente de 128, 256 o 512kB. Generalmente, la escritura y lectura de los datos sobre los discos es mucho más veloz del traslado de los datos mismos por la interfaz; el cache constituye por lo tanto un válido tanque por el aparcamiento momentáneo de los datos. El empleo del cache puede reducir de muy el tiempo de acceso a los datos. , Atención a no confundir el pequeño cache sobre el circuito de control del disco con el cache que el sistema operativo puede formar por la gestión de los datos del hard disk y que es sacada en la memoria principal del sistema. Más adelante otras informaciones sobre el argumento.

El circuito impreso ha sido removido por la carcasa del disco y girado de 90 grados hacia izquierda.
Usted puede notar el EPROM continente el firmware de gestión del disco, junto a la UCP, un procesador Hitachi serios 63xx.
Los motores son controlados por oportunas unidades de disco de potencia que proveen las señales necesarias al correcto funcionamiento, bajo control de la UCP; un haz de hueco colega los motores al circuito impreso. En la foto es visible unido sólo el motor de rotación, spin,; el cable del motor de movimentazione de los cabezales fue demasiado corto para poder ser unido a su conector con el circuito girado.
Notar el perfilado del circuito impreso, necesaria para hacerlo regresar en las medidas típicas de estorbo del disco.

Da la complejidad del controller, también la cara opuesta del circuito impreso es llenada de miembro. La foto reconduce el circuito reposicionado sobre el disco, como normalmente es. Se notan una discreta cantidad de pequeños componentes surface mount, a montaje superficial, y, en el rincón en bajo a mano izquierda, el motor de los cabezales, que, avanzando como espesor, el proyectista ha obligado a perfilar alrededor el circuito impreso todo; la forma no rectilínea del bordo en algunos apunta es debida a la necesidad de dejar espacio a la estructura de soporte de la carcasa, no insertada en la foto para mayor claridad.
El conector de la interfaz es viejo tipo ST-506, que solicita dos cables hacia la ficha de control apuesta sobre un slot del PC; los contactos son chapeados de oro para mejorar la calidad de la conexión eléctrica.

Ya que el control es efectuado por un microprocesador es, obviamente, necesario un propio firmware, un software de gestión interno al circuito, a veces sobre sobre EPROM o sobre ROM, más raramente en Flash, de un mismo Ram, de uno o más clock y de circuitos de I/O oportunos. A menudo está disponible también una cierta cantidad de cache que constituye un buffer para tratar de modo más fluido el flujo de los datos de y hacia el disco, generalmente de 128, 256 o 512kB. Generalmente, la escritura y lectura de los datos sobre los discos es mucho más veloz del traslado de los datos mismos por la interfaz; el cache constituye por lo tanto un válido tanque por el aparcamiento momentáneo de los datos. El empleo del cache puede reducir de muy el tiempo de acceso a los datos. , Atención a no confundir el pequeño cache sobre el circuito de control del disco con el cache que el sistema operativo puede formar por la gestión de los datos del hard disk y que es sacada en la memoria principal del sistema. Más adelante otras informaciones sobre el argumento.

VUELVE SOBRE


Interfaz
La interfaz es aquella parte de circuito, hardware y software, que permite el enlace del disco a la unidad central. Han sido implementados de ello muchos tipos, algunos de los que, con el tiempo, se han vuelto estándares.
Sin pormenorizar aquí, históricamente los estándares más importantes han sido:

  • ST-506. Ya anticuado, fue la interfaz de los primeros PC. El controller real fue una ficha integrada sobre el autobús del PC y unido al disco con dos huecos platos de diferente ancho. El límite físico es de dos unidades por controller.

  • XTbus y ATbus. En los primeros PC XT y AT fue una estructura innovativa en que la ficha sobre el autobús sólo constituyó una puerta y el controller real se fue concentrado en el disco. Usted le es desarrollada enseguida en el estándar IDE.

  • IDE y derivados. El controller es instalado sobre el disco y la interfaz es reducida a una puerta, generalmente integrada en la ficha madre. El enlace ocurre con un solista cable a 40 polos. El límite físico es de dos unidades por puerta, Máster y eslavas.

  • SCSI. El enlace con el PC ocurre por un controller específico, que permite una discusión a macro mandos, tipo autobús, sobre el cable de enlace que permite tener hasta 7 unidades en paralelo. El cable, individual, puede ser a 50 polos, para el tipo de coloquio a 8 bites o 68 polos por aquel a 16bit (SCSI Wide). Más controller pueden convivir sobre el mismo sitema, aumentando el número de unidad installabili.

VUELVE SOBRE


Firmware
De cuánto dicho antes, está ya una evidencia la presencia de uno o también más procesadores sobre las fichas electrónicas montadas en los discos duros. Obviamente, si está presente un procesador, también habrá una microplaqueta contenéis el software por el funcionamiento del complejo. Éste toma el nombre de firmware.
Sustancialmente se trata de un mini sistema operativo que contiene los routines de control del hardware, los procedimientos de codifica y el control de la interfaz hacia el sistema principal.
Usted es señalado a más procesadores en cuánto algunas funciones, por ejemplo la interfaz, es remitida a un procesador, mientras que las complejas operaciones de escritura y lectura son desarrolladas por otra unidad. También los motores son controlados de integrados dotados de un elevado "intelligena" y autonomía.
El firmware puede ser contenido en los procesadores, que tienen un área interior programable como PROM o EPROM, o bien en una microplaqueta externa también riprogrammabile (EEPROM) FLASH. No se piensas, en cambio, con este a la posibilidad de upgrade de los "BIOS" de los discos; muchas motivaciones, entre los que la estructura del hardware y también la necesidad de tutelar la seguridad del contenido del reverse engeneering hacen él que esta posibilidad no sea una de las ofertas de los constructores de discos.
Por inciso, se han averiguado casos de conflicto entre los firmware de discos y aquellos de los BIOS de las fichas madre; en estos casos, da la imposibilidad de cambiar el firmware sobre los discos, la solución está en el upgrade de los BIOS de los mainboard. Si ésta no es posible, no queda desaforadamente otro que hacer qué reemplazar a una de las dos miembro.
Otros problemas del firmware pueden concernir la incompatibilidad de una unidad de disco con otro de marca diferente o bien problemas con las gestiones DMA, Autobús Mastering.

VUELVE SOBRE


El circuito electrónico de gestión interior de las señales de y por los cabezales.
Las huellas las magnéticas sobre los discos tienen dimensiones muy reducidas y tienen que ser hojeadas o escritas en tiempos breves para conseguir prestaciones elevadas. La operación de controlar el flujo de la corriente en los cabezales es realizada, en los modernos hard disk, con circuitos especiales dedicados a este objetivo, generalmente sitios dentro del disco, cuánto más cercano posible a los cabezales.
Éste es hecho necesario por la necesidad de reducir a lo mínimo el largo de los conductores que llevan las señales de y por los cabezales mismos.
Este integrado se encuentra situado sobre un circuito impreso flexible que constituye también el enlace entre el brazo lleva cabezales y el conector que lleva las señales al circuito impreso lo principal.

En la imagen se puede ver claramente la gran microplaqueta de control de los cabezales montada sobre el circuito impreso flexible, que ha sido extraído por el interior de la caja del hard disk. Sobre el circuito flexible se notan también otras miembro necesarias al funcionamiento o bien a resistencias y condensadores a montaje superficial, los rettangolini oscuros con las extremidades metálicas. A. la extremidad izquierda hay el conector por el enlace con el circuito impreso del controller.
Sobre el lado derecho se ve el brazo lleva cabezales con tres grupos de 2 cabezales, 3 discos.

Las informaciones digitales son constituidas por secuencias de 1 y 0 que los circuitos electrónicos transforman en niveles de tensión, 1 = nivel alto, 0 = nivel bajo. Sobre el soporte magnético las informaciones son almacenadas como impulsos magnéticos.
El circuito de los cabezales tiene, pues, el objetivo de convertir los niveles lógicos en niveles magnéticos y viceversa.
Las informaciones magnéticas consisten en pequeñísimas áreas de la superficie del disco en que es conservado un campo magnético. Podemos pensar en pequeñísimos imanes, anchas alguna decena de millonésimo de milímetro. Pensáis en un imán normal: ella tiene dos polos, dichos Norte y sur y la energía magnética, el campo magnético, corre entre los dos polos; las informaciones magnéticas son pues pequeñísimos imanes. ¿Cómo hacen a quedar sobre el disco? Por la persuade de algunos materiales de conservar una parte del campo magnético que le ha sido aplicada.
Probáis a tomar con un imán un tarimas sonsacas o clavos: muchos de ellos, una vez sacada el imán, quedarán magnetizados y podrán a su vez levantar otros alfileres o clavos. Ahora padecierais de reemplazar el imán con un electroimán, el cabezal, y tendréis el principio sobre que se basa la escritura magnética del disco, y del floppy, cintas, las casitas del casete, etcétera.
Y es nota pensando en las cajas audio que podemos tener un visón completa de un procedimiento de scrittura/lettura magnético, análogo a aquel del disco duro. La comparación es adecuada, en primera instancia; basta con cambiar como algunas expresiones en el tablero que sigue:

Grabador audio (incisión)

Disco magnético (escritura)

La voz, vibración del aire, es transformada en señal eléctrica por el micrófono

El software transforma los datos en señales lógicas vías

el circuito de grabación elabora la señal y lo manda al cabezal

el circuito de control del disco elabora la señal y lo manda al controller de los cabezales

el cabezal convierte la señal eléctrica en un campo magnético y lo "incide" en la cinta, bajo forma de campo magnético

el cabezal convierte la señal eléctrica en un campo magnético y lo "incide" en la cinta, bajo forma de campo magnético

Una vez "escrito", el material magnético de la cinta, o del disco, conservará por largo tiempo los campos magnéticos que constituyen la grabación; ella podrá ser "leída" con un procedimiento inverso:

Grabador audio (lectura)

Disco magnético (lectura)

la cinta corre delante del cabezal y las variaciones del campo magnético incidido son transformadas en variaciones de nivel eléctrico

la superficie del disco gira delante del cabezal y las variaciones del campo magnético incidido son transformadas en variaciones de nivel eléctrico

el circuito de lectura elabora la señal recibida y lo amplifica a un nivel adecuado

el circuito de lectura elabora la señal recibida y lo transforma en señales digitales

el altavoz transforma la señal eléctrica en sonido oíble como movimiento mecánico del aire,

el software permite extraer de estas señales digitales las informaciones almacenadas

¿Claro, no?
Efectivamente el ejemplo es bastantes ok; para ser precisos, en cambio, hace falta añadir que la cinta audio contiene un campo magnético "continuo", variable como valor según la modulación del sonido que tiene que conservar. Sobre el disco, en cambio, son incisos de los pequeños campos magnéticos definidos.

En el revisor de los cabezales se es fijado sobre un circuito impreso flexible: se trata de un particular tipo de circuito impreso realizado con materiales extremadamente flexibles y resistentes y capaz de ser doblado millones y millones de veces sin deformarse o romperse, siguiendo el movimiento de los cabezales.
Las señales pre tratados por el circuito de control de los cabezales son en fin trasladados al circuito principal donde son elaborados.
Existen muchos métodos por el empaquetamiento, la escritura y la lectura de los datos. La tendencia actual es siempre colocar uno mayor número de datos a igualdad de superficie magnética; éste es conseguido con el progresar de las tecnologías constructivas y de los materiales y con un aumento de la complejidad de los circuitos y los sistemas de lectura y escritura, con la introducción de cabezales particulares, de procesadores y técnicas DSP (Digital Signal Processing) muy complejas.

VUELVE SOBRE


Codifica señal.
Usted podría ser llevados a pensar que las polaridades Norte y sur del imán puedan ser empleáis como 1 y 0 vías; efectivamente la cosa no es tan simple porque por los cabezales es posible leer con sencillez no la polaridad del campo pero su variación, por ejemplo que gallinero ocurriendo una transición de un campo orientado Norte-sur a uno orientado sur-Norte.
Los problemas conexos con el mantenimiento de microscópicos campos magnéticos, acercados estrechamente uno al otro, con polaridad también opuesta, solicita tecnologías particularmente complejas en cuanto más pequeñas son las superficies interesadas por los campos, más campos por unidad de superficie = más informaciones almacenables sobre el disco, se estrellan con la necesidad de materiales magnéticos de calidad y pureza sobresalieron y con la construcción de cabezales extremadamente pequeños, pero capaz de engendrar campos muy intensos, por la magnetización de la superficie en escritura, y de notar con seguridad las micros variaciones entre los campos, durante la lectura.
Además de éste siempre es solicitada una elevada velocidad de lettura/scrittura por el mayor solicitud de prestación; el aumento de la transfer plazos, cantidad de datos trasladados, se consigue con una más rápida rotación del disco, de modo que llevar bajo los cabezales una mayor superficie en la unidad de tiempo.
Éste solicita que los datos no los sean echados sencillamente, pero sean codificados (encoding) según sistemas y algoritmos particulares. Además los codifiche tienen el objetivo de estibar cuánto más datos posibles sobre la superficie útil.
En este sentido, un ejemplo de "codifica" que puede devolver más o menos la idea de una de las finalidades de estos sistemas es la conocida compresión de los datos, perlappunto con "codifiche" como CIERRE DE CREMALLERA, ARJ, etcétera
¿De qué se trata, en sustancia? Si pensamos que un conjunto organizado de datos, expediente, es compuesto por un cierto número de bytes, a ej. 100, escrito sobre un disco ocupará cierta superficie. Si, con algún sistema, puedo comprimir estas informaciones de modo que el extendido contenido esté disponible en 50 bytes, tendré la posibilidad de almacenar sobre la superficie del disco el doble de informaciones, y por lo tanto tendré en cierto sentido aumentada la persuade del disco.

Los métodos de codifica pero tengo que también ocuparse de los problemas físicos de la escritura y lectura de datos sobre un soporte rotatorio a alta velocidad; el todo, obviamente, manteniendo un estándar de seguridad y fiabilidad cuánto más alto posible. Por ejemplo, un problema notable es identificar dónde un campo acaba y empieza un siguiente, acordarse que estamos hablando de campos de dimensiones infinitesimales que giran bajo los cabezales a 5400, 7200 o 10000 vueltas al minuto.
Por ejemplo, queriendo almacenar un cordón de 1 lógicos no podremos depositar ciertamente un cuantitativo equivalente de campos magnéticos de la misma polaridad o intensidad; sería extremadamente difícil identificar donde un campo acaba y empieza lo siguiente...
Una solución posible es atar la escritura a un clock: cada información es escrita espacialmente y temporalmente en estrecha unión con una señal de sincronismo que ayuda a identificarla durante la lectura, que será sincronizada al mismo clock.
Otros métodos de codifica más complejos han sido desarrollados para poder almacenar en el disco una cantidad siempre mayor de datos. En sustancia, para concluir, las tecnologías hardwares se desarrollan con el objetivo de hacer posibles siempre mayores densidades de campos magnéticos por unidad de superficie, mientras los métodos de codifica tratan de estibar una mayor cantidad de información en los campos, haciendo mientras tanto posible una escritura y lectura confiable.
En los párrafos siguientes vemos algunos de los métodos de codifica más difusos.

Frequency Modulation (MFM)
Uno de los primeros sistemas adoptado para codificar las señales digitales que salvar sobre un medio magnético ha sido aquel de la frecuencia modulada, FM Frequency Modulation. El concepto es FM parecida al de las emisiones radio, Frecuencia modulada. En este método un dato de valor 0 es escrito como dos consecutivos campos magnéticos de polaridad opuesta, mientras que un 1 es constituido por dos campos de la misma polaridad. La señal de escritura es sincronizada con un clock: el primer campo magnético, correspondiente al primero golpe del clock, constituye el "start" del bit, mientras que lo siguiente es el valor.
La definición de frecuencia modulada deriva del hecho que la lectura está "en movimiento." Si indicamos con N el campo invertido y con P aquel invertido, el 0 lógico es representable con NP, mientras las 1 con NN; un byte compuesto de 8 bites de valor 0 será NPNPNPNPNPNPNPNP, mientras un byte de 1 será NNNNNNNNNNNNNNNN siendo atado a un clock; se ve como la frecuencia de la representación de las 1 sea doble de la del 0.
Actualmente FM, ampliamente utilizada en los primeros sistemas de memoria magnética, ya es no conforma con las soluciones actuales. El principal límite está a punto de en la necesidad de dos campos magnéticos definir un bit.

Modified Frequency Modulation (MFM)
MF, con el aparecer primeros hard disk a planos rotatorios, es reemplazada por MFM o bien modified frequency modulation, Frecuencia modulada Modificada, que reduce el número de los campos magnéticos necesarios a definir un bit, sólo insertando un campo inverso en presencia de dos ceros consecutivos. Así haciéndose también puede llegar a la duplicación del persuade disco.
El método MFM ha sido empleado sobre los primeros hard disk, interfaz ST-506, y todavía es hoy el sistema de codifica por los floppy

Run Length Limited (RLL)
Ya con las series de hard disk con interfaz ST-506 o SCSI de persuade superior a los 40MB es introducido el método RLL, Run Length Limited o bien largo operativo limitado. Efectivamente no se trata de un método individual, pero de una "familia" de métodos de codifica sofisticados, tesis a superar los límites impuestos por los simples codifiche a frecuencia modulada.
RLL obra sobre bites individuales no, pero sobre grupos de bit, empleando sea clock sea campos magnéticos directo e inversos para conseguir paquetes de datos de gran compactabilidad que permiten una escritura y lectura más eficiente y seguros.
RLL tiene dos parámetros principales: run length y run limit, de cuyo deriva el nombre. Run length es el mínimo espacio (tempo/superficie) entre dos campos magnéticos inversos, mientras run limit es lo máximo permitido. El tempo/spazio entre dos campos inversos tiene que ser bastante pequeño, de otro modo el cabezal de lectura amenaza de perder el sincronismo con el clock. Al mismo tiempo los cabezales tienen que ponerse cada vez más pequeñas para permitir la escritura precisa de los campos. ¡Un bonito match!
Los parámetros de RLL son expresados en la forma "run length, run limit RLL"; por ejemplo un tipo común puede ser 1,7 RLL.
Los codifiche sofisticados del tipo RLL solicitan controller cada vez más complejos; las fichas electrónicas a bordo de los discos comprenden ya microprocesadores, cuarzos, memorias, circuidas dedicados.

Partial Response, Maximum Likelihood (PRML)
Contando con microprocesadores a bordo de los discos se puede hacer mucho. Los sistemas de escritura fina a ahora visas se basan en la encuesta "al vuelo", por el cabezal, de las variaciones entre los campos magnéticos dirigidos e inversos, analizando las variaciones en relación con un clock.

Con el aumentar densidad de los datos y la velocidad de rotación de los platos se alcanza un límite más allá del que el análisis de las variaciones de campo se convierte en problemática y la posibilidad de error se amplifica. La señal de los cabezales se pone cada vez menos neta, cada vez menos digital y más que nunca analógico, devolviendo difícil a los clásicos circuitos digitales la definición de las áreas de los campos magnéticos elementales que constituyen el avellano de la información.
Los constructores son a la continua búsqueda de nuevas soluciones, principalmente basadas sobre el análisis digital de las señales, por especiales procesadores DSP (Digital Signal Procesador) capaz de obrar a alta velocidad sobre las informaciones procedentes de los cabezales.
Por ejemplo Quantum ha desarrollado un sistema llamado Partial Response, Maximum Likelihood (PRML) que emplea complejos técnicos hardwares y software. No se busca más que identificar los individuales campos, pero, por los DSP y oportunos algoritmos, se transforman bloques de datos analógicos leídos por los cabezales, partial response, para determinar la correcta secuencia de bit que tiene mayores probabilidades de ser la que ha engendrado la escritura de aquella específica secuencia de campos, maximum likelihood.
Cada constructor desarrolla tecnologías a hoc y el desarrollo todavía está en acto.

VUELVE SOBRE


Transfer Plazos
La transfer plazos o tasa de traslado indica la cantidad de datos que pueden ser trsferita de y por el disco. Es obvio que un disco con una transfer plazos altos tendrá prestaciones mejores de uno que exhiben un valor bajo.
Su valor depende de muchos factores; aumenta con el aumentar velocidad de rotación, con el perfeccionamiento de los métodos de codifica y corrección de los errores, las modalidades de funcionamiento de la interfaz, etc..
Existen pruebas específicas para determinar este factor, pero deben ser tomados con las oportunas cautelas. Vemos porque.
Ha ocurrido que una prueba sobre el disco efectuado con un benchmark comercial haya dado un buen resultado sobre el disco nuevo y luego, repetido después de cierto tiempo, haya dado resultados más ordinarios. ¿Por qué?
El problema está en el hecho que el traslado de los datos de los platos no es constante pero depende de la posición de los cabezales con respecto del bordo del disco. Las zonas periféricas tienen una extensión mayor y pueden contener densidades mayores con una velocidad de traslado mayor de aquellos más interiores.
Éste explica el misterio de que sobre: la primera prueba es efectuada sobre un disco casi vacío y son empleadas las huellas externas, más performanti; las pruebas siguientes, hechos cuando el disco es más lleno, desplazan el área de la prueba a las zonas interiores, menos performanti () también puede haber una relación 1 a 2.
La solución es el empleo de prueba que tengan presente este problema, y en general el tomar los resultados de las pruebas "cum grano salis"...).
Por inciso, debe ser recordado que también la fragmentación de los expedientes es una causa de las bajas prestaciones de las pruebas; antes de las pruebas es oportuno efectuar un deframmentazione (defrag). También en el empleo común es oportuno acordarse de desfragmentar de vez en cuando el disco, sea para mejorar las prestaciones, sea para reducir las posibilidades de error.

VUELVE SOBRE


Write Precompensation
Write precompensation es referido a la necesidad de variar los parámetros de la corriente en los cabezales durante la escritura sobre los discos. Los viejos discos usaron el mismo número de sectores por huella, independientemente del hecho que se tratara de huellas externas o internas. Es evidente que sobre las huellas interiores, de circunferencia menor, los sectores tengan que ser de dimensión menor de aquellos sobre las huellas más externas, de circunferencia mayor. En sustancia, la densidad de campos magnéticos no es uniforme sobre todo el disco. Este lleva a la necesidad de compensar de algún modo esta diferencia que, más allá de cierta huella, haría muy difícil la relectura; por lo tanto, uno de los parámetros presentes en los tableros de los viejos discos es el número de huella del que partir con la compensación, que es administrada por el sistema de control justo del disco.
Ya este parámetro no es necesario para los discos modernos que utilizan muchos sistemas de escritura y lectura y dotados de controller muy desarrollados.

VUELVE SOBRE


Interleaving
Otro término que recurre cuando se habla de discos es la palabra interleaving, visto traducido al italiano con el horrible término interfoliación, indica la necesita la presencia de un "espacio" vital entre los sectores.
Los sectores de un disco son numerados en una secuencia lógica de modo que poder ser dirigidos sin problemas durante las operaciones de escritura y lectura. Pero no es dicho que un sector lógico 1 sea puesto físicamente antes del sector 2; éstos depende de los sistemas de codifica, de gestión del disco, etc.. ¡Al acto práctico un sector lógico y lo siguiente, si se encontraran contiguos, podrían crear problemas en la lectura! ¿Por qué éste? porque hace falta recordar que el disco gira a gran velocidad bajo el cabezal y al final de la lectura de un sector el sistema solicita cierto tiempo para organizar las determinadas camas y éste podría ser tal que hacer evitar el sector siguiente y solicitar una nueva vuelta del disco por la lectura. Si, en cambio, los sectores no son contiguos, a ej. la secuencia es 1 - 3 - 2, leído el sector 1, arista todo el tiempo del paso del sector 3 antes de iniciar la lectura del 2, dejando así todo el tiempo a los circuitos para poder proceder a la recuperación de los datos del sector 2 sin solicitar otra vuelta del disco.
Obviamente el caso mejor es un interleave de 1, es decir todos los sectores lógicos y físicos son correspondientes; pero sólo es posible presuponiendo a uno persuade de lectura tal que no tener tiempos muertos al final de un sector, a ej. explotando un cache. De otro modo las prestaciones son reducidas grandemente.
El estándar de los viejos discos fue típicamente de 17 sectores por huella. Con un interleave de 1:1, la secuencia de los sectores físicos y lógicos corresponde, o bien 1-2-3-etc.). Con un interleave de 2:1 la secuencia típica de numeración lógica de los sectores físicos se convierte en 1, 10, 2, 11, 3, 12, 4, 13, 5, 14, 6, 15, 7, 16, 8, 17, 9. En este caso un sector no consecutivo es insertado en la secuencia y la disposición lógica es tal para que, si el controller solicita el tiempo de paso de un sector para completar las operaciones sobre el precedente, la prestación sobre toda la huella es el principio posible.
A segunda de es construido el disco como solo uno específico interleave está capaz de proveer las máximas prestaciones y no es dicho sea 1:1. Los valores comúnes fueron de 1:1 a 5:1. Por este los utilities de gestión de los discos, en la fase de formateo a bajo nivel, previeron una prueba, mediano analysis, para determinar cuál interleave fuera el más apto.
En los discos actuales ya el parámetro de interleave no es necesario ni accesible del exterior; todos los controles y los parámetros de formateo del disco son programados por el constructor y no es previsto que el usuario los manipula en ningún modo.

El hecho que algunas fichas madre le conserven en el BIOS los utilities de gestión a bajo nivel del disco o sean disponibles tools con funciones análogas no autoriza a utilizarlos; recordar que no es posible formatear a bajo nivel los discos IDE si no con tools específicos del constructor, bien raramente disponibles a los usuarios.

VUELVE SOBRE


Los errores
¿Pero equivoca un disco? Ciertamente, sólo que es organizado de modo que el sistema no me entero de ello.
Las causas de error son múltiples; las tecnologías modernas han empujado al extremo los materiales y la empinada densidad de escritura, ella no perfecta uniformidad de los materiales magnéticos, la alta velocidad de rotación y el intenso flujo de datos pueden dar origen a errores en la lectura. Molestias electromagnéticas, corrientes inducidas, problemas térmicos son otras causas de error.

Puesto que un error sobre los datos salvados sobre el disco sería inaceptable, todos los constructores se han empeñado a llevar a la práctica todas las posibles soluciones para prevenir este problema. Obviamente no estamos hablando de errores debidos a crash del motor o los cabezales o a daños a la electrónica de control: éste ponen fuera de uso en parte el disco o totalmente y por su prevención han sido implementados oportunos mecanismos (SMART).

El sistema base por la revelación de los errores y la corrección de modo transparente es ETC (Error Correcting Colas). Parecido a aquél implementado en las memorias RAM, con funciones análogas, consiste en algoritmos, a ej. el Reed-Solomon, que permiten a la electrónica de control de corregir situaciones de error debidas a la lectura errada de uno o más bites. Generalmente los algoritmos se basan en la redundancia de las informaciones y preven sofisticados routines software. Un sector contiene típicamente 512 bytes o bien 4,096 bites; a éste son añadidos otros bites dedicados etc al. La cantidad depende del algoritmo usado y del planeamiento del sistema; se tiene que mediar entre la seguridad de la corrección y la reducción del espacio y las prestaciones. Cuando es escrito un sector, también es escrito ETC el relativo número de bit de; cuando el sector es releído, el algoritmo combina datos y ETC y, averiguado un error, lo corrige en los límites impuestos por el proyectista. Esta operación, como dice, es completamente transparente para el usuario, aunque en algunos discos de las familias más recientes, los datos de intervención de la corrección son monitorati del circuito de control sea para activar mecanismos de cobertura interior, sustitución de sectores defectuosos con otros copia, sea para señalar el posible futuro estropeo grave del disco (SMART).
Si los sistemas de corrección del error no están capaz de intervenir cumplidamente, entonces la avería le es reconducida al usuario.
Una posible secuencia de las intervenciones es:

  • Revelación del error: a los datos camas en el sector es aplicada ETC el procedimiento y, si no son averiguados errores, los datos son enviados a la interfaz para ser puestos a disposición del sistema.

  • Corrección del error: ETC el algoritmo corrige el error en lectura utilizando las informaciones rebosantes. Un error correcto a este nivel no es considerado realmente un error.

  • Repetición de la lectura: si ETC el sistema no ha estado capaz de corregir el error porque demasiado extenso por sus posibilidades, el paso siguiente es una nueva tentativa de lectura del sector. Éste puede ser hecho automáticamente por el circuito de control del disco. A menudo un error es causado de un problema del campo magnético o de otras causas no repetitivas y la relectura de la zona magnética permite la corrección del error. En este caso se habla de determinados "recovered"o de error correcto después de una nueva tentativa.

  • Procedimientos avanzados de corrección del error: muchos constructores implementan procedimientos de correcciones que implican algoritmos más sofisticados y, generalmente, capaz de corregir el error. ¿Por qué, entonces, no los utilices directamente? Porque la complejidad del procedimiento llevaría a una disminución de velocidad del traslado de los datos que es aceptable para un error ocasional, pero perjudicaría las prestaciones en el funcionamiento corriente. A veces los procedimientos también implican el hardware, reemplazando, por ejemplo, los sectores dañados con otros obligados como reserva.

  • Error no corregible: si nadie de los procedimientos anteriores está capaz de corregir el error el driver señalará la avería al sistema.

Mapa de los sectores defectuosos
La estructura de los viejos hard disk en que la correspondencia entre parámetros físicos y lógicos fue muy estrecha y que no contaron sofisticadas tecnologías actuales, uno de los elementos típicos fue la presencia de una lista de sectores defectuosos. Usualmente el constructor proveyó el disco con una hoja de prueba comprendente la lista de los sectores encontrados defectuosos a la prueba, o bien de las áreas de los platos en cuyo defectos de metalización devolvieron a insegura la escritura de los datos; el usuario tendría en fin integrado estos paramentri en los oportune tableros durante el formateo a bajo nivel del'unitá, para permitir al sistema de excluir las áreas defectuosas de la asignación de las direcciones lógicas.
Al estado actual, también esta función no hace parte de las necesidades de modernos hard disk que son estructurados de modo diferente, con asignaciones lógicas de las superficies físicas establecidas durante el proceso productivo y no accesibles o modificables del usuario.

VUELVE SOBRE

 


© CentroRecuperoDati® 1998 - 2005. All rights reserved.