Cómo contratar diseño web sin hacer el ridículo

Capítulo 2

¿Cómo funciona un ordenador?

En este capítulo aprenderás…

1. Cuáles son los elementos básicos que componen cualquier ordenador

2. Qué es la CPU

3. Cómo almacena datos un ordenador y cuál es la diferencia entre un disco duro y una memoria

4. Qué es el hardware y qué es el software

5. Qué son en realidad las famosas apps (y por qué no se pronuncia a-pe-pe)

6. Qué es un sistema operativo y qué es exactamente Linux

7. Qué es y cómo funciona el lenguaje binario

8. Qué pasa en tu ordenador para que puedas ver una bonita imagen en la pantalla


Elementos de un ordenador

Un ordenador no es capaz (ni lo será en nuestro tiempo de vida) de deducir, razonar, juzgar, pensar u obtener conclusiones por sí mismo.

Cuando un ordenador proporciona un resultado es porque alguien (otro usuario, máquina o programa informático) le ha facilitado unos datos y unas órdenes. Todo lo que hace un ordenador lo hace porque alguien antes le ha dicho a ese ordenador que ante ciertas circunstancias debe producir cierto resultado. Cuando tu smartphone te recomienda la ruta más corta entre dos puntos es porque antes ha determinado que de todas las rutas posibles entre esos dos puntos, la que te presenta es la más eficiente.

computador = computadora = ordenador

PC son las siglas de Personal Computer, que se traduce como “ordenador personal”. Por tanto, siendo estrictos, los “Mac” (los ordenadores de la marca Apple) también son PCs.

Fue el matemático húngaro John Von Neuman (1903—1957) el que ideó el funcionamiento de las computadoras modernas, algo a lo que se denominó arquitectura de Von Neumann.

Lo hizo en 1949 mientras trabajaba para el ejército de Estados Unidos en la construcción del ENIAC, una máquina que se convertiría en la primera computadora electrónica programable. Es decir, la primera computadora electrónica que no se limitaba a resolver siempre un mismo problema, sino que se podía programar para solventar diversos problemas.

Imagen 1.1. Glen Beck, del que apenas he encontrado información, y la polifacética e interesantísima [Betty Holberton](https://en.wikipedia.org/wiki/Betty_Holberton), programando el *ENIAC*.*ENIAC* son las siglas de *Electronic Numerical Integrator And Computer*, que se traduce como

Imagen 2.1. Glen Beck, del que apenas he encontrado información, y la polifacética e interesantísima Betty Holberton, programando el ENIACENIAC son las siglas de Electronic Numerical Integrator And Computer, que se traduce como “Computador E Integrador Numérico Electrónico”.

La historia del ENIAC en dos minutos. Sólo por ver cómo le contectan un cable (1:39) merece la pena:

Von Neuman debe su clarividencia, en parte, a que un coetáneo suyo, el norteamericano John Vincent Atanasoff (1903—1995), inventó el ordenador digital diecinueve años antes, en 1930.

¿Y qué es una computadora? Una computadora (u ordenador) es una máquina que (1) recibe, (2) procesa, (3) almacena y (4) representa datos. Y para realizar cada una de estas cuatro tareas una computadora cuenta con cuatro elementos principales:

  1. Dispositivos de entrada, como el ratón o el teclado. Son los elementos que permiten a la computadora recibir datos.
  2. CPU (siglas de “Central Process Unit“, que se traduce como “Unidad Central de Procesamiento”), también llamado procesador o microprocesador. Es el elemento encargado de operar con los datos de entrada para producir datos de salida, que es lo que se entiende como procesar datos.

    Foto de la parte superior de un microprocesador Intel 486. Se trata de una placa de plástico con forma cuadrada bajo la que se pueden observar 32 de sus pequeños conectores metálicos.

    Imagen 2.2. Procesador Intel 486. El 486 fue el procesador anterior al famoso Pentium I. Intel y AMD construyen la totalidad de procesadores de los ordenadores portátiles y de escritorio. Samsung o Atmel, entre otros, fabrican microprocesadores para teléfonos móviles, tablets y otros tipos de dispositivos. Otra empresa desaparecida con una historia curiosa es la de la británica Acorn, nacida a finales de los 70. A ella le debemos, en parte, la existencia de los procesadores actuales.
    El procesador de la fotografía superior tiene unas dimensiones aproximadas de 4,5 centímetros de lado y 0,5 centímetros de altura.
    (Imagen bajo licencia CC BY-SA 2.0 cortesía de Henry Mühlpfordt.)

  3. Dispositivos de almacenamiento como el disco duro o la memoria, donde se almacenan datos como, por ejemplo, los ficheros.
    • El disco duro es el dispositivo donde se almacenan los datos de manera permanente (hasta que un usuario los borra), mientras que en la memoria caché y en la memoria RAM (siglas de “Random Access Memory“, que significa “Memoria de Acceso Aleatorio”) sólo se almacenan temporalmente los datos con los que está trabajando la CPU en un momento puntual.

      Carcasa metálica con base de plástico, rectangular. Se trata de un disco duro de aproximadamente 3,5 pulgadas de ancho, de la marca Maxtor, de 40 gigabytes, y para un ordenador se sobremesa.

      Imagen 2.3. Disco duro de un ordenador de sobremesa.
      (Imagen bajo licencia CC BY-SA 3.0 cortesía de Christian Jansky.)

    • La memoria caché y la memoria RAM ofrecen la velocidad de respuesta que requiere la CPU y los discos duros tienen el precio y capacidad que demandan los usuarios. Además, las memorias caché y RAM son volátiles, lo que significa que los datos almacenados en ellas se borran en cuanto se detiene el suministro eléctrico. La memoria caché está físicamente integrada en la CPU (no confundir esta memoria caché con la memoria caché web que, como se explica en el capítulo 6, no tiene nada que ver).

      Foto de placa de memoria RAM.

      Imagen 2.4. Un robot de juguete sujeta una placa de memoria RAM.
      (Imagen bajo licencia CC BY-SA 2.0 cortesía de Chris Isherwood.)

    • Para que todos te entiendan, cuando te refieras a la RAM debes hablar de “memoria” y cuando te refieras al disco duro debes hablar de “almacenamiento”.
  4. Dispositivos de salida, como los altavoces o la pantalla. Permiten representar los datos devueltos por la CPU.

Un ordenador recibe datos a través de los dispositivos de entrada, los procesa con su Unidad Central de Procesamiento –el corazón del ordenador–, y envía los resultados de dicho procesamiento a los dispositivos de salida.

[Los dispositivos de entrada se comunican con la CPU, ésta procesa datos en la memoria y devuelve datos a los dispositivos de salida.

Imagen 2.5. Esquema simplificado de la arquitectura de un ordenador.
Cualquier dispositivo que siga este modelo se considera un ordenador o computadora, incluyendo un PC, smartphone (que significa teléfono inteligente, como el iPhone) o una tableta o tablet (como el iPad).

Fotografía de una torre de ordenador de sobremesa donde se observa un circuito integrado, cables, y componentes electrónicos.

Imagen 2.6. Torre abierta de un ordenador de sobremesa donde se observa la placa base. Todos los elementos internos de un ordenador se ensamblan en, o conectan a, la placa base.
(Imagen bajo licencia CC BY 2.0 cortesía de walknboston.)

Hardware y software

Al hardware y al software también se les conoce como a la parte física y la parte lógica de un ordenador, respectivamente:

  • El hardware son los dispositivos físicos que componen el ordenador o se conectan a éste: monitor, teclado, ratón, disco duro, memoria RAM, procesador, …
  • El software es el conjunto de instrucciones que gestionan el procesador de un ordenador para ejecutar tareas. Esto se entiende mejor si decimos que son los programas, aplicaciones informáticas o apps que se instalan en un ordenador, como por ejemplo: Microsoft Windows, Microsoft Word, Adobe Flash, Internet Edge, Google Chrome, iTunes, …
    Los programas instalados en tu ordenador se llaman aplicaciones de escritorio o desktop apps, y aunque no esté instalado en tu ordenador, un sitio web como Facebook.com también es software, con la diferencia de que en este caso está instalado en otro ordenador, un servidor remoto para ser más concretos. A este tipo de software se le denomina aplicaciones web o web apps.

Hardware es lo que golpeas cuando falla el software. —Definición popular.

Las famosas apps

App proviene del inglés application, que en castellano se traduce como “aplicación”.

Una app móvil es un programa informático que se instala y funciona en un teléfono móvil. Una web app, web application o aplicación web es un programa informático que funciona a través de una red, como lo es internet. Gmail.com, Facebook.com o twitter.com son web apps. Los programas instalados en tu ordenador, como iTunes o el propio Windows, son aplicaciones de escritorio o desktop apps.

Por cierto, app es una abreviatura, no unas siglas y, por tanto, se pronuncia app, no a-pe-pe.

Sistema operativo

Un sistema operativo (abreviado como S.O., u O.S. en inglés, de “Operative System“) es el conjunto de software que gestiona el hardware de un ordenador y sirve como soporte para el resto de programas informáticos.

Las dos familias de sistemas operativos más conocidas son Windows (de la empresa Microsoft) y UNIX (desarrollado originalmente por la empresa AT&T).

Algunas de las versiones más populares de Windows han sido: Windows 95, Windows 98, Windows XP, Windows 7Windows 8 y Windows 10, éste último utilizado tanto en portátiles y ordenadores de sobremesa como en teléfonos móviles y tablets.

La evolución de UNIX ha dado lugar a infinidad de otros sistemas operativos, como: Mac OS X (utilizado en los ordenadores de la marca Apple), decenas de versiones de Linux (llamadas distribuciones, siendo Ubuntu, Debian, Suse, Red Hat Enterprise, Mandrake, Fedora o Slackware, algunas de las más conocidas), iOS (el sistema operativo de los iPhone y iPad) o Android (desarrollado por la empresa Google para su uso en móviles y tablets).

El nombre del sistema operativo de Apple, Mac OS X, proviene de la palabra McIntosh, una variedad de manzana.

Recargado logotipo en blanco y negro que consiste en Newton sentado en el campo bajo la sombra de un manzano. Un texto que dice

Imagen 2.7. Primer logotipo de Apple. Para la elección de su nombre Apple se inspiró en la leyenda que cuenta que Newton se percató de la fuerza gravitatoria cuando una manzana le cayó a la cabeza.

Andrew Stuart Tanenbaum (1944— ) es un conocido autor informático y autor del primer clon de código abierto de UNIX, llamado MINIX.

Basándose en MINIX, el finlandés Linus Torvalds (1969— ) inició en 1991 Linux, el núcleo de un sistema operativo (también llamado kernel) inspirado en el sistema operativo UNIX.

Ilustraci?n de Tux, la mascota de Linux, un ping?ino sentado.

Imagen 1.8. El pingüino Tux es la mascota de Linux. Fue diseñado por el programador estadounidense Larry Ewing.

Linux es software libre (cualquiera puede acceder a su código fuente) y gratuito. Una distribución de Linux es un sistema operativo completo basado en el núcleo de Linux, con o sin modificaciones, pudiendo ser o no libre y gratuita.

Revolution OS (2001) es un documental acerca de la historia y visión de Linux.

Existen otros cientos de sistemas operativos, algunos diseñados para propósitos muy concretos. Una calculadora, una televisión, una videoconsola, un coche o, incluso un reloj, pueden tener su propio sistema operativo.

Quizás te suene MS-DOS, que son las siglas del inglés “MicroSoft Disk Operative System“, traducible como “Sistema Operativo de Disco de Microsoft“. MS-DOS es un antiguo sistema operativo de Microsoft que no cuenta con interfaz gráfica.

Una interfaz de usuario o UI (del inglés “User Interface“) es el sistema que permite al usuario interactuar con un ordenador. Una interfaz gráfica o GUI (del inglés “Graphic User Interface“, que se traduce como “Interfaz Gráfica de Usuario”) es el sistema que permite a los usuarios interactuar con un ordenador usando imágenes en lugar de órdenes de texto.

Las interfaces gráficas representan la información y acciones disponibles para el usuario usando elementos como iconos, botones o menús.

En el capítulo anterior decía que el Apple Lisa fue el primero en usar el concepto de carpetas y ficheros, pero Apple no inventó la interfaz gráfica, sino que se inspiró en el 8010 Information System (Sistema de Información 8010) de Xerox, que fue el primer ordenador comercializado que usó la metáfora de escritorio allá por 1981 (Xerox creó la primera interfaz gráfica en 1970 en un ordenador experimental que nunca salió a la venta).

Fotografía de un Xerox 8010 Information Systema en cuya pantalla se puede observar un documento que contiene una imagen y algo de texto, y a la derecha del editor de texto, algunos iconos.

Imagen 2.9. Al Xerox 8010 Information System se le apodó Xerox Star (Xerox Estrella). En la imagen se ve la interfaz gráfica del sistema operativo de este ordenador.
(Imagen bajo licencia CC BY 2.0 cortesía de Daved Pape.)

Parece ser que los chicos de Apple “cogieron prestadas” algunas ideas de Xerox en una visita que hicieron a la sede de éstos en diciembre de 1979.

Adele Goldberg, ingeniera de Xerox, imaginándose que esto iba a ocurrir, se negó a enseñar esta tecnología a Steve Jobs, pero su decisión fue “rectificada” por sus jefes. Años después, Jobs dijo que desde el momento que vio en funcionamiento la interfaz gráfica le resultó obvio que todos los ordenadores funcionarían así algún día.

Jobs ha sido extremadamente claro con su opinión respecto a copiar ideas, llegando a decir en una entrevista en 1995: “Los buenos artistas copian, los grandes artistas roban y nosotros nunca hemos tenido reparos en robar las grandes ideas.”

Si te interesa el diseño de interfaces gráficas debes leer el artículo The evolution of the interface, from text through touch (La evolución de la interfaz, del texto al tacto).

Existen unos sistemas operativos llamados JeOS, que son las siglas de “Just enough Operating System“, lo que se traduce como “Sistema Operativo Suficiente” y se trata de sistemas operativos diseñados para ejecutar una sola aplicación, como el de un cajero automático.

Si te interesa la historia de la informática moderna te recomiendo que empieces viendo las siguientes películas y documentales:

  • Piratas de Silicon Valley, película de 1999 dirigida por Martyn Burke
  • The Triumph of the Nerds: The Rise of Accidental Empires (que significa “El Triunfo de los Empollones: El Crecimiento de Imperios Accidentales”), documental de 1996 presentado por Robert X. Cringely (Cringely es un periodista que juega un papel clave en documentar los primeros días de la informática moderna)
  • Nerds 2.0.1: A Brief History of the Internet (que significa “Empollones 2.0.1: Una Breve Historia de Internet”), documental de 1998 secuela de Triumph of the Nerds y dirigido por Stephen Segaller
  • Steve Jobs: The Lost Interview (que significa “Steve Jobs: La Entrevista Perdida”), entrevista dirigida por Paul Sen que de no haberse perdido hubiera formado parte del documental The Triumph of the Nerds. Fue re-encontrada y publicada en 2012.
  • Steve Jobs: One Last Thing es otro buen documental en el que también aparece Robert X. Cringely. El título, que se traduce como “Una Última Cosa”, se refiere a la frase que solía usar Steve Jobs antes de finalizar las presentaciones de nuevos productos.

UX son las siglas de “User Experience“, que se traduce como “Experiencia de Usuario” y es la disciplina que estudia y trabaja para precisamente eso, mejorar la experiencia que los usuarios tienen cuando utilizan software. Sin darnos cuenta –y precisamente de eso se trata–, la UX nos hace la vida más fácil cada día. Puedes leer más acerca de ello en el artículo Un pequeño truco que hace que la espera al ascensor sea más corta y cómo utilizarlo para ganar usuarios.

En 1981 Microsoft consiguió que IBM le encargara la programación de un sistema operativo para su uso en sus ordenadores de escritorio, MS-DOS. Sin embargo, Microsoft no creó MS-DOS desde cero, sino que compró QDOS por 50.000 $, un sistema operativo que había sido programado por el joven de 24 años Tim Paterson, empleado de la ya desaparecida Seattle Computer Products.

Tim Paterson bautizó a su creación con el nombre de QDOS como siglas de Quick and Dirty Operative System, que se traduce como Sistema Operativo Rápido y Sucio, pues según parece no estaba especialmente orgulloso de su obra.

En MS-DOS todas las operaciones se realizan a través de comandos de texto (también llamadas órdenes de texto). Esto todavía se puede hacer en las últimas versiones de Windows utilizando el programa llamado “Línea de comandos” o, en Mac OS X y Linux, usando el “Terminal” o “Consola”.

Captura de pantalla del terminal de Mac OS X

Imagen 2.10. Captura de pantalla del Terminal de mi ordenador tras ejecutar un comando que hace que se muestre el contenido dentro de un directorio.

Utilizar órdenes de texto es algo habitual entre usuarios avanzados de Mac OS X o Linux, pues en ocasiones ofrece más posibilidades y permite mayor velocidad de trabajo que el uso de la interfaz gráfica.

Algunos otros sistemas operativos que no son tan populares, pero de los que quizás hayas oído hablar son NeXTSTEP, basado en UNIX para los ordenadores NeXT, empresa fundada en 1985 por Steve Jobs tras su expulsión de Apple; Solaris (sistema operativo basado en Linux y desarrollado por la empresa Sun Microsystems, actualmente propiedad de Oracle Corporation); FreeBSD (derivado del sistema operativo BSD, que a su vez es una versión de UNIX desarrollada por la Universidad de Berkeley en CaliforniaBSD son las siglas de “Berkeley Software Distribution“, que se traduce como “Distribución de Software de Berkeley”–); Google Chrome OS (desarrollado por Google para su uso en portátiles fabricados bajo dicha marca y que funciona vía web); Blackberry OS y Blackberry 10 (usados en los famosos teléfonos móviles, tablets y PDA de dicha marca); Windows CE, y más tarde Windows Phone (versiones del sistema operativo de Microsoft para móviles y PDA); Symbian OS (propiedad de Nokia pero usado hasta la llegada de los smartphones por prácticamente cada fabricante de teléfonos móviles); web OS (desarrollado por LG y empleado también por HP y Palm en tablets, smartphones y televisores); Firefox OS (creado por la fundación Mozilla para su uso en smartphones y tablets); y Ubuntu Phone OS (versión de Linux de la empresa Canonical para su aplicación en smartphones y tablets).

¿Qué son los “datos”? El lenguaje binario

Como seguramente has oído, los ordenadores trabajan en lenguaje binario. Binario viene de ‘dos’, que es el número de elementos que componen el lenguaje binario: ceros (0) y unos (1).

Cuando hablamos de los datos que recibe, procesa, almacena y muestra un ordenador, nos referimos a cadenas de ceros y unos.

El lenguaje castellano está compuesto por algo más de 100 elementos (o caracteres):

  • Las letras del abecedario en mayúsculas (27 caracteres)
  • Las letras del abecedario en minúsculas (27 caracteres)
  • Las vocales minúsculas y mayúsculas con tilde (10 caracteres)
  • La u, mayúscula y minúscula, con diéresis (2 caracteres)
  • Los números (10 caracteres)
  • El espacio (1 carácter)
  • Las divisas, los signos de puntuación, interrogación, exclamación, matemáticos, el salto de línea, los guiones, las comillas, los paréntesis, los corchetes, la arroba, etc. (al menos 40 caracteres más)

En el chino mandarín existen más de 50.000 caracteres diferentes, pero “sólo” unos 10.000 son de uso común. Por contra, el idioma hawiano sólo necesita de 12 letras para representar todas sus palabras.

El lenguaje binario, en lugar de contar con 100, 50.000 o 12 caracteres diferentes, cuenta sólo con dos: el ‘1‘ y el ‘0‘. Todos los mensajes posibles se forman con sucesiones de unos y ceros.

Por ejemplo, en binario, la letra ‘H‘ se representa como 01001000. La letra ‘o‘ es 01101111. Y 01001000011011110110110001100001 es el equivalente de la palabra ‘Hola‘.

bits y Bytes

Cada ‘1‘ y cada ‘0‘ es un bit (b) y 8 bits son 1 Byte (B) (aproximadamente pronunciado como /bait/).

El término bit proviene de las palabras Binary digIT, que significan “digito binario”.

La palabra ‘Hola‘ en binario (01001000011011110110110001100001) son 32 bits, o lo que es lo mismo, 4 bytes. En los idiomas occidentales cada carácter (por ejemplo una letra) se representa siempre con 1 byte (8 bits). Recordemos que en binario la letra ‘H‘ se representa como 01001000, que son ocho dígitos, es decir, 8 bits o 1 Byte.

¿Cuantos Bytes hay en un MegaByte?

Tradicionalmente en informática se han usado las siguientes conversiones entre escalas de Bytes:

  • 210 o 1.024 Bytes como un kiloByte (kB);
  • 1.024 kiloBytes como un MegaByte (MB);
  • 1.024 MegaBytes como un GigaByte (GB);
  • 1.024 GigaBytes como 1 TeraByte (TB);
  • 1.024 TeraBytes como 1 PetaByte (PB);
  • etc.

Para nuestra desgracia, el Sistema Internacional de Unidades (SI) no reconoce como válidas estas conversiones, pues dice que en ningún caso deberíamos usar potencias de 10 en base 2 (es decir, 210 o 1.204) para convertir escalas de unidades.

Esto coincide con lo que fabricantes de discos duros, operadoras telefónicas y Apple llevaban haciendo desde hace tiempo, decir que un kiloByte son 1.000 Bytes, que 1 MegaByte son 1.000 kiloBytes, que un GigaByte son 1.000 MegaBytes, etc.

Para solucionar este entuerto, la Comisión Electrotécnica Internacional (que pese a su nombre es una organización suiza) ha establecido los siguientes nombres para aquellos que queramos seguir usando las antiguas conversiones entre escalas de Bytes (de 1.204 en 1.024):

  • 210 o 1.024 Bytes son un KibiByte (KiB);
  • 1.024 kiloBytes son un MebiByte (MiB);
  • 1.024 MegaBytes son un GibiByte (GiB);
  • 1.024 GigaBytes son 1 TebiByte (TiB);
  • 1.024 TeraBytes son 1 PebiByte (PiB);
  • etc.

Estos nombres no forman parte (por ahora) del Sistema Internacional de Unidades.

¡Ojo con la velocidad de tu conexión a internet! No es lo mismo 1 Gb/s que 1 GB/s. Lo primero, 1 Gb/s, es 1 Gigabit por segundo, que es lo mismo que 1.000 bits por segundo, que es lo mismo que 125 kiloBytes por segundo. Nada tiene que ver con 1 GB/s, que es 1 GigaByte por segundo, es decir, 1.000 kiloBytes por segundo.

A la velocidad de conexión a internet también se llama “tasa de bits” o “tasa de transferencia” y, a menudo, de manera incorrecta, “ancho de banda” (o bandwidth en su voz inglesa). Aunque relacionado, el ancho de banda no es una medida de la velocidad de transferencia de datos.

¿Qué son físicamente los ‘1’ y los ‘0’?

En los inicios de la informática a los ordenadores se les introducían tarjetas perforadas como la de la imagen a continuación. Donde el ordenador encontraba un agujero lo consideraba como 0, donde no lo encontraba, lo consideraba como 1 (o al revés, según el sistema).

Fotografía de tarjeta de papel agujereada en algunos puntos. La tarjeta tiene unas dimensiones aproximadas de 15 centímetros de ancho por 7 centímetros de alto.

Imagen 2.11. Tarjeta perforada para una aplicación escrita en el lenguaje de programación Fortran. Como puedes observar, la tarjeta de la imagen tiene 10 filas y 80 columnas numeradas, dando así cabida a 800 bits. No obstante, es algo más porque también existen perforaciones fuera de las lineas y columnas numeradas.
(Imagen bajo licencia CC BY-SA 2.0 cortesía de Gregg Sloan.)

Una programadora expone 14 pilas casi de su altura, de tarjetas perforadas

Imagen 2.12. 62.500 tarjetas perforadas, el equivalente a 5 MB (compáralo con un teléfono móvil o pendrive moderno, que suelen tener capacidad para más de 100.000 MB).

En la web kloth.net puedes ver cómo sería una tarjeta perforada con el texto que tú elijas.

Enorme diskette de 3M medio metido en un enorme lector.

Imagen 2.13. En 1972 se comercializó el primer disquete (floppy disk en inglés, lo que se traduce como “disco flexible”, pues los disquetes lo eran), que tenía 20 cm (8 pulgadas) de lado y podía almacenar el equivalente a 3.000 tarjetas perforadas.
En la imagen, un disquete de 8 pulgadas y su lector, al lado de un disquete de 3½ pulgadas.
Todavía hoy, en muchos programas se usa el icono del disquete como metáfora de “Guardar cambios”, algo que tendrá que ir desapareciendo conforme crezca el número de usuarios que desconocen su significado.

Anuncio publicitario impreso de disco duro que dice "THE HARD DISK YOU'VE BEEN WAITING FOR" (El disco duro que has estado esperando) $3398 10 MB.

Imagen 2.14. En un tiempo no muy lejano el precio de un disco duro de 10 MB superaba los 3.000 $. Hoy, un DVD de menos de un euro puede albergar unas 500 veces esa capacidad. Un móvil o una tarjeta SD normalita, 12.000 veces.

En un disco duro, un CD, un DVD o un Blu-ray, los unos y los ceros son micro-incisiones físicas realizadas sobre el soporte. En el caso del disco duro, las incisiones se hacen con una aguja, en el caso de los CDs, DVDs o Blu-ray es un láser el que quema microscópicamente el soporte, produciendo así una incisión.

3 fotografías: (1) disco duro cerrado, (2) disco duro abierto, (3) detalle de agujas de lectura/escritura sobre platos de disco duro.

Imagen 2.15. (1) Disco duro de 3,5 pulgadas (de diámetro de disco).
(Imagen bajo licencia CC BY-SA 2.5 cortesía de Darkone.)
(2) Disco duro de 3,5″ abierto. Nunca abras un disco duro a menos que quieras destruirlo. Los discos de la pila a la derecha de la imagen son el soporte donde se escriben las incisiones que luego serán los “unos”. El brazo metálico a la izquierda de los platos son las agujas que gravan dichas incisiones.
(Imagen bajo licencia CC BY 2.0 cortesía de KUERT Datenrettung.)
(3) Macro de una aguja sobre un plato de un disco duro.
(Imagen bajo licencia CC BY-SA 2.0 cortesía de Jeff Kubina.)

Fotografía con un aumento de ×7.586 en la que se pueden observar unas pequeñas incisiones.

Imagen 2.16. Incisiones (llamadas pits) en un CD grabado fotografiadas a través de un microscopio electrónico.
(Imagen de dominio público cortesía de Wikimedia Commons.)

La palabra ROM, en CD-ROM, son las siglas de “Read Only Memory“, lo que se traduce como “Memoria de Sólo Lectura”, pues lo más habitual es que sobre un CD se pueda guardar información sólo una vez.

Y cuando se trata de una transmisión de información, por ejemplo desde un ordenador a otro, o de una parte del ordenador a otra parte, o de un dispositivo de entrada al procesador, los 1 y los 0 son una señal eléctrica (o una señal magnética si la transmisión de datos es inalámbrica).

En el caso de la transmisión de datos a través de soportes físicos (las comunicaciones inalámbricas las dejamos para otro libro), si hay tensión eléctrica se trata de un 1 y si no, se trata de un 0.

Vuelta al cole: ¿qué es la corriente eléctrica y la tensión?

La materia está formada por átomos. Los átomos están formados, entre otras partículas, por electrones.

Ilustración de un átomo de helio que contiene dos electrones y un núcleo con dos protones y dos neutrones.

Imagen 2.17. Ilustración de un átomo de helio que contiene dos electrones y un núcleo con dos protones y dos neutrones.

  • Corriente o intensidad eléctrica: cantidad de electrones por unidad de tiempo que atraviesan la sección de un material. Se mide en Amperios (A).
Ilustración de un cable seccionado con electrones pasando a través de él.

Imagen 2.18. Electrones atravesando la sección de un cable. La flecha indica la dirección de movimiento de los electrones y, por tanto, de la corriente.

  • Tensión o diferencia de potencial: es la fuerza que una fuente de energía eléctrica (por ejemplo una batería) ejerce sobre los electrones para que se produzca el flujo de corriente eléctrica. A mayor fuerza sobre los electrones, mayor tensión. La tensión se mide en Voltios (V).

Comunicándonos a través de señales eléctricas

Una señal eléctrica es la variación en el tiempo de corriente eléctrica o de la tensión con el fin de transmitir información.

Si esta señal eléctrica presenta cierta diferencia de potencial (por ejemplo de 5 voltios) durante un periodo de tiempo de una duración predeterminada, el computador considerará que se trata de un 1. Si en otro periodo de tiempo de la misma duración no hay señal eléctrica, el computador considerará que es un 0.

Es decir, supongamos que el ordenador lee en bloques de 1 microsegundo. Cada microsegundo en el que el ordenador no detecte diferencia de potencial lo considerará como un 0. Por cada microsegundo con una diferencia de potencial de 5 voltios considerará un 1.

Antes hemos dicho que en binario la palabra ‘Hola‘ se representa como 01001000011011110110110001100001. Por tanto, para enviarle la palabra “Hola” a un ordenador debemos transmitirle una señal eléctrica como la representada en la siguiente gráfica:

Representación gráfica de la tensión de la señal eléctrica que transmite la secuencia binaria equivalente a la palabra ‘Hola’. Se trata de una gráfica que en el eje Y tiene la tensión, con dos valores: 0 Voltios y 5 Voltios; y que en el eje X tiene el tiempo, divido en microsegundos. Si el valor transmitido es un 1, la tensión es de 5 Voltios; si es un 0, es de 0 Voltios.

Imagen 2.19. Si analizamos con un osciloscopio la tensión de una señal eléctrica que transmite la palabra “Hola” veremos algo muy similar a la gráfica de la imagen superior.

El primero en plantear que un sistema binario como medio para intercambiar información fue el matemático y filosofo alemán Gottfried Wilhelm Leibniz (1646—1716), motivo por el que se le considera el primer científico computacional de la historia.

En 1679 Leibinz imaginó una máquina en la que los números binarios eran representados por canicas.

¿Cómo se transforman los unos y los ceros en algo comprensible por los humanos?

A un ordenador no se le introducen simplemente palabras como ‘Hola‘, lo que realmente se le introducen son órdenes del tipo: “Muestra por pantalla la palabra 'Hola'“. Como ya has aprendido, esta orden consistirá en una sucesión de unos y ceros.

Esa secuencia eléctrica de unos y ceros llegará a la CPU, que interpretará la secuencia binaria, la procesará y, como resultado, devolverá una nueva cadena de unos y ceros.

Si tienes curiosidad en entender qué ocurre dentro de la CPU debes estudiar electrónica digital y álgebra booleana.

Esa cadena de unos y ceros devuelta por la CPU hay que convertirla en algo comprensible por los humanos, como una imagen o un sonido.

Un lector de CDs consiste en un motor que hace girar el CD mientras se emite un rayo láser contra la superficie del CD. Dependiendo de si el lugar donde impacta el rayo con el CD tiene o no una incisión, el láser se refleja en una u otra dirección. Si el lugar donde impacta el láser sí tiene una incisión, el reflejo del láser acaba impactando en un material (semiconductor) que se excita, produciendo una tensión eléctrica –y por tanto un 1–.

Cómo funciona una pantalla

¿Qué ocurre para que una cadena de unos y ceros se convierta, en nuestros monitores, en la foto de las últimas vacaciones? Para finalizar este capítulo explicaré, a muy grandes rasgos, cómo funciona una pantalla.

Una pantalla está formada por millones de “puntitos”, conocidos como píxeles. Un conjunto de bits puede representar texto, un sonido, el color y posición de cada píxel de una imagen, …

La pantalla de mi portátil tiene 1.280 píxeles de ancho y 800 píxeles de alto, es decir, un total de 1.024.000 píxeles (o lo que es lo mismo, 1 Megapíxel).

Cada píxel está compuesto por tres bombillitas minúsculas: una roja, una verde y otra azul. De ahí vienen las siglas RGB que verás en las pegatinas de algunas pantallas. RGB son las siglas de “Red Green Blue” (“Rojo Verde Azul” en castellano).

Es decir, la pantalla de mi ordenador debería tener 3.072.000 bombillas (digo “debería tener” porque en la práctica los fabricantes de pantallas usan trucos para ahorrarse bombillas). Cada una de esas bombillas se llama LED.

LED son las siglas de las palabras inglesas “Light-Emitting Diode“, que significa “Diodo Emisor de Luz”. Los diodos son elementos que permiten el paso de corriente sólo en una dirección y constan de otras propiedades que los convierten en un elemento muy preciado en la electrónica moderna.

Jugando con la intensidad con la que brilla cada LED se puede conseguir casi cualquier color visible por el ojo humano.

La señal eléctrica devuelta por la CPU sirve para encender o apagar cada una de esas 3.072.000 bombillas. Recuerda que un 1 son 5 V de tensión –la bombilla se enciende–, y que un 0 significa que no hay tensión –la bombilla se apaga–.

Fotografía macro de una porción de una pantalla que muestra la hora

Imagen 2.20. Fotografía macro de la porción de una pantalla. Los píxeles que escriben la hora “15:30” son negros porque sus LEDs están apagados.
(Imagen bajo licencia CC BY-SA 2.0 cortesía de Andreas.)

Desgraciadamente, por herencia de anteriores tecnologías los ordenadores no representan el color tan bien como sería posible:

“Pantalla retina” es un término comercial para referirse a pantallas de alta densidad, que no son otra cosa que pantallas con un elevado número de píxeles por unidad de superficie.

Se calcula que el ojo humano es capaz de ver un máximo de 300 puntos por pulgada. Parece por tanto innecesario la existencia de pantallas –que las hay– con densidades de píxeles mayores a esa cifra.

Al valorar la calidad de una pantalla es más importante fijarse en la resolución, que es la densidad de píxeles por pulgada (dpi o ppi, del inglés “dots per inch” o “points per inch“, respectivamente, que significa puntos por pulgada en ambos casos), que en el número de píxeles.

Una pantalla 1080 significa que tiene 1080 píxeles de alto, pero su densidad de píxeles por superficie, y por tanto su calidad, será mayor cuanto más pequeña sea la pantalla.

Una pantalla 4K tiene 4 veces el número de píxeles que una pantalla 1080.

La salida de la CPU, en cierta forma, está conectada a cada una de las bombillitas de la pantalla. Así, apagando y encendiendo cada una de esas bombillitas la CPU puede mostrar cualquier imagen.

Por si quieres profundizar en la representación de imágenes, la breve historia de los gráficos digitales:

Hace unas líneas decía que para entender qué ocurre dentro de la CPU se debe estudiar electrónica digital. Bien, pues para entender qué ocurre dentro de los elementos que componen la electrónica digital es necesario estudiar electrónica analógica, física y química.


Resumen

Una unidad central de procesamiento o CPU recibe unos (1) y ceros (0) en forma de señal eléctrica y devuelve, también en forma de señal eléctrica, otra cadena de unos (1) y ceros (0) que varía en función de cómo sea la cadena de entrada.

Los unos (1) y ceros (0) se introducen con los dispositivos de entrada (como un teclado o un ratón) y se transforman en algo entendible por los humanos, como una imagen o un sonido, gracias a los dispositivos de salida (como un monitor o un altavoz).

No se a ti, pero a mí me produce una enorme satisfacción entender cómo funcionan las cosas que uso, y he escrito este capítulo con la intención de provocarte el mismo sentimiento.

Puede que por ahora todo esto te parezca demasiado teórico, pero eso es sólo porque se trata de la primera pieza de un puzzle. Continúalo leyendo el Capítulo 3. ¿Qué es el HTML y el CSS? y, poco a poco, todo irá cobrando sentido.