Cómo contratar diseño web sin hacer el ridículo

Capítulo 2

¿Cómo funciona un ordenador?

En este capítulo aprenderás…

  1. Qué es un ordenador y que estás rodeado de muchos más ordenadores de lo que pensabas
  2. Por qué un disco duro es una cosa y una memoria otra
  3. Qué es el hardware y qué es el software
  4. Por qué una app no es lo que tú crees (y por qué no se pronuncia a-pe-pe)
  5. Qué es un sistema operativo y qué es Linux
  6. Qué es y cómo funciona el lenguaje binario
  7. Qué ocurre en tu ordenador cuando ves una bonita imagen en la pantalla

Elementos de un ordenador

Un ordenador no es capaz (ni lo será en nuestro tiempo de vida) de razonar, obtener conclusiones o pensar por sí mismo. Eso significa que cuando tu smartphone te recomienda la ruta más rápida entre dos puntos es porque antes alguien le ha proporcionado todos los datos (tráfico, direcciones prohibidas, distancias…) necesarios para calcular dicha ruta.

En definitiva: todo lo que hace un ordenador lo hace porque alguien antes le ha dicho a ese ordenador que ante ciertas circunstancias debe producir cierto resultado.

PC son las siglas de Personal Computer, que se traduce como “ordenador personal”. Por tanto, siendo estrictos, los “Mac” (los ordenadores de la marca Apple) también son PCs.

computador = computadora = ordenador

Fue el matemático húngaro John Von Neuman (1903—1957) el que ideó el funcionamiento de las computadoras modernas, algo a lo que se ha denominado arquitectura de Von Neumann.

Lo hizo en 1949 mientras trabajaba para el ejército de Estados Unidos en la construcción del ENIAC, la primera computadora electrónica programable, es decir, la primera computadora electrónica que no se limitaba a resolver siempre un mismo problema, sino que se podía programar para solventar diversos problemas.

Imagen 1.1. Glen Beck, del que apenas he encontrado información, y la polifacética e interesantísima [Betty Holberton](https://en.wikipedia.org/wiki/Betty_Holberton), programando el *ENIAC*.*ENIAC* son las siglas de *Electronic Numerical Integrator And Computer*, que se traduce como

Imagen 2.1. Glen Beck, del que apenas he encontrado información, y la interesantísima Betty Holberton, programando el ENIACENIAC son las siglas de Electronic Numerical Integrator And Computer, que se traduce como “Computador E Integrador Numérico Electrónico”.

La historia del ENIAC en dos minutos. Sólo por ver cómo le contectan un cable (1:39) merece la pena:

Von Neuman debe su clarividencia, en parte, a que un coetáneo suyo, el norteamericano John Vincent Atanasoff (1903—1995), inventó el ordenador digital (que hoy definiríamos como una calculadora gigante) diecinueve años antes, en 1930.

¿Y qué es una computadora? Una computadora (u ordenador) es una máquina que (1) recibe, (2) procesa, (3) almacena y (4) representa datos. Para realizar cada una de estas cuatro tareas una computadora cuenta con cuatro elementos principales:

  1. Dispositivos de entrada, como el ratón o el teclado. Son los elementos que permiten a la computadora recibir datos.
  2. CPU (siglas de “Central Process Unit“, que se traduce como “Unidad Central de Procesamiento”), también llamado procesador o microprocesador. Es el elemento encargado de operar con los datos de entrada para producir datos de salida, que es lo que se entiende como procesar datos.

    Foto de la parte superior de un microprocesador Intel 486. Se trata de una placa de plástico con forma cuadrada bajo la que se pueden observar 32 de sus pequeños conectores metálicos.

    Imagen 2.2. Procesador Intel 486. El 486 fue el procesador anterior al famoso Pentium I. Intel y AMD construyen la totalidad de procesadores de los ordenadores portátiles y de escritorio. Samsung, Atmel o tsmc entre otros, fabrican microprocesadores para teléfonos móviles, tablets y otros tipos de dispositivos. Otra empresa curiosa ya desaparecida es la británica Acorn, nacida a finales de los 70. A ella le debemos, en parte, la existencia de los procesadores actuales.
    El procesador de la fotografía superior tiene unas dimensiones aproximadas de 4,5 centímetros de lado y 0,5 centímetros de altura.
    (Imagen bajo licencia CC BY-SA 2.0 cortesía de Henry Mühlpfordt.)

  3. Dispositivos de almacenamiento como el disco duro o la memoria, donde se almacenan datos como los ficheros.
    • El disco duro es el dispositivo donde se almacenan los datos de manera permanente (hasta que un usuario los borra), mientras que en la memoria caché y en la memoria RAM (siglas de “Random Access Memory“, que significa “Memoria de Acceso Aleatorio”) sólo se almacenan temporalmente los datos con los que está trabajando la CPU en un momento puntual.

      Carcasa metálica con base de plástico, rectangular. Se trata de un disco duro de aproximadamente 3,5 pulgadas de ancho, de la marca Maxtor, de 40 gigabytes, y para un ordenador se sobremesa.

      Imagen 2.3. Disco duro de un ordenador de sobremesa.
      (Imagen bajo licencia CC BY-SA 3.0 cortesía de Christian Jansky.)

    • La memoria caché y la memoria RAM ofrecen la velocidad de respuesta que requiere la CPU y los discos duros tienen el precio y capacidad que demandan los usuarios. Además, las memorias caché y RAM son volátiles, lo que significa que los datos almacenados en ellas se borran en cuanto se detiene el suministro eléctrico. La memoria caché está físicamente integrada en la CPU (no confundir con la memoria caché web que veremos en el capítulo 6).

      Foto de placa de memoria RAM.

      Imagen 2.4. Un robot de juguete sujeta una placa de memoria RAM.
      (Imagen bajo licencia CC BY-SA 2.0 cortesía de Chris Isherwood.)

    • Para que todos te entiendan, cuando te refieras a la RAM debes hablar de “memoria” y cuando te refieras al disco duro debes hablar de “almacenamiento”.
  4. Dispositivos de salida, como los altavoces o la pantalla. Permiten representar los datos devueltos por la CPU.

Un ordenador recibe datos a través de los dispositivos de entrada, los procesa con su Unidad Central de Procesamiento –el corazón del ordenador–, y envía los resultados de dicho procesamiento a los dispositivos de salida.

[Los dispositivos de entrada se comunican con la CPU, ésta procesa datos en la memoria y devuelve datos a los dispositivos de salida.

Imagen 2.5. Esquema simplificado de la arquitectura de un ordenador.
Cualquier dispositivo que siga este modelo se considera un ordenador o computadora, incluyendo un PC, smartphone (que significa teléfono inteligente, como el iPhone) o una tableta o tablet (como el iPad).

Fotografía de una torre de ordenador de sobremesa donde se observa un circuito integrado, cables, y componentes electrónicos.

Imagen 2.6. Torre abierta de un ordenador de sobremesa donde se observa la placa base. Todos los elementos internos de un ordenador se ensamblan en, o conectan a, la placa base.
(Imagen bajo licencia CC BY 2.0 cortesía de walknboston.)

Hardware y software

Al hardware y al software también se les conoce como a la parte física y la parte lógica de un ordenador, respectivamente:

  • El hardware son los dispositivos físicos que componen el ordenador o se conectan a éste: monitor, teclado, ratón, disco duro, memoria RAM, procesador…
  • El software es el conjunto de instrucciones que gestionan el procesador de un ordenador para ejecutar tareas. Esto se entiende mejor si decimos que son los programas, aplicaciones informáticas o apps que se instalan en un ordenador, como por ejemplo: Microsoft Windows, Microsoft Word, Internet Edge, Google Chrome, iTunes
    Los programas instalados en tu ordenador se llaman aplicaciones de escritorio o desktop apps, y aunque no esté instalado en tu ordenador, un sitio web como Facebook.com también es software, con la diferencia de que en este caso está instalado en otro ordenador, un servidor remoto para ser más concretos. A este tipo de software se le denomina aplicaciones web o web apps.

Hardware es lo que golpeas cuando falla el software. —Definición popular.

Las famosas apps

App proviene del inglés application, que en castellano se traduce como “aplicación”.

Una app móvil es un programa informático que se instala y funciona en un teléfono móvil. Una web app, web application o aplicación web es un programa informático que funciona a través de un navegador. Gmail.com, Facebook.com o twitter.com son web apps. Los programas instalados en tu ordenador, como iTunes o el propio Windows, son aplicaciones de escritorio o desktop apps.

Por cierto, app es una abreviatura, no unas siglas, así que se pronuncia app, no a-pe-pe.

Sistema operativo

Un sistema operativo (abreviado como S.O., u O.S. en inglés, de “Operative System“) es el conjunto de software que gestiona el hardware de un ordenador y sirve como soporte para el resto de programas informáticos.

Las dos familias de sistemas operativos más conocidas son Windows (de la empresa Microsoft) y UNIX (desarrollado originalmente por la empresa AT&T).

Algunas de las versiones más populares de Windows han sido: Windows 95, Windows 98, Windows XP, Windows 7Windows 8 y Windows 10, éste último utilizado tanto en portátiles y ordenadores de sobremesa como en teléfonos móviles y tablets.

La evolución de UNIX ha dado lugar a infinidad de otros sistemas operativos, como: Mac OS X (utilizado en los ordenadores de la marca Apple), decenas de versiones de Linux (llamadas distribuciones, siendo Ubuntu, Debian, Suse, Red Hat Enterprise, Mandrake, Fedora o Slackware, algunas de las más conocidas), iOS (el sistema operativo de los iPhone y iPad) o Android (desarrollado por la empresa Google para su uso en móviles y tablets).

El nombre del sistema operativo de Apple, Mac OS X, proviene de la palabra McIntosh, una variedad de manzana.

Recargado logotipo en blanco y negro que consiste en Newton sentado en el campo bajo la sombra de un manzano. Un texto que dice

Imagen 2.7. Primer logotipo de Apple. Para la elección de su nombre Apple se inspiró en la leyenda que cuenta que Newton se percató de la fuerza gravitatoria cuando una manzana le cayó a la cabeza.

Andrew Stuart Tanenbaum (1944— ) es un conocido autor informático y autor del primer clon de código abierto de UNIX, llamado MINIX. Basándose en MINIX, el finlandés Linus Torvalds (1969— ) inició en 1991 Linux, el núcleo (también llamado kernel) de un sistema operativo inspirado en UNIX.

Ilustraci?n de Tux, la mascota de Linux, un ping?ino sentado.

Imagen 1.8. El pingüino Tux es la mascota de Linux. Fue diseñado por el programador estadounidense Larry Ewing.

Linux es software libre (cualquiera puede acceder a su código fuente) y gratuito. Una distribución de Linux es un sistema operativo completo basado en el núcleo de Linux, con o sin modificaciones, pudiendo ser o no libre y gratuita.

Revolution OS (2001) es un documental acerca de la historia de Linux.

Existen cientos de sistemas operativos. Una calculadora, una televisión, una videoconsola, un coche o un reloj pueden tener su propio sistema operativo. Quizás te suene MS-DOS, que son las siglas del inglés “MicroSoft Disk Operative System“, traducible como “Sistema Operativo de Disco de Microsoft“. MS-DOS es el primer sistema operativo de Microsoft y no cuenta con interfaz gráfica.

Una interfaz de usuario o UI (del inglés “User Interface“) es aquello que permite al usuario interactuar con un ordenador. Una interfaz gráfica o GUI (del inglés “Graphic User Interface“, que se traduce como “Interfaz Gráfica de Usuario”) permite a los usuarios interactuar con un ordenador usando imágenes en lugar de órdenes de texto. Las interfaces gráficas representan la información y acciones disponibles para el usuario con elementos como iconos, botones o menús.

En el capítulo anterior decía que el Apple Lisa fue el primero en usar el concepto de carpetas y ficheros. Sin embargo, Apple no inventó la interfaz gráfica, sino que se inspiró en el 8010 Information System (Sistema de Información 8010) de Xerox, que fue el primer ordenador comercializado que usó la metáfora de escritorio allá por 1981 (Xerox creó la primera interfaz gráfica en 1970 en un ordenador experimental que no salió a la venta).

Fotografía de un Xerox 8010 Information Systema en cuya pantalla se puede observar un documento que contiene una imagen y algo de texto, y a la derecha del editor de texto, algunos iconos.

Imagen 2.9. Al Xerox 8010 Information System se le apodó Xerox Star (Xerox Estrella). En la imagen se ve la interfaz gráfica del sistema operativo de este ordenador.
(Imagen bajo licencia CC BY 2.0 cortesía de Daved Pape.)

Parece ser que los chicos de Apple “cogieron prestadas” algunas ideas de Xerox en una visita que hicieron a la sede de éstos en diciembre de 1979.

Adele Goldberg, ingeniera de Xerox, imaginándose que esto iba a ocurrir, se negó a enseñar esta tecnología a Steve Jobs, pero su decisión fue “rectificada” por sus jefes. Años después, Jobs dijo que desde el momento que vio en funcionamiento la interfaz gráfica le resultó obvio que todos los ordenadores funcionarían así algún día.

Jobs ha sido claro con su opinión respecto a copiar ideas, llegando a decir en una entrevista en 1995: “Los buenos artistas copian, los grandes artistas roban y nosotros nunca hemos tenido reparos en robar las grandes ideas.”

Si te interesa el diseño de interfaces gráficas debes leer el artículo The evolution of the interface, from text through touch (La evolución de la interfaz, del texto al tacto).

Existen unos sistemas operativos llamados JeOS, que son las siglas de “Just enough Operating System“, lo que se traduce como “Sistema Operativo Suficiente”, y se trata de sistemas operativos diseñados para ejecutar una sola aplicación, como el de un cajero automático.

Te recomiendo algunas películas que explican el mundo hoy:

UX son las siglas de “User Experience“, que se traduce como “Experiencia de Usuario” y es la disciplina que persigue mejorar precisamente eso, la experiencia que los usuarios tienen cuando utilizan software. Sin darnos cuenta –y precisamente de eso se trata–, la UX nos hace la vida más fácil cada día. Puedes leer más acerca de ello en el artículo Un pequeño truco que hace que la espera al ascensor sea más corta y cómo utilizarlo para ganar usuarios.

En 1981 Microsoft consiguió que IBM le encargara la programación de un sistema operativo para sus ordenadores de escritorio, MS-DOS. Sin embargo, Microsoft no creó MS-DOS desde cero, sino que compró QDOS por 50.000 $, un sistema operativo que había sido programado por el joven de 24 años Tim Paterson, empleado de la ya desaparecida Seattle Computer Products.

Tim Paterson bautizó a su creación con el nombre de QDOS, siglas de Quick and Dirty Operative System, que se traduce como Sistema Operativo Rápido y Sucio, pues según parece no estaba demasiado orgulloso de su obra.

En MS-DOS todas las operaciones se realizan a través de comandos u órdenes de texto. Esto todavía se puede hacer en las últimas versiones de Windows utilizando el programa llamado “Línea de comandos”, o en Mac OS X y Linux, usando el Terminal o Consola.

Captura de pantalla del terminal de Mac OS X

Imagen 2.10. Captura de pantalla del Terminal de mi ordenador tras ejecutar un comando que hace que se muestre el contenido dentro de un directorio.

Utilizar órdenes de texto es habitual entre usuarios avanzados de Mac OS X o Linux, pues en ocasiones ofrece más posibilidades y permite mayor velocidad de trabajo que el uso de la interfaz gráfica.

Otros sistemas operativos no tan populares, pero de los que quizás hayas oído hablar son NeXTSTEP, basado en UNIX para los ordenadores NeXT, empresa fundada en 1985 por Steve Jobs tras su expulsión de Apple; Solaris (sistema operativo basado en Linux y desarrollado por la empresa Sun Microsystems, actualmente propiedad de Oracle Corporation); FreeBSD (derivado del sistema operativo BSD, que a su vez es una versión de UNIX desarrollada por la Universidad de Berkeley en CaliforniaBSD son las siglas de “Berkeley Software Distribution“, que se traduce como “Distribución de Software de Berkeley”–); Google Chrome OS (desarrollado por Google para su uso en portátiles fabricados bajo dicha marca); Blackberry OS y Blackberry 10 (usados en los famosos teléfonos móviles, tablets y PDA de dicha marca); Windows CE, y más tarde Windows Phone (versiones del sistema operativo de Microsoft para móviles y PDA); Symbian OS (propiedad de Nokia pero usado hasta la llegada de los smartphones por prácticamente cada fabricante de teléfonos móviles); web OS (desarrollado por LG y empleado también por HP y Palm en tablets, smartphones y televisores); Firefox OS (creado por la fundación Mozilla para su uso en smartphones y tablets); y Ubuntu Phone OS (versión de Linux de la empresa Canonical para su aplicación en smartphones y tablets).

¿Qué son los “datos”? El lenguaje binario

Como seguramente ya sabes, los ordenadores trabajan en lenguaje binario. Binario viene de ‘dos’, que es el número de elementos que componen el lenguaje binario: ceros (0) y unos (1).

Cuando hablamos de los datos que recibe, procesa, almacena y muestra un ordenador, nos referimos a cadenas de ceros y unos.

El lenguaje castellano está compuesto por algo más de 100 elementos (o caracteres):

  • Las letras del abecedario en mayúsculas (27 caracteres)
  • Las letras del abecedario en minúsculas (27 caracteres)
  • Las vocales minúsculas y mayúsculas con tilde (10 caracteres)
  • La u, mayúscula y minúscula, con diéresis (2 caracteres)
  • Los números (10 caracteres)
  • El espacio (1 carácter)
  • Las divisas, los signos de puntuación, interrogación, exclamación, matemáticos, el salto de línea, los guiones, las comillas, los paréntesis, los corchetes, la arroba, etc. (al menos 40 caracteres más)

En el chino mandarín existen más de 50.000 caracteres diferentes pero “sólo” unos 10.000 son de uso común. Por contra, el idioma hawiano sólo necesita de 12 letras para representar todas sus palabras.

El lenguaje binario, en lugar de contar con 100, 50.000 o 12 caracteres diferentes, cuenta sólo con dos: el ‘1‘ y el ‘0‘. Todos los mensajes posibles se forman con sucesiones de unos y ceros.

Por ejemplo, en binario, la letra ‘H‘ se representa como 01001000. La letra ‘o‘ es 01101111. Y 01001000011011110110110001100001 es el equivalente de la palabra ‘Hola‘.

bits y Bytes

Cada ‘1‘ y cada ‘0‘ es un bit (b) y 8 bits son 1 Byte (B) (aproximadamente pronunciado como /bait/).

El término bit proviene de las palabras Binary digIT, que significan “digito binario”.

La palabra ‘Hola‘ en binario (01001000011011110110110001100001) son 32 bits, o lo que es lo mismo, 4 bytes. En los idiomas occidentales cada carácter, por ejemplo una letra, se representa siempre con 1 byte (8 bits).

¿Cuantos Bytes hay en un MegaByte?

Tradicionalmente en informática se han usado las siguientes conversiones entre escalas de Bytes:

  • 210 o 1.024 Bytes como un kiloByte (kB);
  • 1.024 kiloBytes como un MegaByte (MB);
  • 1.024 MegaBytes como un GigaByte (GB);
  • 1.024 GigaBytes como 1 TeraByte (TB);
  • 1.024 TeraBytes como 1 PetaByte (PB);
  • etc.

Para nuestra desgracia, el Sistema Internacional de Unidades (SI) no reconoce como válidas estas conversiones, pues dice que en ningún caso deberíamos usar potencias de 10 en base 2 (es decir, 210 o 1.204) para convertir escalas de unidades. Esto coincide con lo que fabricantes de discos duros, operadoras telefónicas y Apple llevaban haciendo desde hace tiempo, decir que un kiloByte son 1.000 Bytes, que 1 MegaByte son 1.000 kiloBytes, que un GigaByte son 1.000 MegaBytes, etc. Para solucionar este entuerto, la Comisión Electrotécnica Internacional (que pese a su nombre es una organización suiza) ha establecido los siguientes nombres para quienes queremos seguir usando las antiguas conversiones entre escalas de Bytes (de 1.204 en 1.024):

  • 210 o 1.024 Bytes son un KibiByte (KiB);
  • 1.024 kiloBytes son un MebiByte (MiB);
  • 1.024 MegaBytes son un GibiByte (GiB);
  • 1.024 GigaBytes son 1 TebiByte (TiB);
  • 1.024 TeraBytes son 1 PebiByte (PiB);
  • etc.

Estos nombres no forman parte (por ahora) del Sistema Internacional de Unidades.

¡Ojo con la velocidad de tu conexión a internet! No es lo mismo 1 Gb/s que 1 GB/s. Lo primero, 1 Gb/s, es 1 Gigabit por segundo, que es lo mismo que 1.000 bits por segundo, que es lo mismo que 125 kiloBytes por segundo. Nada tiene que ver con 1 GB/s, que es 1 GigaByte por segundo, es decir, 1.000 kiloBytes por segundo.

A la velocidad de conexión a internet también se llama “tasa de bits” o “tasa de transferencia”, y a menudo, de manera incorrecta, “ancho de banda” (o bandwidth en su voz inglesa). El problema está en que el ancho de banda no es una medida de la velocidad de transferencia de datos.

¿Qué son físicamente los ‘1’ y los ‘0’?

En los inicios de la informática a los ordenadores se les introducían tarjetas perforadas como la de la imagen a continuación. Donde el ordenador encontraba un agujero lo consideraba como 0, donde no lo encontraba, lo consideraba como 1 (o al revés, según el sistema).

Fotografía de tarjeta de papel agujereada en algunos puntos. La tarjeta tiene unas dimensiones aproximadas de 15 centímetros de ancho por 7 centímetros de alto.

Imagen 2.11. Tarjeta perforada para una aplicación escrita en el lenguaje de programación Fortran. Como puedes observar, la tarjeta de la imagen tiene 10 filas y 80 columnas numeradas, dando así cabida a 800 bits. No obstante, es algo más porque también existen perforaciones fuera de las lineas y columnas numeradas.
(Imagen bajo licencia CC BY-SA 2.0 cortesía de Gregg Sloan.)

Una programadora expone 14 pilas casi de su altura, de tarjetas perforadas

Imagen 2.12. 62.500 tarjetas perforadas, el equivalente a 5 MB (compáralo con un teléfono móvil o pendrive moderno, que suelen tener capacidad para más de 100.000 MB).

En la web kloth.net puedes ver cómo sería una tarjeta perforada con el texto que tú elijas.

Enorme diskette de 3M medio metido en un enorme lector.

Imagen 2.13. En 1972 se comercializó el primer disquete (floppy disk en inglés, lo que se traduce como “disco flexible”, pues los disquetes lo eran), que tenía 20 cm (8 pulgadas) de lado y podía almacenar el equivalente a 3.000 tarjetas perforadas.
En la imagen, un disquete de 8 pulgadas y su lector, al lado de un disquete de 3½ pulgadas.
Todavía hoy, en muchos programas se usa el icono del disquete como metáfora de “Guardar cambios”, algo que tendrá que ir desapareciendo conforme crezca el número de usuarios que desconocen su significado.

Anuncio publicitario impreso de disco duro que dice "THE HARD DISK YOU'VE BEEN WAITING FOR" (El disco duro que has estado esperando) $3398 10 MB.

Imagen 2.14. En un tiempo no muy lejano el precio de un disco duro de 10 MB superaba los 3.000 $. Hoy, un DVD de menos de un euro puede albergar unas 500 veces esa capacidad. Un móvil o una tarjeta SD normalita, 12.000 veces.

En un disco duro, un CD, un DVD o un Blu-ray, los unos y los ceros son micro-incisiones físicas realizadas sobre el soporte. En el caso del disco duro, las incisiones se hacen con una aguja, en el caso de los CDs, DVDs o Blu-ray es un láser el que quema microscópicamente el soporte, produciendo así una incisión.

3 fotografías: (1) disco duro cerrado, (2) disco duro abierto, (3) detalle de agujas de lectura/escritura sobre platos de disco duro.

Imagen 2.15. (1) Disco duro de 3,5 pulgadas (de diámetro de disco).
(Imagen bajo licencia CC BY-SA 2.5 cortesía de Darkone.)
(2) Disco duro de 3,5″ abierto. Nunca abras un disco duro a menos que quieras destruirlo. Los discos de la pila a la derecha de la imagen son el soporte donde se escriben las incisiones que luego serán los “unos”. El brazo metálico a la izquierda de los platos son las agujas que gravan dichas incisiones.
(Imagen bajo licencia CC BY 2.0 cortesía de KUERT Datenrettung.)
(3) Aguja sobre un plato de un disco duro.
(Imagen bajo licencia CC BY-SA 2.0 cortesía de Jeff Kubina.)

Fotografía con un aumento de ×7.586 en la que se pueden observar unas pequeñas incisiones.

Imagen 2.16. Incisiones (llamadas pits) en un CD grabado. Fotografía tomada a través de un microscopio electrónico.
(Imagen de dominio público cortesía de Wikimedia Commons.)

La palabra ROM, en CD-ROM, son las siglas de “Read Only Memory“, lo que se traduce como “Memoria de Sólo Lectura”, pues lo más habitual es que sobre un CD se pueda guardar información sólo una vez.

Y cuando se trata de una transmisión de información, por ejemplo desde un ordenador a otro, o de una parte del ordenador a otra parte, o de un dispositivo de entrada al procesador, los 1 y los 0 son una señal eléctrica (o una señal magnética si la transmisión de datos es inalámbrica).

En el caso de la transmisión de datos a través de soportes físicos (las comunicaciones inalámbricas las dejamos para otro libro), si hay tensión eléctrica se trata de un 1 y si no la hay se trata de un 0.

Vuelta al cole: ¿qué es la corriente eléctrica y la tensión?

La materia está formada por átomos. Los átomos están formados por, entre otras partículas, electrones.

Ilustración de un átomo de helio que contiene dos electrones y un núcleo con dos protones y dos neutrones.

Imagen 2.17. Ilustración de un átomo de helio que contiene dos electrones y un núcleo con dos protones y dos neutrones.

  • Corriente o intensidad eléctrica: cantidad de electrones por unidad de tiempo que atraviesan la sección de un material. Se mide en Amperios (A).
Ilustración de un cable seccionado con electrones pasando a través de él.

Imagen 2.18. Electrones atravesando la sección de un cable. La flecha indica la dirección de movimiento de los electrones, es decir, de la corriente.

  • Tensión o diferencia de potencial: es la fuerza que una fuente de energía eléctrica (por ejemplo una batería) ejerce sobre los electrones para que se produzca el flujo de corriente eléctrica. A mayor fuerza sobre los electrones, mayor tensión. La tensión se mide en Voltios (V).

Comunicándonos a través de señales eléctricas

Una señal eléctrica es la variación en el tiempo de corriente eléctrica o de la tensión con el fin de transmitir información.

Si esta señal eléctrica presenta cierta diferencia de potencial (por ejemplo de 5 voltios) durante un periodo de tiempo de una duración predeterminada, el computador considerará que se trata de un 1. Si en otro periodo de tiempo de la misma duración no hay señal eléctrica, el computador considerará que es un 0.

Es decir, supongamos que el ordenador lee en bloques de 1 microsegundo. Cada microsegundo en el que el ordenador no detecte diferencia de potencial lo considerará como un 0. Por cada microsegundo con una diferencia de potencial de 5 voltios considerará un 1.

Antes hemos dicho que en binario la palabra ‘Hola‘ se representa como 01001000011011110110110001100001. Por tanto, para enviarle la palabra “Hola” a un ordenador debemos transmitirle una señal eléctrica como la representada en la siguiente gráfica:

Representación gráfica de la tensión de la señal eléctrica que transmite la secuencia binaria equivalente a la palabra ‘Hola’. Se trata de una gráfica que en el eje Y tiene la tensión, con dos valores: 0 Voltios y 5 Voltios; y que en el eje X tiene el tiempo, divido en microsegundos. Si el valor transmitido es un 1, la tensión es de 5 Voltios; si es un 0, es de 0 Voltios.

Imagen 2.19. Si analizamos con un osciloscopio la tensión de una señal eléctrica que transmite la palabra “Hola” veremos algo similar a la gráfica de la imagen superior.

El primero en plantear un sistema binario como medio para intercambiar información fue el matemático y filosofo alemán Gottfried Wilhelm Leibniz (1646—1716), motivo por el que se le considera el primer científico computacional de la historia. En 1679 Leibinz imaginó una máquina en la que los números binarios eran representados por canicas.

¿Cómo se transforman los unos y los ceros en algo comprensible por los humanos?

A un ordenador no se le introducen simplemente palabras como ‘Hola‘, lo que realmente se le introducen son órdenes del tipo: “Muestra por pantalla la palabra 'Hola'“. Como ya has aprendido, esta orden consistirá en una sucesión de unos y ceros.

Esa secuencia eléctrica de unos y ceros llegará a la CPU, que interpretará la secuencia binaria, la procesará, y como resultado, devolverá una nueva cadena de unos y ceros.

Si tienes curiosidad en entender qué ocurre dentro de la CPU debes estudiar electrónica digital y álgebra booleana, y para entender cómo funcionan los elementos que componen la electrónica digital es necesario estudiar electrónica analógica, física y química.

Esa cadena de unos y ceros devuelta por la CPU hay que convertirla en algo comprensible por los humanos, como una imagen o un sonido.

Un lector de CDs consiste en un motor que hace girar el CD mientras se emite un rayo láser contra la superficie del CD. Dependiendo de si el lugar donde impacta el rayo con el CD tiene o no una incisión, el láser se refleja en una u otra dirección. Si el lugar donde impacta el láser sí tiene una incisión, el reflejo del láser acaba impactando en un material semiconductor que se excita, produciendo una tensión eléctrica –y por tanto un 1–.

Cómo funciona una pantalla

¿Qué narices ocurre para que una cadena de unos y ceros se convierta en la foto de las últimas vacaciones?

Una pantalla está formada por millones de “puntitos”, conocidos como píxeles. La pantalla de mi portátil tiene 1.280 píxeles de ancho y 800 píxeles de alto, es decir, un total de 1.024.000 píxeles (o lo que es lo mismo, 1 Megapíxel).

Cada píxel está compuesto por tres bombillitas minúsculas (llamadas subpíxeles): una roja, una verde y otra azul. De ahí vienen las siglas RGB que verás en las pegatinas de algunas pantallas. RGB son las siglas de “Red Green Blue” (“Rojo Verde Azul” en castellano).

Es decir, la pantalla de mi ordenador tiene 3.072.000 bombillas. Cada una de esas bombillas se llama LED.

LED son las siglas de las palabras inglesas “Light-Emitting Diode“, que significa “Diodo Emisor de Luz”. Los diodos son elementos que permiten el paso de corriente sólo en una dirección y constan de otras propiedades que los convierten en un elemento preciado en la electrónica moderna.

Jugando con la intensidad con la que brilla cada LED se puede conseguir casi cualquier color visible por el ojo humano.

La señal eléctrica devuelta por la CPU sirve para encender o apagar cada una de esas 3.072.000 bombillas. Recuerda que un 1 son 5 V de tensión –la bombilla se enciende–, y que un 0 significa que no hay tensión –la bombilla se apaga–.

Fotografía macro de una porción de una pantalla que muestra la hora

Imagen 2.20. Porción de una pantalla. Los píxeles que escriben la hora “15:30” son negros porque sus LEDs están apagados.
(Imagen bajo licencia CC BY-SA 2.0 cortesía de Andreas.)

Desgraciadamente, por herencia de anteriores tecnologías los ordenadores no representan el color tan bien como sería posible:

“Pantalla retina” es un término comercial para referirse a pantallas con una alta densidad de píxeles por unidad de superficie. Se calcula que el ojo humano es capaz de ver hasta de 300 puntos por pulgada. Parece por tanto innecesario la existencia de pantallas –que las hay– con densidades de píxeles mayores a esa cifra.

Al valorar la calidad de una pantalla es más importante fijarse en la resolución, que es la densidad de píxeles por pulgada (dpi o ppi, del inglés “dots per inch” o “points per inch“, respectivamente, que significa puntos por pulgada en ambos casos), que en el número de píxeles.

Una pantalla 1080 significa que tiene 1080 píxeles de alto, pero su densidad de píxeles por superficie, y por tanto su calidad, será mayor cuanto más pequeña sea la pantalla. Una pantalla 4K tiene 4 veces el número de píxeles que una pantalla 1080.

La salida de la CPU, en cierta forma, está conectada a cada una de las bombillitas de la pantalla. Así, apagando y encendiendo cada una de esas bombillitas la CPU puede mostrar cualquier imagen.

Por si quieres profundizar en la representación de imágenes, la breve historia de los gráficos digitales:


Resumen

Una unidad central de procesamiento o CPU recibe unos (1) y ceros (0) en forma de señal eléctrica y devuelve, también en forma de señal eléctrica, otra cadena de unos (1) y ceros (0) que varía en función de cómo sea la cadena de entrada.

Los unos (1) y ceros (0) se introducen con los dispositivos de entrada (como un teclado o un ratón) y se transforman en algo entendible por los humanos, como una imagen o un sonido, gracias a los dispositivos de salida (como un monitor o un altavoz).

A mí me produce una enorme satisfacción entender cómo funcionan las cosas que uso, y he escrito este capítulo con la intención de provocarte el mismo sentimiento. Puede que esto te parezca demasiado teórico, pero eso es porque se trata de la primera pieza de un puzzle. Continua leyendo el Capítulo 3. ¿Qué es el HTML y el CSS? y todo empezará a cobrar sentido.