Epistemowikia
Revista «Hiperenciclopédica» de Divulgación del Saber
Segunda Época, Año IX
Vol. 8, Núm. 4: de septiembre a diciembre de 2014
Epistemowikia es parte de
Logotipo de CALA Virtual
CALAALA | Communitas | Evolvere
Editio | Epistemowikia | Exercitatio | Fictor | Flor
Epistemowikia no se hace responsable ni se identifica necesariamente con el contenido ni las opiniones expresadas por sus colaboradores.
La Universidad de Extremadura no se hace en ningún caso responsable de los contenidos publicados en Epistemowikia.
Ni la Asociación Conocimiento Comunal (CONOMUN) ni el Grupo de Investigación de Ingeniería Telemática Aplicada y Comunicaciones Avanzadas (GÍTACA) se hacen en ningún caso responsable de los contenidos publicados por terceros.

Inicio | La revista | Índex | Hemeroteca | Búsquedas | Quiénes somos | Contacto | Publica

La revolución informática

De Epistemowikia

Autor: Ernesto García Camarero - Cuaderno aparecido en "Historia 16"

Tabla de contenidos

Aparición y evolución de las máquinas inteligentes.

Antecedentes

Los primeros cálculos realizados en la historia han sido tan sencillos como agregar una piedrecilla a un montón por cada oveja que se entregaba al rebaño común, y quitar otra del mismo montón cuando una oveja era devuelta. Era este un procedimiento automático para determinar elnúmero de ovejas que cada uno tenía, en cada momento, en el rebaño común. El nombre de cálculo parece provenir precisamente del uso de cálculos o piedrecillas en los recuentos primitivos. Los cálculos servían para objetivar el pensamiento, eran una materialización del mismo, que evitaba discusiones si las reglas o procedimientos de agregar o suprimir cuentas de los montones eran claras y estaban bien ejecutadas. El ábaco chino es una pervivencia de este procedimiento de cálculo.

Fueron en principio las matemáticas más aptas para realizar cálculos, por ser sus reglas más sencillas que las de otras ciencias. Para realizar las operaciones matemáticas no solo se utilizaron piedrecillas, cuentas, o cálculos (que sirven para materializar cantidades discretas), sino también, reglas y compases con los que podían materializarse y transportarse cantidades continuas. La aritmética y la geometría crecieron para encontrar fórmulas y procedimientos que nos condujesen a cálculos seguros. Y aunque encontrar las fórmulas era y es una tarea muy ardua (solo reservada al hombre), una vez descubiertas, aplicarlas era cuestión trivial. Y así sigue siendo, solo que en tiempos más modernos en lugar de utilizar cuentas de piedra, o reglas y compases, han ido apareciendo otros dispositivos y máquinas para ayudarnos a realizar los procedimientos que la ciencia va descubriendo.

Si nos situamos en el siglo XVII, ese siglo grandioso para la Ciencia, apreciamos la aparición de las máquinas de calcular mecánicas y de las reglas de cálculo. Las máquinas de calcular usaban ruedas y engranajes para su funcionamiento. En ellas podían representarse los números y hacerse algunas operaciones aritméticas; continuando así la tradición del ábaco. Son máquinas, que en el sentido actual llamaríamos máquinas digitales, en cuanto que operan con cifras (con dígitos). Las reglas de cálculo representaban los números por longitudes, y para operar usaban procedimientos basados en los logaritmos de Nepper (1550-1617), reduciendo la multiplicación y la división de números a la suma y diferencia de las longitudes de los segmentos que representan a los operandos. En la terminología actual podrían considerarse como máquinas analógicas, en cuanto que los números se representan por magnitudes físicas análogas (en este caso análogas a la longitud).

De Pascal a Torres Quevedo

La primera máquina de calcular moderna se la debemos a Blas Pascal (1623-1662), insigne filósofo y matemático francés, quien la invento en 1642, a la edad de 21 años, según se dice, para ayudar su padre en su trabajo de recaudador de impuestos. Con esta máquina solo podían hacerse sumas con números de cinco cifras. Algo después Leibniz (1646-1716), en 1674, inventó otra máquina de calcular con la que, además de sumas, también podían realizarse multiplicaciones con números de 5 a 12 dígitos y cuyo resultado podía ser hasta de 16 dígitos.

La primera regla de cálculo apareció en 1650 y fué construida por los ingleses Gunter y Oughtred. Esta invención estuvo olvidada en la práctica, hasta que, en 1850, el oficial de artillería francés Amadeo Amnheim la hizo practicable al agregarle el doble cursor móvil. Las reglas de cálculo han sido utilizadas hasta épocas muy recientes.

Otra de las formas de calcular, ya desde antiguo, era el uso de tablas numéricas, mediante las que se ganaba mucho tiempo al sustituir las operaciones necesarias para la construcción de los valores contenidos en la tabla por la simple operación de búsqueda en la misma (sustituir el algoritmo de cálculo por el algoritmo de búsqueda). Fueron famosas, por una parte, las tablas astronómicas, como las del rey Alfonso X el Sabio (1221-1284) y sobre todo las de Ticho-Brahe (1546-1601) y Keppler (1571-1630), así como otras múltiples utilizadas para gobernar la navegación náutica. Por otra parte, se difundieron las tablas logarítmicas, mediante las que se lograba reducir las operaciones más complejas de multiplicar, dividir o extraer raíces de números, a las más simples de búsqueda en la tabla y sumar restar, o dividir por un entero, los logaritmos previamente localizados en la tabla. Durante todo el siglo XVIII y XIX, y muy especialmente en el siglo XX, antes de la aparición de los ordenadores, la construcción de tablas de funciones especiales fué una tarea a la que se dedicó mucho esfuerzo.

Pero no solo se aplicaban los automatismos al cálculo numérico. Los relojes mecánicos son también prototipo de máquinas automáticas. Pero hay dos ejemplos que es obligado mencionar como símbolos precursores de la futura revolución informática: el regulador de Watt (1736-1819), y el telar automático de Jacquard (1752-1834). El primero, aplicado a la máquina de vapor para autorregular la presión de su caldera, materializa de forma evidente el principio esencial de la cibernética: el feed-back o retroalimentacion. El segundo, utiliza por primera vez información codificada mediante perforaciones realizadas sobre tarjetones, para indicar al telar qué movimientos debe hacer para realizar un determinado tejido; se utilizaba por primera vez el concepto de memoria de información interpretable directamente por la máquina.

Durante todo el siglo XIX se investigaron nuevos mecanismos, que fueron incorporándose a las diversas máquinas con las que se construía la sociedad industrial de los dos últimos siglos. También en el siglo XIX se han estudiado y desarrollado máquinas puramente automáticas que ayudasen a construir tablas numéricas y realizar cálculos más complejos que una sola operación aritmética. El ejemplo más notable fué el intento de Charles Babbage (1792-1871) de construir una máquina de calcular, la Analytical Engine, (1834) completamente automática en la que se incluía la idea de Jacquard de almacenar información ( en particular la información relativa al algoritmo de cálculo) en tarjetas perforadas, y algunos registros mecánicos para almacenar los números relativos a los resultados parciales. Esta analogía de ideas entre Babbage y Jacquard, haría decir a la Condesa de Lovelace, (hija de Lord Byron y colaboradora de Babbage en tareas de programación) que "la Analytical Engine tejía los cálculos algebraicos de la misma forma que el telar de Jacquard tejía flores y hojas en sus telas". La tecnología de las ruedas y los engranajes no era la adecuada para realizar un proyecto tan avanzado como el de Babbage, en el que se contenían las principales ideas de los actuales ordenadores. Por eso, aunque se construyeron algunos de sus componentes, la máquina en su totalidad no llego a funcionar, y se abandono el proyecto en 1842.

Si la mecánica no era la tecnología adecuada para construir máquinas de tanta complejidad, si lo era para perfeccionar las máquinas del tipo de las de Leibniz, en las que se ejecutaban cada vez una sola operación aritmética. Así lo hicieron en los años 80, Odnhner (sueco que residía en Rusia), y Baldwin en los Estados Unidos. Gracias a ellos las máquinas de calcular de sobremesa comenzaron a fabricarse industrialmente, y a usarse de forma generalizada. Recordemos, entre otros muchos, los nombres de Brunsviga, Burrough, Madas, Facit,etc... que fueron marcas de máquinas de calcular de sobremesa, y no olvidemos a la compacta Curta, que, aunque mecánica, se anunciaba como máquina de calcular de bolsillo y cabía en una sola mano.

La mecánica también se mostró adecuada para fabricar máquinas de escribir. A los antecedentes que podemos encontrar en los nombres Pogrin (impresor de Marsella, que inventó una máquina criptográfica en 1833) o de Ravizza quien en Novara (Italia) construyo, en 1837, su primera máquina de escribir con el nombre "il cembalo scrivano", siguieron una serie de tentativas en los años siguientes que cristalizaron, a partir de los 70, en las máquinas fabricadas industrialmente por las marcas Remington, Underwood, Ideal, Olivetti, . . . y que invaden las oficinas del siglo XX, con decenas de modelos y de marcas.

La aparición del electroimán abrió el camino que conduciría a superar las dificultades de la tecnología mecánica para construir máquinas de calcular programables. Aunque podrían encontrarse otros antecedentes, fué Morse (1791-1872), quien al inventar en 1837 el primer telégrafo eléctrico (usando relais) consiguió hacer circular por conductores eléctricos mensajes codificados, cosa esencial para abordar, en el futuro, la construcción de máquinas avanzadas de cálculo

Leonardo Torres Quevedo (1852-1936) fué quien usó por primera vez elementos electromecánicos para construir máquinas de cálculo. Este ingeniero español construyó en 1913 su "aritmómetro"; máquina completamente automática, compuesta por una máquina de escribir y diversos dispositivos electromecánicos conectados entre sí para trabajar conjuntamente. Entre estos dispositivos figuraban varios con los siguientes nombres: inscriptor, totalizador, multiplicador, comprador, coordinador,...que son los antecedentes de los diversos órganos de las actuales computadoras. Usaba una máquina de escribir eléctrica como órgano de entrada salida, podía retener resultados parciales, y en virtud de ciertas comparaciones realizar una operación u otra. Es pues Torres Quevedo, quien logró superar la barrera tecnológica que había impedido a Babbage realizar su proyecto, y abrir así el cauce que conduciría a la construcción de los grandes ordenadores.

Los Grandes Ordenadores.

En los años treinta de nuestro siglo, la ciencia (lógica, matemáticas y física) y la técnica (electricidad y electrónica) habían alcanzado la madurez suficiente para que se produjese la aparición de los ordenadores. Como es sabido, desde finales del siglo XIX las máquinas de calcular, las máquinas de escribir, las máquinas registradoras, ciertas máquinas de contabilidad, y las tabuladoras, tanto mecánicas como electromecánicas, invadían ya las oficinas. El teléfono y la radio también eran inventos de dominio público en la tercera década de nuestro siglo.

No obstante, aunque todo estaba ya preparado, fué la segunda guerra mundial la que planteo la necesidad de desarrollar con urgencia los nuevos medios de cálculo que situación tan dramática reclamaban.

En todo caso, el primer prototipo de calculadora electromecánica fue la maquina Z-1 construida en la Alemania de 1936 por el ingeniero Konrad Zuse utilizando la técnica telefónica de los relais. Y así mismo fue Konrad Zuse quien entre los años 1938 y 1941 construyó la máquina Z-3, primera computadora digital, automática y programable de aplicación general. Otros antecedentes importantes de los grandes ordenadores pueden encontrarse en los Estados Unidos.Como son la calculadora electromagnética a relais construida en los Laboratorios Bell por George Stibitz y Samuel B. Williams en 1939 y el prototipo de la primera calculadora digital electrónica construida por John V. Atanasoff y Clifford Berry (la ABC computer) entre los años 1937 y 1942 en el Iowa State College. En Europa, el primer ejemplo importante lo tenemos en la máquina Colosus, construida en el mítico Bletchly Park (Inglaterra), por encargo de los servicios secretos británicos, para descifrar los mensajes codificados por la famosa máquina criptográfica alemana Enigma. Otro ejemplo importante lo constituye la primera computadora electrónica de programa almacenado construida por Wilkes, en 1949, en la Universidad inglesa de Cambridge, conocida con el nombre de EDSAC, y que más tarde se comercializó con el nombre de LEO Computers. En Manchester, Tom Kilburn, F.C. Williams y otros, construyeron la Mark I que daría origen a las máquinas Ferranti; siendo esta última una de las marcas más usadas en las Universidades y Centros de Investigación en los años iniciales del cálculo electrónico.

A estos primeros intentos siguieron otros proyectos dotados con mayores recursos y que tendrían mayores repercusiones y continuidad en el futuro. Como los realizados en la Universidad de Harvard por Aiken entre 1937 y 1944 , y el llevado a cabo en la Moore School de Ingenieria Electrica de la Universidad de Pensilvania por John Maucly y J. Presper Eckert. En el primero colaboraría la empresa IBM y el segundo fue hecho por encargo del Laboratorio de Balística del Ejercito de Estados Unidos (este ultimo proyecto seria el germen de la maquina UNIVAC, una de las mas utilizadas en las decadas siguientes). Dedicaremos algo más de atención a las dos máquinas resultado de estos proyectos y a su posterior evolución, ya que fueron los pilares sobre los que se edificó de la informática.

La competencia entre IBM y UNIVAC

La máquina construida por Howard H. Aiken (1900-1973) y su equipo en la Universidad de Harvard, con la colaboración de IBM, es considerada como la primera máquina de calcular electromecánica programable de la que se tuvo noticia mundialmente, cuando la máquina de Zuse era silenciada por razones políticas. La tecnología electromecánica utilizada en su construcción, convertía a esta máquina en un monstruo de más de 5 toneladas de peso y con 75.000 componentes. Usaba aritmética de punto fijo y las unidades de entrada y salida eran lectoras y perforadoras de tarjetas o de cintas de papel. Los programas no eran almacenables en memoria y se leían mediante cintas de papel perforado. Los datos se introducían por medio de cintas de papel o tarjetas perforadas, o a mano en los registros de constantes. También disponía de unos tableros de cableado variable mediante los que se incluían determinadas subrutinas, a las que se llamaba desde los programas escritos en las cintas de papel. Estas máquinas eran grandes en tamaño, en lo que significaron como revolución en los métodos de cálculo anteriores y en el germen del desarrollo que vendría después, pero pequeñas en su eficiencia si se comparan con la maravillas de ordenador que cualquiera de ustedes tiene encima de su mesa.

IBM, uno de los colaboradores de la Universidad de Harvard, inició la fabricación industrial y la comercialización de computadoras electromecánicas, y se convirtió en la empresa que dominó por muchos años el mercado mundial de los ordenadores. En 1953 IBM anuncia dos nuevos productos: las calculadoras electrónicas (utilizaban válvulas de vacío en sus circuitos) IBM 702 de uso comercial, e IBM 650 de uso científico. Ambas obtuvieron en su momento un gran éxito comercial. En 1958 se realiza la sustitución de las "viejas" máquinas electrónicas de la serie 700 (válvulas de vacío), por las "potentes" 7090, 1401, y la "científica" 1620 (transistorizadas).

Fueron unos años de gran crecimiento para IBM. La IBM World Trade Corporation abre oficinas en Bélgica. En Holanda (Blaricun) instala un Centro Europeo de Educación. Se crea en Nueva York el Thomas J. Watson Research Centre (1961). En Francia en La Gaude en 1962 se abre un laboratorio de desarrollo de ingeniería. En Cuernavaca, México, un Centro de Educación, así como Centros de Cálculo en Duseldorf, Tokyo y Toronto. Sus centros de educación y de producción de diferentes componentes se extienden por todo el mundo. La investigación se sigue manteniendo principalmente en Estados Unidos (en Nueva York y en San José, California). IBM penetra en todos los sectores económicos, y en todo tipo de actividad: desde cálculos orbitales para la NASA, hasta aplicaciones hospitalarias, o sistemas de investigación policiaca para el FBI. Todo lo podía resolver la informática, todo lo podía resolver IBM.

En 1965 instala su primer System /360. En 1971 aparece la nueva serie System/370. Máquinas cada vez más potentes, alojadas en esos Centro de Cálculo de Empresas, Ministerios, y Universidades, verdaderos Templos Laicos del Cálculo, todo limpieza y pulcritud. Y Templos de difícil acceso a través de varias cancelas donde se requerían claves de identificación para que se abrieran siguiendo un ritual no desprovisto de esoterismo. Allí se elaboraba la verdad oficial ("eso lo ha dicho el ordenador"), que parecía aproximarnos al terrible mundo descrito en el 1984 de Orwell, y a cuyo año nos aproximábamos de forma inexorable.

Aunque IBM tenía competidores, controlaba cerca del 70% del total del mercado mundial. Su posición era entonces más firme que nunca; empezaba los años 70 con más de 300.000 empleados y más de medio millón de distribuidores repartidos por todo el mundo. Pero no tardaría en aparecer un gran peligro surgido precisamente de lo que IBM parecía representar: el peligro de la innovación. En efecto la aparición de los circuitos integrados, de los microchips, con verdaderas CPU montadas en una pastilla de silicio de pocos centímetros de longitud, iba a modificar el panorama de la computación y terminar con la imagen de esos Centros de Cálculo centralizados que mencionábamos un poco antes. Comenzaba la era de los microordenadores, como veremos más adelante.

La principal competidora de las máquinas IBM, desde los años 50, fué la familia de computadoras UNIVAC (UNIVersal Automatic Computer),que fabricaron y distribuyeron, en las décadas siguientes, una serie de empresas que fueron sucediéndose unas a otras por compra, absorción, o vicisitudes diversas.

El origen de UNIVAC está en la primera computadora electrónica de la historia: la ENIAC. Esta máquina fué construida en la Escuela de Ingeniería Eléctrica (conocida como la Moore School) de la Universidad de Pensilvania, en donde, en los años 40, se daban todas las condiciones necesarias para abordar con éxito el desarrollo de máquinas orientadas a la computación electrónica. Por una parte, en sus planes de estudios se incluían las materias necesarias para el diseño de instrumentos electromecánicos; por otra, poseía en pleno funcionamiento un analizador diferencial. Este dispositivo analógico de cálculo, uno de los más avanzados de la época, se dedicaba a la construcción de tablas numéricas de funciones matemáticas.

Pero pese a estas favorables condiciones técnicas, si no hubiese sido por las necesidades de la guerra, el proyecto de dos jóvenes ingenieros, John W. Mauchly (de 32 años), y J. Presper Eckert (de 23) de construir una máquina, como la futura ENIAC, no hubiera prosperado, dado lo elevado de su costo y lo difícil de hacer entender su utilidad y factibilidad. En estas circunstancias bélicas bastó el memorándum de cinco páginasredactado por Mauchy, exponiendo las ideas de ambos ingenieros sobre el uso de los tubos de vacío en los dispositivos de cálculo (que fueron recogidas en el informe presentado por la Moore School al Laboratorio de Investigaciones Balísticas del Ejército de los Estados Unidos), para que se abrieran las puertas de la financiación. Como resultado de estas gestiones el 5 de junio de 1942 se formalizó un contrato entre la Universidad de Pensilvania y el Ejercito de los Estados Unidos para diseñar y construir una computadora electrónica. En el contrato figuraba Eckert como ingeniero jefe , Mauchly como asesor principal, y el matemático Goldstine, como el interlocutor técnico del ejercito. También se fijaba en el contrato como nombre oficial de la máquina a construir el de Electronic Numerical Integrator And Computer (ENIAC)

Algunos datos físicos de la ENIAC nos darán una idea de como eran las máquinas que operaban en estos tiempos iniciales de la computación electrónica. La representación numérica era decimal pura, en lugar de la base binaria como pronto se impondría. Realizaba 5000 operaciones por segundo (solo en punto fijo). No tenía memoria central, solo 20 registros numéricos para el almacenamiento de resultados parciales. Los circuitos estaban hechos a base de válvulas de radio (o válvulas de vacío), de las que se usaron para su fabricación cerca de 18.000, que consumían más de 175 kilowatios de potencia. La velocidad del reloj de ENIAC era de 100 kiloherzios. Toda esta ferretería (hardware) pesaba más de 30 toneladas, y ocupaba varias salas de laboratorio.

La construcción de la máquina no se terminó en el plazo previsto y su costo sobrepaso el 225 % del presupuesto original. Tampoco llegaría a utilizarse en la elaboración de tablas balísticas para el uso de los artilleros durante la guerra, como había sido su objetivo. Sin embargo, una vez acabada, sí se utilizó para realizar los complejos cálculos necesarios en el diseño de la primera bomba H que estaba fabricándose en Los Alamos.

En 1946 se hizo una presentación de ENIAC, dirigida al gran publico, con la presencia de numerosos periodistas, en la que se mostraba un panel frontal lleno de luces parpadeantes mediante las que parecían percibirse las maravillas de su velocidad y las proezas que era capaz de realizar. Con esta campaña publicitaria, más propia de una estrella de Hollywood que de una invención científica, se iniciaba la mitología del "cerebro electrónico", halo con el que se envolvió durante muchos años a la nueva máquina de calcular.

Pueden considerarse herederas de ENIAC, varias de la máquinas primitivas que se construían en aquellos años (como la EDSAC desarrollada por Wilkes en Cambridge, Inglaterra en 1949, o la SEAC desarrollada por Samuel Alexander en el National Bureau of Standars en 1950). Pero sus continuadoras directas son la EDVAC (construida tambien en la Moore School, en la que se contenian ya las ideas de von Neumann (1903-1957) y de Turing (1912-1954) sobre programa almacenado) y, sobre todo, las BINAC y la UNIVAC, construidas por Eckert y Mauchly, por encargo de la Oficina del Censo, en la empresa Eckert-Mauchly Computer Corporation fundada por ellos cuando dejaron la Universidad.

La microinformática: Del relais al transistor

La naturaleza del elemento lógico más sencillo de un ordenador, es decir, el que deja pasar corriente eléctrica por un cable en determinadas circunstancias, ha determinado las características del ordenador total.

Primero fué el relais, que consistía en una bobina de hilo de cobre que inducía un campo magnético cuando pasaba corriente por él. Este campo magnético atraía a una pieza de hierro con la que se hacia contacto entre dos bornes, lográndose así que pasase corriente entre ellos. La construcción de un relais era una tarea compleja y cara; además su peso era considerable, consumía mucha energía y empleaba mucho tiempo en reaccionar. Las centrales telefónicas así como un sinnúmero de otros dispositivos automáticos, utilizaban ya este tipo de dispositivo físico. También habían sido utilizados por Torres Quevedo en su aritmómetro y por Zuse y Aiken en las computadoras primitivas construidas por ellos. El relais es considerado como un dispositivo electromecánico, por su uso de electricidad y el desplazamiento físico de piezas mecánicas.

La sustitución de los relais por tubos de vacío o válvulas de radio significó una gran mejora. Con ello no se reduce el tamaño, pero aumenta considerablemente la velocidad de reacción, ya que lo único que se desplaza por los distintos cables de los circuitos es el fluido de electrones. Por eso a estos dispositivos se los considera electrónicos. Solo cuando empezaron a utilizarse dispositivos electrónicos, empezó a ser viable la construcción de computadoras. Las máquinas construidas con esta tecnología son conocidas como de primera generación

Más notable fué el adelanto conseguido con la invención del transistor realizada en 1947 por tres físicos de los Laboratorios Bell: William Shockley, Walter Brattain y John Bardeen, quienes por este invento recibieron el premio Nobel de física de 1956. El transistor es un dispositivo electrónico que permite el paso de corriente en ciertas condiciones con una estructura considerablemente más sencilla que la de las válvulas de radio; su funcionamiento mucho más fiable, su tamaño mucho menor (varios milímetros cuando se consideraban transistores aislados), y su consumo escaso. Con los transistores se construyeron las máquinas pertenecientes a la llamada segunda generación, de las que son ejemplos notables la IBM 7090, y la UNIVAC 1100.

La fabricación industrial de transistores la inicia primero la Texas Instrument, en 1954, y al año siguiente la empresa Shockley Semiconductors, fundada en Palo Alto (California) por William Shockley, uno de los inventores del transistor. En 1959 un grupo de ingenieros abandonan esta última empresa para fundar otra con el nombre Fairchild Samiconductors, movidos por la invención de un proceso planar para la fabricación de transistores, con el que se consigue bajar el costo de producción y, lo que es más importante, permitirá la fabricación de circuitos integrados, como ocurrió un par de años después.

Circuitos integrados y microprocesadores: Intel y Motorola.

Otra de las dificultades que se había presentado en la construcción de las computadoras primitivas, estribaba en la complejidad de la conexión de sus componentes (relais o válvulas de radio) mediante cables. El primer paso en la superación de esta dificultad lo dió G.W. Dummer, experto en radares de nacionalidad inglesa, que en 1952 publicó un articulo proponiendo el empleo de un soporte sólido para conectar los componentes electrónicos, evitando así el uso de cables. Esa dificultad del cableado era todavía mayor en el caso de los transistores, dado el reducido tamaño de estos. Las empresas americanas Fairchild Semiconductors y Texas Instrument dieron con la solución en 1958, cuando presentaron los primeros circuitos integrados o chips. Aunque inicialmente se integraban en ellos solo ciertas partes de los ordenadores (unidades aritméticas, unidades de control, y otros circuitos), más tarde se logro la integración de CPU completas en una sola pastilla, que se denominaron microprocesadores. En la fabricación de estos microprocesadores dos empresas son las que más han influido en su evolución: Intel y Motorola.

Intel Corporation fué fundada en 1968 por dos ingenieros de la fabrica de transistores Fairchild Semiconductors. En 1971 Intel lanza el primer microprocesador, el 4004 de 108 KHz, que integra 2.300 transistores, al precio de 200 $. En 1978 comienza la producción de su procesador 8086, de 16 bits, de 4.77 MHz (más tarde alcanzaría las velocidades de 8 y 10 MHz) en el que se integran 29.000 transistores; su precio era de 360 $. Microsoft desarrolló para éste microprocesador un compilador del lenguaje BASIC.

Fué muy importante para la supremacía de los productos de Intel, la decisión tomada por IBM en 1981 de utilizar el microprocesador 8088 en su 5150 Personal Computer, con el que entró IBM en el gran mercado de los ordenadores personales, consolidando así este tipo de producto. A partir de ese momento crece de manera considerable la densidad de integración y la velocidad de los microprocesadores: en 1985 aparece el 80386, de 16 bits y de 16 MHz, en el que se incorporan 275.000 transistores (a 300 $); y en 1989 se anuncia el 80486 de 25 y 33 MHz, en el que se integran 1.200.000 transistores a un precio inicial de 900 dólares.

En 1990 son varias las empresas que fabrican clónicos de los microprocesadores de Intel, a los que identifican con la misma denominación x86 que Intel, y que un juez autoriza. Esta situación legal obliga a Intel a una gran campaña publicitaria para identificar sus chips genuinos con el slogan de "intel inside", y a buscar nombres para sus nuevos productos, como en el caso de su nuevo procesador, que en lugar de llamarlo 586, lo denomina Pentium. El Pentium usa registros de 32 bits y permite el acceso a un universo de datos de 4 GB, para ello utiliza 3 millones de transistores. En 1994 el Pentium de 100 MHz cuesta 995 $, al año siguiente eso es lo que cuesta el de 150 MHz , y esta disponible el de 200 MHz a 1600 dólares.

Motorola introduce en 1975 su microprocesador 6800, más tarde convertido en la serie 650x por razones legales. Varias versiones de este microprocesador fueron construidas y distribuidas bajo licencia por GTE, Rockwell y Mitsubishi. Basado en el microprocesador de Motorola se desarrollo la línea de Apple II. También fué usado por NINTENDO en sus sistemas de entretenimiento. En 1977 produjo Motorola el chip 6809, con un diseño muy mejorado, utilizado en múltiples aplicaciones, incluidas las comunicaciones por satélite, y del cual se vendieron varios cientos de millones. Su rapidez y flexibilidad iban unidas a un sistema operativo, el OS-9, de gran eficacia.

Miniordenadores y microordenadores: Apple Computer

La creación de los miniordenadores, que se produjo casi simultáneamente con la tercera generación de las grandes máquinas, fue posible gracias a la aparición de los circuitos integrados, y supuso un gran paso en la evolución de la informática. Los primeros miniordenadores fueron el PDP-11, y el VAX construidos por Digital Equipmemt Corporation (DEC) y, el NOVA y el ECLIPSE construidos por Data General. Su comercialización duro desde los años 1965 hasta 1987 en que ya no pudieron resistir la competencia, cada vez más fuerte, de los microordenadores. Así convivían por estos años los llamados main frames (ejemplo el IBM 370/) con los minis. Estos últimos se dedicaron principalmente a tareas especificas, tales como el control industrial, aunque su potencia fuera comparable y aun mayor que la de los grandes ordenadores de la segunda generación.

Pero el verdadero salto en la evolución de los ordenadores se dió cuando, usando los distintos microprocesadores (cada vez más baratos y con prestaciones más potentes), empezaron a construirse los microordenadores, que eran ordenadores completos, con las unidades periféricas necesarias para su funcionamiento, y que podían instalarse sobre una mesa de escritorio. Primero fueron un juguete avanzado para niños listos, pero muy pronto evolucionaron hasta convertirse en verdaderos ordenadores de utilidad en empresas y oficinas. La irrupción de estas pequeñas máquinas fué tan impresionante que hizo cambiar las líneas estratégicas de las fabricas de los grandes ordenadores. Las marcas de los primeros microordenadores que tuvieron cierta difusión fueron Altair (lanzado el 1 de enero de 1975), Commodore, Radio Sack, pero los que realmente le dieron el impulso que ahora conocemos fueron Apple Computer y IBM Personal Computer, aunque casi todas las marcas de grandes ordenadores fabricaron también sus ordenadores personales.

Veamos un poco más detenidamente el caso de Apple Computer como ejemplo de la aparición de un producto de tecnología avanzada en un medio ya preparado para ello. Steven Wozniac y Steven Jobs eran dos compañeros de Instituto, interesados ambos en la electrónica, que después de graduados comenzaron a trabajar en empresas informáticas distintas del Silicon Valey: Wozniac en Hewlett Pakard, y Jobs en Atari. En sus ratos libres Wozniac se entretenía trabajando en su garaje en el diseño de lo que luego seria la Apple I, sin dar a esta actividad mayor importancia; Jobs insistía en que para poder venderla debían de darle un aspecto de máquina acabada. De esta colaboración nació el 1 de abril de 1976 Apple Computer cuyas máquinas harían cambiar los usos de la informática. En los modelos siguientes, se incluían gráficos en color y otros muchos adelantos; se vendía a un precio que oscilaba en torno de los 1500 dólares. Comenzaron las ventas mejor de lo previsto y con el aumento de estas se incrementó también el tamaño de la empresa naciente. Ya en 1980 cuando se lanzó la Apple III, la empresa contaba con varios miles de empleados, y sus máquinas comenzaban a venderse fuera de los Estados Unidos. Se incorporaron gerentes profesionales con experiencia y se atrajeron a nuevos inversores: Apple Computer se convirtió en una "verdadera empresa", cosa que horrorizaba a muchos de los empleados de los primeros tiempos, pues temían que se perdiese el espíritu de camaradería que se había conseguido en su fase inicial.

El año 1981 fué critico para Apple Computer. Por una parte las ventas comenzaron a disminuir después de cierta saturación del mercado y por otra IBM lanza su primer PC, y comienza rápidamente a dominar el mercado de los ordenadores personales. Además Wozniac sufre un accidente de aviación que le retuvo fuera de la empresa y Jobs debió hacerse cargo de la presidencia. Para hacer frente a esta nueva situación Apple busca a un hombre de empresa experimentado y contrata al entonces Presidente de Pepsi Cola, John Sculley, quien se hace cargo de la presidencia en abril de 1983. Entre las medidas que toma para contrarrestar la competencia de IBM, figura una campaña de publicidad para el lanzamiento de las máquinas Macintosh en el que se presenta al mundo Orwelliano de IBM hecho añicos por la nueva máquina. Al comienzo de 1985 comenzaron las desavenencias entre Jobs y Sculley, entre la técnica y el negocio, desavenencias que terminaron con la dimisión de Jobs, quedándose Sculley a la cabeza de Apple Computer. Estos cambios no hicieron mejorar los problemas de la empresa. Se produjeron por primera vez grandes perdidas que obligaron a despedir a la quinta parte de su personal (algo así como 1200 empleados). Además Sculley debió enfrentarse a Bill Gates, de Microsoft, a quien acusó de que el sistema operativo Windows 1.0 era un plagio de Macintosh, y con ello de invasión desleal su mercado. Finalmente logra que Gates firme un acuerdo con Apple Computer. El exito de la nueva línea de los potentes ordenadores Macintosh que en 1987 se venden con facilidad (50.000 Macs al mes) hizo pensar que la década de los 90 seria la década de los Macintosh. Pero no fué así, ya que en 1990 Microsoft lanzó el Windows 3.0 con muchas de las prestaciones de Mancintosh, que corría prácticamente en todos los clónicos del mundo y que estaban saturando el mercado.

Después de ensayar diversas estrategias comerciales y lanzar algunos nuevos productos, la situación de Apple Computer no mejoraba y Sculley fué relevado de su puesto que ocupo Spindler. Quien comenzó con una política de colaboración con IBM y de concesión de licencias de sus productos, pese a lo cual Apple pierde más de 70 millones de dólares en un trimestre. En enero de 1996 dimite Spindler y es sustituido por Gil Amelio, que había sido Presidente de National Semiconductors. Parece que con él las cosas han empezado a cambiar para Apple Computer, y mejorado los aspectos financieros de la empresa. Además para reforzar la potencia tecnológica compró la empresa NeXT, creada por Steven Jobs cuando dejo Apple, asegurándose así el regreso de éste y la incorporación del sistema operativo NeXTstep como nuevo sistema operativo de Apple Computer (que ya se anuncia con el nombre de Rapsody, y y cuyo lanzamiento esta previsto para 1998). También se espera que Jobs desempeñe un papel importante en esta nueva etapa de Apple.

La lógica y el software

Cálculo y lógica

Entre las fantasías del hombre siempre ha existido la de poder realizar sus deseos simplemente con un ademán, pronunciando una palabra, sin necesidad de poseer la sabiduría o sin hacer el esfuerzo necesario para lograrlo de otro modo. Ante la ineficacia de la magia, ya desde tiempos primitivos, se buscaron procedimientos seguros y bien fundamentados en la observación y en el razonamiento que convertidos en fórmulas o recetas nos ayudasen a resolver nuestros problemas. Este fué el origen de las matemáticas y también de la lógica, disciplinas que se consolidaron en la Grecia clásica, y que se desarrollaron de forma espectacular desde el Renacimiento hasta nuestros días. El álgebra, que en sus ecuaciones sintetiza infinidad de problemas, tiene por finalidad la búsqueda de procedimientos con los que resolver problemas complejos mediante la ejecución de una secuencia de operaciones aritméticas elementales (tomadas entre la suma, la resta, la multiplicación, la división y la extracción de raíces) ejecutadas en un orden bien establecido, de forma que cualquiera, que supiese ejecutar esas operaciones y conociese la fórmula que establecía el orden en que debían ejecutarse, era capaz de encontrar la solución a los problemas concretos de una misma familia. No es este lugar para entrar a considerar los pormenores de la evolución del álgebra y de sus aplicaciones. Sólo diremos que resultó ser un método muy fecundo, primero aplicado a la geometría para resolver sus problemas por procedimientos analíticos sin recurrir a la feliz idea, y después, ampliando el número y la naturaleza de las operaciones básicas, para lograr abordar problemas que antes ni siquiera se habían percibido.

Estos métodos algebraicos también empezaron a emplearse en la lógica. Suele aceptarse que el primer antecedente de este empleo se encuentra en el Ars Magna Combinatoria del mallorquín Raimundo Lulio (1235-1315). Más tarde, también Leibniz (1646-1716) buscó por esta senda con resultados fecundos. Pero fué George Boole (1815-1864), matemático inglés, quien al publicar, en 1864, un libro con el ambicioso titulo de "Leyes del pensamiento", dio un paso fundamental en el establecimiento de un álgebra de la lógica, conocida hoy como álgebra de Boole, y que, aunque ésta no se correspondía con las pretensiones expresadas en el título de su libro, fué el fundamento para la aparición de los futuros ordenadores. Se puede considerar el álgebra de Boole como punto de partida de dos caminos: uno practico, que a través del diseño de circuitos condujo al desarrollo del hardware, como ya hemos visto, y otro teórico con el que se inicia la lógica matemática moderna en que se basaría la lingüística computacional y al software.

En efecto, el camino teórico iniciado por Boole abre el interés por los estudios de la lógica matemática; por ese camino continuarán, entre otras, las relevantes figuras de Frege (1848-1925), el activo pacifista Bertrand Rusell (1872-1970) con su famoso libro Principia Mathematica, Hilbert (1862-1943) en su búsqueda de procedimientos de demostración automática, y otros lógicos más orientados hacia la definición de las funciones calculables y la formalización de algoritmos y de máquinas abstractas de cálculo, como Church (1903-1995), Godel (1906-1978) (con sus famosos teoremas limitadores) y Turing (1912-1954) autor de la famosa máquina que lleva su nombre.

Estos enfoque teóricos influyeron de forma muy notable en la concepción y diseño de los nuevos ordenadores (véase por ejemplo la relación de von Neumann con Turing, de la que salió la idea de programa almacenado, utilizada todavía en los ordenadores actuales), así como en la formulación de las teorías de algoritmos y de autómatas, y en la aparición de la lingüística computacional (de la que Noam Chomsky es uno de sus creadores)

Lenguajes de Programación

A partir de las ideas de Turing y de von Neumann, de almacenar secuencias de instrucciones en la memoria de la computadora, de donde las toma ordenadamente la unidad de control para interpretarlas y ejecutarlas, surge la programación y el software como las actividades de mayor trascendencia en informática. Los ordenadores, por la forma en que han sido construidos sus circuitos, pueden realizar un limitado conjunto de instrucciones básicas , que por una parte realizan las operaciones aritméticas elementales y ciertas operaciones lógicas, y por otra operaciones que ayudan a ordenar los cálculos o a alterar este orden preestablecido, de acuerdo con resultados parciales obtenidos con anterioridad. La programación consiste en determinar qué instrucciones de ese conjunto básico deben realizarse para resolver un problema determinado, y cual ha de ser su orden de ejecución, es decir en la búsqueda de un algoritmo.

En la colección de instrucciones básicas de un ordenador deberá haber algunas destinadas a facilitar su comunicación con el exterior, (las llamadas instrucciones de entrada o salida) así como otras para facilitar la transferencia de información de una parte a otras de la memoria, a otros dispositivos, o a otros ordenadores. Cada una de las instrucciones básicas, es un verdadero mensaje codificado en forma de secuencias de ceros y unos, mensaje que interpreta la unidad de control y como consecuencia los diversos dispositivos del ordenador ejecutará la tarea que esa instrucción le indique. Se dicen que estos mensajes están escritos en el lenguaje de la máquina.

Los primeros programadores debían conocer el lenguaje de la máquina, y escribir los programas en ese lenguaje para que las máquinas los entendieran y ejecutara. Es fácil comprender lo arduo de la tarea, y la necesidad de crear otros lenguajes más fáciles para el hombre y que pudieran servir para escribir programas que, una vez traducidos al lenguaje de la máquina, ésta ejecutara adecuadamente. Así nacen los lenguajes de programación. Primero con una estructura muy semejante a la de los propios lenguajes de la máquina, aunque con algunas facilidades mnemotécnicas y de codificación (lenguajes ensambladores). Pero pronto se vio la conveniencia de aproximar los lenguajes de programación a los lenguajes usados en las aplicaciones para las que iban a escribirse los programas. Así aparecen los llamados lenguajes avanzados. Entre los más conocidos y extendidos en los primeros años de la informática, podemos citar el COBOL (Common Business Lenguage) y el FORTRAN (Formula translation), orientados respectivamente a aplicaciones comerciales y científicas. Obviamente cada lenguaje de programación distinto del propio lenguaje de la máquina necesitaba programas traductores (en principio escritos en lenguaje de máquina) para traducir los programas en instrucciones ejecutables por la máquina. Estos traductores dependían de cada marca. La necesidad de definir un lenguaje de programación que fuera ejecutable en cualquier máquina, (ya que, por ejemplo, el FORTRAN al ser de propiedad de IBM solo corría en estas máquinas), condujo, en 1958, a las primeras especificaciones del lenguaje ALGOL (Algorithmic Language). Su versión más conocida fué la ALGOL 60, (también se definió la versión ALGOL 68). Este lenguaje tuvo una gran influencia en la definición de otros lenguajes de programación como el ADA, el C, o el Pascal. Desde entonces, se han desarrollado una infinidad de lenguajes de programación, desde el BASIC al C++ , para ajustarse a la evolución de los ordenadores y para atender a aplicaciones cada vez más sofisticadas

Sistemas Operativos

En un principio se utilizaban todos los recursos de una computadora para ejecutar un solo programa, que se leía junto con los datos correspondientes y se almacenaba en memoria. Una vez terminada su ejecución, se volvían a preparar los dispositivos del ordenador, para leer los programas y los datos correspondientes al programa siguiente. Todo esto requería que operadores humanos realizaran una serie de tareas manuales para mantener el orden en que debían ejecutarse los programas. Recordemos que, en esta época, las tarjetas perforadas eran el soporte externo habitual de programas y datos.

Con la aparición de las cintas magnética como memoria auxiliar (relativamente abundante y barata), se organizaba la ejecución por tandas (batch) de programas (con sus datos correspondientes) que se leían previamente en las cintas para traducirse, compilarse y ejecutarse posteriormente con las prioridades establecidas. Para evitar los tiempos muertos en el ordenador, y organizar todos los procesos eficientemente de forma automática, aparecieron programas específicos que realizaban esas tareas; a este tipo de programas se le conoce como sistemas operativos, para diferenciarlos de los programas dedicados a las aplicaciones de los usuarios.

A los primitivos sistemas operativos que se definieron para cada máquina, siguieron los utilizables en máquinas de distintas marcas y modelos. Esto facilitó la portabilidad de los programas y por tanto la difusión de las aplicaciones montadas sobre esos sistemas operativos. El sistema operativo Unix (creado en 1969 por Ken Thomson, en colaboración con Dennis Ritchie, inventor del lenguaje C), es el sistema multiusuario de propósito general más utilizado en grandes sistemas informáticos desde finales de los 80. Otro sistema operativo muy difundido ha sido el DOS (Disk Operating System), sobre todo en las versiones MS-DOS popularizada por Microsoft, y OS/2, realizada por IBM y Microsoft, para las máquinas basadas en los microprocesadores de Intel 80286 y 80386.

Apple Computer desarrolló, con gran éxito, su sistema operativo Macintosh Operating System, de gran versatilidad y con una interfaz gráfica de usuario muy amigable. Sobre este sistema operativo corrían aplicaciones gráficas, de autoedicion y multimedia, que hicieron muy populares a los ordenadores de esta marca. Este sistema operativo fué la clave del éxito que lograron los ordenadores Apple y Macintosh y el que convirtió al mercado de los microordenadores en el mercado más importante dentro del mundo de la informática. Microsoft lanzó su sistema operativo Windows, con unas prestaciones y un interfaz gráfico, inspirado en el desarrollado por Apple Computer. A las primeras versiones de Windows, le ha sucedido la version Windows 95. Otra variante de este sistema operativo, preparada para trabajar en redes corporativas, es el denominado Windows NT, cuyo desarrollo se inició como una extensión del OS/2 preparado para IBM. La evolución de los sistemas operativos continúa, ya que la programación orientada a objetos, las nuevas aplicaciones multimedia y la difusión mundial de las comunicaciones exigen nuevas prestaciones.

Las aplicaciones

Cuando los lenguajes de programación estaban asociados a un ordenador particular, cada aplicación debía ser programada de forma específica. Al variar esta situación y ser posible la compatibilidad de los ordenadores, y por tanto la portabilidad de los programas, las aplicaciones se programan para ser ejecutadas bajo el control de un sistema operativo.

Las bibliotecas de programas fueron las primeras aplicaciones genéricas que se difundieron en los años 70. Pero desde que los sistemas operativos ofrecen una portabilidad casi universal, han aparecido compañías dedicadas solamente a la fabricación de software. Existe en la actualidad software destinado prácticamente todos los campos de aplicación, desde los de uso muy general, que se han difundido por todas la empresas grandes y pequeñas, como son las bases de datos, las hojas de cálculo, los procesadores de texto la simulación de máquinas de oficina, como el fax y la fotocopiadora, las agendas y los marcadores automático de teléfonos... También hay software orientado al diseño arquitectónico o al diseño industrial, al reconocimiento óptico de caracteres (OCR), a la producción de dibujos animados en 3-D, a la realización de juegos de todo tipo (algunos de la complejidad del ajedrez resueltos con gran eficacia), a la audición de discos (CD audio, CD video, CD ROM, CD interactivo). Así como aplicaciones muy específicas en medicina, gestión bancaria, etc.,...

La industria del software: Microsoft

Dedicaremos unas líneas a perfilar el ejemplo, tal vez más notable, de empresa de nuestros días, en sus aspectos de producción creativa, mundialización y rápida expansión económica. La primera característica es que sus productos no son materiales, y últimamente ni siquiera en el soporte, ya que actualmente se distribuyen por la red Internet y, por tanto, para ser vendibles no requieren, ni siquiera entregar la colección de disquetes con un empaquetado atractivo, como solía antes hacerse. La segunda característica es la mundialización de su actividad. En efecto, a través del software se distribuyen servicios (en particular servicios de información) utilizables en cualquier parte del mundo y fáciles de transportar a través de las redes de comunicación, para las que no existen fronteras. La tercera característica es consecuencia de las dos anteriores; la variedad de servicios que se pueden prestar a través del software y la mundialización del mercado producen una nueva situación comercial con beneficios muy notables para aquellas empresas que logran posiciones casi de monopolio.

Este es el caso de Microsoft, empresa que nació en Albuquerque (Nuevo México), en 1976, como fruto de la colaboración de dos jóvenes programadores, Bill Gates y Paul Allen, que apenas habían cumplido los 20 años de edad. Gates y Allen construyeron el primer intérprete del lenguaje BASIC para el microordenador Altair. A este seguirán los compiladores para FORTRAN y para COBOL. En 1981 se inicia su colaboración con IBM, cuando esta empresa lanza su primer PC (Personal Computer), para el que escribe la versión MS-DOS (del ya existente sistema operativo DOS), acompañado de los compiladores de BASIC, COBOL y FORTRAN. Una vez cubiertas las necesidades de la programación de sistemas, (es decir la relativa a los sistemas operativos y a los lenguajes de programación), comunes a numerosos ordenadores personales, se hace posible la portabilidad de los programas con lo que se amplia la difusión de los programas de aplicación. Micrososft se da cuenta en seguida del gran negocio que constituye software de aplicaciones, y entra en este campo desarrollando nuevos productos o comprando licencias (o incluso empresas) de productos de calidad. En 1983 lanza el procesador de textos WORD y la primera versión del sistema operativo Windows. En 1987 lanza la hoja de cálculo Excel. A comienzo de los 90 anuncia el VisualBASIC, el programa de gestión Microsoft Works, el sistema operativo WindowsNT y la base de datos Access, culminando todo ello con el lanzamiento mundial del sistema operativo Windows 95, del que se vendieron en solo dos meses más de 7 millones de copias.

Microsoft se da cuenta así mismo de que el mercado de los sistemas de programación informática se verá pronto superado por los productos de información y entretenimiento que permiten desarrollar las nuevas técnicas multimedia, primero en CD-ROM, y después en Internet y en Televisión por cable. En 1989 crea una división Multimedia para producir CD-ROM. En 1991 compra un porcentaje de la empresa inglesa de multimedia Dorling Kinderley, y con ello los derechos de todos sus títulos para futuras ediciones Microsoft. En 1993 anuncia Microsoft Encarta, la primera enciclopedia multimedia diseñada para una computadora que contiene una colección de alta calidad de artículos, animaciones, sonidos, ilustraciones, gráficos y fotografías, así como un atlas todo en un único CD-ROM. También lanza software para niños. Microsoft se mueve hacia los negocios de edición electrónica y de producción cinematográfica para su difusión a través de cable y redes de informática. Para lo cual se asocia con Dream Works SKG (de la que son principales Steven Spilberg y Jeffrey Katzenberg) creando Dream Works Interactive. Anuncia la oferta de más de 50 títulos de uso domestico con precios por debajo de los 50 dólares

Con relación a los servicios de Internet, monta la red de servidores MSN (The Microsoft Network) a la que se suscriben más de 500.000 miembros en los primeros tres meses de funcionamiento. Para navegar por la red lanza su propio navegador, el Microsoft Internet Explorer, disponible gratis en numerosos idiomas a través de Internet, en el que incorporan todas las novedades de WEB. Compra además los derechos de FrontPage, editor de HTML para suministrar una gama completa de herramientas para la edición itranet e internet. Se anuncian las ActiveX Technologies, que son un conjunto de herramientas que permitan la creación de documentos de contenido activo para Internet y para PC

En diciembre de 1995 Microsoft y la cadena de televisión americana NBC anuncian su colaboración al 50 % en la creación de dos nuevos negocios: un canal de noticias y de información de 24 horas diarias y un servicio de noticias on-line distribuidas a través de MSN. La nueva empresa MSNBC Cable debutó en 1996 con un programa de noticias a través de la existente distribución de America’s Talking de la NBC. El complementario e interactivo MSNBC On line news se ofrecerá globalmente vía MSN

En los párrafos anteriores hemos visto la variedad de productos software que se presentan en el actual mercado en el que Microsoft es líder. Con relación a la mundialización de la actividad de esta empresa, observemos que ya en 1977 abre oficinas en Tokio y al año siguiente expande su actividad por Europa. Es de reseñar así mismo la cantidad de versiones que se hacen de sus productos en numerosas lenguas, entre ellas varias que utilizan alfabetos distintos al latino como el Ruso, el Arabe, el Chino, el Hebreo, el Japonés y el Coreano. En 1995 firma un acuerdo con la República Popular China para normalizar la versión china de Windows 95. Podría estimarse en cerca de 50 millones el numero actual de usuarios en todo el mundo. Con relación a las finanzas vemos que la evolución de la cifra de ventas, pasa de un millón de dólares en 1978 a 140 millones de dólares en 1985, que en 1990 ya superaba los 1000 millones de dólares, y en estos momentos continúa creciendo.

La Revolución Informática

Un nuevo Renacimiento

Hemos visto en las páginas anteriores la evolución de las máquinas de calcular (máquinas lógicas o máquinas inteligentes) y cómo se ha ido extendiendo su utilización en todos los ámbitos de la vida contemporánea. A veces se ha usado la expresión Revolución Informática con referencia a la expansión y desarrollo que estas máquinas han experimentado en las últimas décadas. Nosotros pensamos que los grandes cambios están por llegar y que lo hecho hasta ahora solo ha sido preparar lentamente la infraestructura para el gran cambio social que se avecina, y al que sí podrá llamarse con propiedad la Revolución Informática.

Lo esencial de la informática es su capacidad de acumular y elaborar información, de gestionar las comunicaciones y, por tanto, de difundir información, así cómo que unas máquinas puedan controlar el funcionamiento de otras máquinas y por tanto su participar de forma directa en la producción y en los servicios.

Estamos, pues, a las puertas de un nuevo Renacimiento, en el que las redes informáticas superarán a la imprenta en su capacidad para difundir la cultura, y en el que la robótica superará a la maquinización de la Primera Revolución Industrial en su capacidad para aumentar la riqueza.

Redes de comunicación y de información: Internet

Se ha considerado a la imprenta como uno de los inventos más revolucionarios de la historia de la cultura en cuanto que, por primera vez, permitió difundir las ideas y la información entre miles de personas distribuidas por amplias zonas geográficas, y un medio, por tanto, con el que se facilitó el acceso a la cultura a amplias capas sociales.

Durante la Primera Revolución Industrial se siguieron buscando nuevos medios de comunicación y de difusión de información. Baste mencionar los nombres de algunos inventos como la telegrafía, la telefonía, la radiofonía, la televisión, etc., para evocar el impacto social que los mismos tuvieron en las actividades económicas y en la vida cotidiana durante los últimos ciento cincuenta años de nuestra historia. Cada sistema de comunicaciones implica una red asociada. La estructura de estas redes tiene una importancia social nada desdeñable, puesto que unas permiten la comunicación interpersonal (como es el caso de la telefonía o telegrafía) y otras (radio, televisión), por el contrario, reducen a la mayoría de las personas a la condición de meros receptores de información. Las redes correspondientes al primer tipo, llamadas redes simétricas, tienen por característica esencial que cada punto de la red sea, a la vez, transmisor y receptor; produciendo una situación análoga a la del habla, en el que cada individuo puede hablar y escuchar, y en la que es posible el diálogo y el coloquio. Por el contrario, en las redes del segundo tipo, llamadas asimétricas, sólo se emiten los mensajes desde unos pocos puntos y se reciben desde una infinidad de ellos; además, no es posible convertir el receptor en transmisor y no se puede, por tanto, establecer el diálogo y ni el coloquio.

Las nuevas tecnologías de la información permiten construir redes en las que se integran ambas estructuras, en las que sea posible el diálogo y al tiempo faciliten a millones de personas acceder a la misma información, si así lo desean. Un ejemplo de este tipo de redes, que se está expandiendo por todo el mundo, es Internet. El soporte de este nuevo tipo de difusión de información lo constituyen las redes informáticas, que facilitan a millones de personas recibir datos de la colectividad, al tiempo que los mismos u otro gran número de personas pueden introducir, con facilidad, información, para que se distribuya por la red.

No deja de ser curioso el origen histórico del popular y anárquico Internet por lo antagónico con relación a su actual uso. Cuando en Octubre de 1957 la Unión Soviética lanzó su primer Sputnik, los Estados Unidos percibieron que su territorio quedaba al alcance de los misiles soviéticos. Con los medios tradicionales de comunicación no era posible, con la celeridad necesaria, prevenir un ataque nuclear. Además, las redes de comunicación existentes eran muy vulnerables por su estructura, ya que los órganos centrales de información, aunque estuvieran en retaguardia, tenían difícil defensa y eran uno de los primeros objetivos de los posibles ataques intercontinentales. La destrucción de los órganos centrales dejaba inservible todo el sistema de comunicaciones de la defensa.

Por supuesto no era este el único problema estratégico que planteaba la nueva situación, y el lanzamiento del sputnik dejaba patente un relativo atraso en la tecnología militar de los Estados Unidos en los momentos iniciales de la guerra fría. Para afrontar esta situación, el Departamento de Defensa de los USA creó una oficina para promocionar y subvencionar proyectos de investigación. Esta oficina tomó el nombre de ARPA (Advanced Research Projects Agency), y entre sus proyectos se incluyeron los relativos a la definición y estructura de redes seguras de comunicaciones. Los resultados de estas investigaciones darían origen a la popular y pacifica red Internet contemporánea.

En 1962 Paul Baran, un investigador de la RAND Corporation, publica sus ideas sobre redes distribuidas de comunicación, y entre ellas expone la muy fecunda de conmutación de paquetes como alternativa a la tradicional conmutación de líneas. Durante los años siguientes, en investigaciones subvencionadas por ARPA y realizadas en el MIT (Massachuset) y en Santa Monica (California), se desarrolla la red ARPANET, que se hace publica (con cuatro nodos) en 1967. ARPANET tenia en 1971 quince nodos civiles agregados a la red, pertenecientes a Universidades y Centros de Investigación de los Estados Unidos. En 1973 se establecieron las primeras conexiones internacionales con Inglaterra y Noruega. Seis años antes se habían puesto en marcha, en Inglaterra, la red NPL Data Network, en el Laboratorio Nacional de Física de Middlesex

Para facilitar la conexión entre ordenadores se buscaron acuerdos para definir protocolos de comunicación (estos son información que se agrega a los mensajes transmitidos sobre características físicas de estos mensajes así como información relativa al origen y destino de la información). En 1974 Bob Kahn y Vinyon Cerf definen el protocolo TCP (Transmision Control Program) algo más tarde se define IP (Internet Protocol). Ambos protocolos jugaron un papel de importancia capital en la difusión de Internet. También por estas fechas, el sistema operativo Unix incluye la facilidad UUCP (Unix to Unix CoPy) que facilita la comunicación entre ordenadores. En 1981, en la City University de Nueva York se crea la red BITNET, y en Francia la empresa Telecom lanza su red Minitel con gran éxito. En Europa se establece la red EARN (European Academic and Research Network), en Japón JUNET, etc....

Como a la red ARPANET se iban asociando cada vez más nodos civiles (universitarios y de investigación) y esa red estaba subvencionada por el Departamento de Defensa, se pensó en la necesidad de crear una red especifica con esa finalidad civil. En ese sentido la National Science Foundation creó en 1986 la red NSFNET con cinco centros de supercomputación abiertos a todos los miembros de instituciones académicas y de investigación. La red NSFNET tuvo un crecimiento explosivo, primero en Estados Unidos, y después en otros países como Australia, Alemania, Israel Italia Japón México, a los que en años sucesivos se fueron uniendo casi todos los países de Europa y de América Latina. Con esta nueva red vigorosa, ARPANET deja de existir en 1990. En 1995 la National Science Foundation deja de ser el soporte financiero esencial de Internet y la red NSFNET se convierte de nuevo en una red para investigadores. Desde entonces el principal tráfico de Internet se realiza a través de nodos privados como Compuserve, America Online, Eunet, ... a los que, muy pronto, se incorporan cientos de miles de nuevos servidores.

Los servicios iniciales ofrecidos a través de las redes eran, principalmente, cálculo a distancia mediante TELNET, el correo electrónico (e-mail) para mensajes interpersomales, los grupos de discusión (newsgroups) para debates sobre temas concretos y transferencia de ficheros (FTP). En los últimos años los servicios están aumentando y son de un uso muy amigable. Así han aparecido WAIS y GOPHER, y sobre todos el WWW (World Wide Web) creado por el CERN (Centre Europeen de Recherche Nuclaire) de Ginebra. Este último está facilitando la difusión de la información de una manera que era impensable solo hace unos años. La información difundida por la red, no se limita solo a datos numéricos o textuales, y a abundante software, sino que comprende también imágenes en color, sonido y voz, y muy pronto imágenes en movimiento. Existen ya emisoras de radio emiten exclusivamente a través de Internet. Los principales periódicos del mundo distribuyen diariamente por Internet ediciones electrónicas. Pronto serán accesibles por este medio, fonotecas y videotecas. La biblioteca virtual, que se va formando paulatinamente en la red, nos permitirá acceder desde nuestra pantalla a miles de textos (libros, folletos, enciclopedias,...) y copiar mediante nuestra impresora aquellas páginas o textos completos que nos interesen.

Vemos, pues, que el invento de la imprenta de Gutemberg queda palidecido si lo comparamos con las promesas, ya cumplidas, de la difusión masiva de información a través de las redes simétricas informáticas.

Producir sin trabajo: la robótica.

Es, sin duda, en la nueva forma de producción industrial donde serán más notables los cambios debidos a la Revolución Informática. La nueva industrialización prescindirá cada vez más de la "mano de obra" humana que ira siendo sustituida por máquinas de nuevo cuño controladas por otras máquinas. De forma que, por primera vez en la Historia, el hombre puede liberarse del trabajo, y ser sustituido por robots en las tareas industriales

Un robot, no es una especie de monstruoso androide que haya de entrar en conflicto con el hombre. Es simplemente una máquina provista de fuerza y de sensores que, debidamente programada, puede realizar muchas de las tareas que hasta el presente realizaban operarios humanos. Este tipo de máquinas está actualmente en plena evolución, solo frenada por dos grandes barreras: la complejidad propia de los problemas a resolver en su construcción, y las grandes alteraciones sociales que produciría una implantación demasiado rápida de este tipo máquinas.

Como lejanos antecedentes de los robots de hoy se podrían citar a los autómatas mecánicos, muy extendidos en el siglo XVIII utilizados en la sonería de los relojes o exhibidos como maravillas en salones y ferias. Más antiguo es el Hombre de Palo que se paseaba por las calles de Toledo, y cuya construcción es atribuida a Juanelo Turriano, famoso relojero e ingeniero de Carlos V. Otro antecedente importante que encontramos en nuestro siglo, es el Ajedrecista de Torres Quevedo, consistente en una máquina automática que jugaba finales de ajedrez, y pronunciaba algunas palabras dirigidas a su contrincante: de aviso como "jaque" , o de advertencia si su jugada no era correcta. Pero origen de la palabra robot es más recientes, y fué acuñada en 1917 por el dramaturgo checo Capek, para designar a los trabajadores artificiales que aparecen en su obra R.U.R.; robot es palabra que el lengua checa significa siervo. También el cineasta Fritz Lange crea un robot femenino en su película Metrópolis de 1927. Pero fué Isaac Asimov quien a partir de los últimos años 30 difunde ampliamente los robots y la robótica en sus novelas de ciencia ficción.

Dejando atrás mitos y antecedentes, podemos decir que comienzan a fabricarse robots para tareas muy específicas después de la segunda guerra mundial. Como por ejemplo los que se necesitaban en las investigaciones espaciales (como el Surveyor que aterriza en la Luna, en 1966, o el Viking, que aterriza en Marte diez años después) para aquellas funciones en las que se exigían ciertas destrezas para resolver situaciones no completamente definidas, o los que se requerían para trabajar en ambientes altamente nocivos para la vida humana como las centrales nucleares, o ciertos ambientes químicos o biológicos de alta toxicidad. En general estaban asociados a proyectos de investigación de presupuestos muy elevados en los que incluir partidas para la construcción de costosos robots resultaba factible. De estas investigaciones también saldrían los diseños de robots aplicados a actuaciones militares.

También por estos años surgieron algunos robots orientados a atender ciertas tareas en los procesos de fabricación. Aunque la primera patente de un robot industrial está registrada en Inglaterra en el año 1954, suelen considerarse como primeros robots industriales los Unimates instalados en las fabricas de la General Motors y construidos por George Devol y Joe Engelberger (a quienes se les conoce como padres de la robótica) a finales de los años cincuenta y primeros de los sesenta.

Al principio los robots industriales eran llamados máquinas de transferencia ya que su tarea era tomar piezas de unas máquinas herramienta y transferirlas a otras para su terminación o montaje. Después aparecieron los brazos industriales, provistos de sensores y actuadores que pueden hacer tareas muy variadas según los programas de control cargados en los ordenadores. Estos brazos pueden elegir, por una parte la herramienta adecuada para la realización de cada tarea y, por otra, las piezas sobre las que deben actuar. Además, pueden trabajar en ambientes químicos o biológicos muy hostiles, o en condiciones térmicas no soportables por seres humanos.

Todas estas realizaciones técnicas, y su evolución, vienen precedidas por los resultados de los trabajos teóricos que, desde 1960, se realizaban en diversos centros de investigación: como el Stanford Research Institute (SRI) de California, la Universidad de Edinburgo en Escocia, o en el Machassusets Institute of Tecnology (MIT). Temas importantes de investigación son los relativos al desarrollo de sensores (en particular la visión mecánica), o a desarrollos relacionados con la movilidad y agilidad (manos mecánicas), equilibrio, etc...

Entre los países que comienzan a utilizar robots industriales están los Estados Unidos, donde son usados principalmente por la General Motors; Noruega, que instala en su industria los primeros robots pintores; Japón que los usa en las cadenas de montaje de Nissan o de Hitachi; Suecia que los emplea en las fabricas de acero, etc.... El primer robot PUMA (ensamblador universal programable) es desarrollado en 1978 por Unimation para General Motors. Al año siguiente los japoneses introducen en las cadenas de montaje su robot SCARA de gran versatilidad, y los italianos, en Turín, desarrollan el robot PRAGMA que ceden bajo licencia a la General Motors. En 1981, IBM entra en el campo de la robótica con dos sistemas de fabricación. Durante los años 80 a 84 los robots experimentaron una evolución muy rápida, sobre todo en sus aspectos de movilidad, en la posibilidad de comunicarse por la voz, en el desarrollo de los sensores táctiles, en el perfeccionamiento de los lenguajes de programación orientados a la robótica y en los lenguajes de comunicación con la máquina. También en este periodo se desarrollan robots militares, como el Prowler (Programable Robot Observer with Local Enemy Response) que es el primero de los que introduce el ejercito americano para ser usados en el campo de batalla.

A finales de los años 80 se produjo una gran caída en la demanda de robots que hizo desaparecer a muchas empresas del sector. En los años siguientes fué recuperándose paulatinamente hasta conseguirse que en 1994 se superasen las ventas de 1985. Las marcas más difundidas fueron las americanas Fanuc, Asea Brown Boveri, y las japonesas Motoman, Panasonic, Sony y Nachi. En USA, las ventas realizadas en ese año pueden estimarse en aproximadamente 9000 sistemas con un costo total de cerca de 800 millones de dólares. Así pues, tras el bache de actividad de hace unos años, en la actualidad el sector de la robótica vuelve a estar floreciente.

A mediados de los años 80 se produce igualmente otro hecho destinado a tener una gran transcendencia: la aparición de los microrobots de bajo costo y construidos con microchips de gran tirada. Uno de los primeros robots de este tipo fué el Modelo 695 construido, en 1984, por la empresa Intelledex utilizando los chips de Intel 8086 y 8087 y utilizando un lenguaje de programación llamado Robot Basic que era una versión especial del BASIC de Microsoft. En la actualidad son decenas las empresas que ofrecen microrobots, desde los que permiten automatizar pequeños talleres, a los vehículos de exploración, o pequeños brazos industriales,...También se ofrecen elementos o componentes de robots (como sensores de diversos tipos, servomotores, motores de pasos,...) con los que ensamblar unidades completas. Pieza muy importante para estos tipos de robots es el microcontrolador (parte inteligente que equivale a los microprocesadores, protagonistas de los grandes cambios de la microinformática ), en los que se recibe la información de los sensores del robot y de acuerdo con ella, y con los programas establecidos previamente, construye las respuestas adecuadas que deben realizar los actuadores correspondientes. Para dar una idea de la difusión de estos elementos mencionaremos algunos de los microcontroladores más difundidos: entre otros los Motorolola 68xx y 683xx, los Intel 80C1686, 8051 y 8096, el Parallax BASIC Stamp, el National Semiconductor LM628/629,...

Las Revoluciones Industriales

La primera Revolución Industrial se caracteriza por el descubrimiento de grandes yacimientos energéticos externos al hombre, y por el hecho de producirse en un momento en que se ha adquirido ya el conocimiento social suficiente para poder aplicar esta energía a los procesos productivos. Hecho que suele simbolizarse por la máquina de vapor, que transforma energía térmica en mecánica. En su tiempo logró mover por este procedimiento la mayor parte de la industria. La máquina de vapor es una máquina que produce energía, lo que representa una gran innovación si se piensa que hasta entonces las máquinas consumían energía en forma de esfuerzo humano o animal; de esta manera se liberaba el hombre de la servidumbre de aplicar su esfuerzo muscular a los procesos productivos, que desde ese momento sólo requerían de su atención y de su conocimiento. Esta invención significó, por tanto, un salto cualitativo en la forma de producir, y como consecuencia, una profunda transformación social. La aplicación de la máquina de vapor a las fábricas hizo que aumentara considerablemente la productividad y el producto bruto, y abrió por primera vez la expectativa, previsible y factible, de una sociedad de abundancia. Por otra parte, la aplicación de la máquina de vapor al transporte produjo la aparición del ferrocarril y del barco de vapor, con lo se logró que las comunicaciones terrestres y marítimas fueran más rápidas y económicas facilitándose así la distribución de las enormes cantidades producidas.

Pero una de las consecuencias más representativas de esta Revolución Industrial, fué que el hombre pudo librarse de su aportación masiva de fuerza, y orientar su actividad principal hacia el control y diseño de las máquinas, aunque todavía no pudo desligarse completamente del proceso productivo, puesto que continuó siendo imprescindible su aportación directa de conocimiento e información para que el sistema funcionase.

Todo esto condujo a una profunda modificación en la estructura social. Surgieron grandes concentraciones humanas en ciudades inmensas (de un tamaño desconocido hasta entonces), cambiaron los hábitos, las costumbres y las relaciones sociales. Puede decirse que las grandes revoluciones sociales (francesa y rusa), así como las guerras de los últimos doscientos años (napoleónicas, europea y mundial, entre otras menores, pero frecuentes) fueron consecuencia de la Primera Revolución Industrial y de la necesidad de encontrar un equilibrio social que la incorporase. También produjo una gran creatividad científica y artística y fué posible, por primera vez, ofrecer una educación masiva a la sociedad.

Cabe decir, pues, que la explosión productiva, en cantidad y calidad, originada por esta Primera Revolución Industrial provocó los grandes cambios sociales que se observan en los siglos XIX y XX, mediante los que se logran cotas de bienestar y seguridad, impensables en siglos anteriores. La Humanidad, sin embargo, pagó por ello el innecesario costo de innumerables y sangrientas guerras producidas por aferrarse a antiguos moldes y privilegios, y no aceptar las formas de producción y distribución que exigía y permitía la nueva situación.

Pero el desarrollo tecnológico continúa y en nuestros días se está produciendo una nueva Revolución Industrial (llamada también Revolución Informática) que anuncia ser más drástica que la precedente, motivada porque los sistemas productivos necesitan cada vez menos que el hombre aporte directamente el conocimiento técnico o la información requerida en la producción. Esto ocurre por que la información no precisa ser almacenada, como antes, en el cerebro humano, e interpretada por él, para controlar y dirigir los procesos productivos, sino que puede alojarse, circular e interpretarse por máquinas de un nuevo tipo: las máquinas procesadoras de información y los robots.

El ordenador es el símbolo de la Segunda Revolución Industrial. Es una máquina que sirve para controlar otras máquinas y con ello libera al hombre de aportar su atención en los procesos productivos, lográndose así su hipotética liberación total del trabajo. Este enunciado, tan simple en la forma, está teniendo ya unas repercusiones sociales enormes. Si la primera revolución industrial significó un salto cualitativo en la forma de producir, la segunda revolución industrial significa que aparece por primera vez la posibilidad de que los sistemas productivos puedan funcionar completamente sin la participación directa del hombre, lográndose así la producción automática total o la automación de la industria.

Pero el ordenador no sólo se aplica al control de la producción; se usa también para el control de los transportes, de los procesos administrativos y de otros servicios, y tiene un impacto sorprendente en los procesos cognitivos y culturales facilitando el acceso a grandes yacimientos de información.

La Segunda Revolución Industrial significa, pues, un desplazamiento masivo de mano de obra de los trabajos tradicionales hacia otra forma de actividad, todavía no muy clara, de mayor calidad (que en la actualidad se identifica ya como un nuevo sector económico al que se denomina cuaternario) y para la que se requerirá el empleo de las potencialidades más propias del hombre. Se producirán cambios, todavía no previsibles, en la organización urbana, en la educación, en las comunicaciones, en la distribución de bienes, etc. Esperemos que para evitar estos cambios no recurra la Humanidad a los procedimientos de guerra, como en los incultos tiempos antiguos ocurrió.

Bibliografía

  • Bowden, B.V.. "Faster than Thought". Londres, Pitman, 1953.
  • Lilley, Samuel. "Automatización y progreso social". Madrid, Taurus, 1959.
  • Dormido, Sebastián & Mellado, Mariano. "La Revolución Informática". Barcelona, Salvat, Aula Abierta.-1981.
  • Stern, N. "From ENIAC to UNIVAC: An Apraisal of Eckert-Mauchly Computers" , Digital Press, 1981
  • Moreau, R. "The Computer comes of Age". Cambridge, MIT Press, 1984
  • Laurent, Eric. "El "chip" y los gigantes: de la revolución informática a la guerra de la información". Madrid, Fundesco, 1985.
  • Schaff, Adam. "¿Que futuro nos aguarda"; Las consecuencias de la segunda revolución industrial". Barcelona, Crítica, 1985.
  • Williams, Michael R. "A Histroy of Computing Technology". Englewood Cliffs,Prentice-Hall, 1985.
  • Shallis, Michael. "El ídolo de silicio, la revolución informática y sus implicaciones sociales". Barcelona, Salvat, 1986.
  • Brand, Stewart. "The Media Lab; Inventing the Future at MIT". Nueva York, Viking, 1987.
  • Cortada, James W.. "Historical Dictionary on Data Processing: Biographies". Westport, Greenwood, 1987.
  • Servan-Schreiber, Jean Jacques & Crecine, Barbara. "La Revolución del conocimiento: nuevo desafío americano". Barcelona, Plaza y Janes, 1987
  • Slater, Robert. "Portraits in Silcon". Cambridge, MIT Press, 1987.
  • Breton, Philippe. "Historia y crítica de la informática". Madrid, Cátedra, 1989
  • "40 Years of Computing". Datamation, v.37, 15 de marzo 1991.
  • Arroyo, Luis. "200 años de informática". Madrid, CDN, 1992
  • Aspray, William. "John von Neumann y los orígenes de la computación moderna". Barcelona, Gedisa, 1993.
  • Ifrah, Georges. « Histoire Universelle des Chifres.L’intelligence des hommes racontee par les nombres et le calcul ». Paris, Robert Laffont, 1994.
  • Taurisson, Alain. «Del ábaco a la informática». Barcelona, RBA, 1994.

En Internet se puede iniciar la búsqueda de información a partir de (http://ei.cs.vt.edu/ history/index.html) The History of Computing, colección de materiales ofrecida por cortesía del Departamento de Ciencias de la Computación en al Instituto Tecnológico de Virginia y subvencionados por la National Science Foundation.

Fuente: el granero común

Licencia




Los contenidos de esta página están publicados con la licencia Atribución-NoComercial-CompartirIgual 2.5 Genérica (Generic) (CC BY-NC-SA 2.5) de Creative Commons.
Puedes consultar el texto legal aquí
y un resumen en castellano aquí.


Herramientas personales