Ventajas.-
Internet es ya, después de muy pocos años, un nuevo y amplísimo mercado a nivel mundial. Nuestra empresa, nuestros produtos o nuestros sevicios tienen la gran ocasión de ser conocidos por millones de posibles compradores. Nuestra experiencia, nuestros conocimientos y la calidad de nuestras obras, tienen ahora la mayor oportunidad para ser divulgadas y valoradas. Es el medio idóneo para contactar con miles de cliente, proveedores, etc, y es más económica que otros medios publicitarios. Nos permite mantener un contacto y un servicio permanente.
Internet es parte de un fenómeno social y tecnológico que está produciendo grandes y profundas transformaciones en la vida contemporánea.
Internet nos permite:
1. Aumentar la efectividad de la distribución de la información: con herramientas como el correo electrónico. En pocos minutos la información que produce está disponible para su uso en cualquier parte del mundo.
2. Disminuir el tiempo para esta tarea: se pueden alcanzar un número inmenso de gente en todo el mundo con solo mandar un mensaje a una lista de personas.
3. Disminuir los costos involucrados. Si bien la compra de un computador de los programas para que funcione y la capacitación inicial de las personas que lo usan son bastante costosas, una vez instalados y conectados a internet los costos marginales tienden a ser cero, es decir, le va a costar lo mismo mandar una comunicación a una persona que a mil y le costará lo mismo mandarle un archivo a un colega en la oficina de al lado que al que se fue a vivir a China.
4. Aumentar el alcance de nuestra acción a un ámbito global. Nos guste o no, el mundo está cada vez más globalizado y la acción de la sociedad civil requiere un alcance mundial y con el apoyo de Internet movimientos sociales han logrado alcanzar un reconocimiento internacional que tal vez de otra forma no hubiera sido posible.
5. Con Internet tenemos a nuestra disposición la consulta directa de libros, artículos, biblñiotecas del mundo entero.
6. Creatividad. Uo puede navegar desde un sitio a otro, seleccionando las rutas.
7. Nos convertimos en expertos de nuestro propio ocio, ya que nos permite elegir entre numerosas posibilidades.
Inconvenientes.-
Internet no es la panacea de la solución a los problemas, es necesario asumirla de manera crítica y clara sin dejarse tentar por los discursos glandilocuentes que ven en la red la solución a todos los problemas de la humanidad.
1. Internet es usada principalmente por los estratos medios y altos de la población, principalmente los varones (más de un 54%) con formación universitaria y los residentes en los grandes centros urbanos. También existen casos aislados muy interesantes.
2. Las grandes empresas cada vez monopolizan más el tráfico de información en internet, además los programas de trabajo en la red (visualizadores del web, los gestores de correo electrónico, etc...) son cada vez más productos de grandes corporaciones y no de programadores individuales que los aportaban a la comunidad.
3. Aún siendo el crecimiento de la red exponencial, doblándose su tasa en unos pocos meses, todavía hay grandes regiones del mundo que no están conectadas y gran parte de su población tampoco. En los EEUU, apenas un 25 a 30% de la población usa Internet, en América Latina los porcentajes son aún menores y no sobrepasan el 3% de la población ni siquiera los países con mayor población conectada.
4. Los sistemas de represión ya han generado toda una estrategia para tomar el control de las redes de comunicación. Si bien se espera que el principal mecanismo de control de la información sea el mercado, agencias de inteligencia y control social de muchos países están trabajando en mecanismos de control a las comunicaciones telemáticas.
5. La inmensa oferta cultural en la red puede convertirnos en eruditos, pero la multiplicidad de datos puede producir saturación y hasta hartazgo. Su consecuencia sería la falata de profundidad.
6. La red pposibilita la desconexión. Sin embargo, crea adicción. De hecho, el 45% de los jóvenes han llegado a afirmar que podrían vivir encerrados durante un mes en una casa con la única compañía de un ordenador personal conectado a la red.
7. También la creatividad puede verse condicionada por los creadores de los juegos internacionales. Podemos perder mucho tiempo de nuestra vida aferrado a un ordenador.
8. Internet debilita la psiquis incluso de personas que anteriormente no han presentado cuadros depresivos. La amistad y contactos sociales establecidos mediante Internet no proporcionan un grado de contacto personal y calor humano suficiente como para que la persona sienta alegría.
lunes, 20 de abril de 2009
Historia de internet
Internet surgió de un proyecto desarrollado en Estados Unidos para apoyar a sus fuerzas militares. Luego de su creación fue utilizado por el gobierno, universidades y otros centros académicos.
Internet ha supuesto una revolución sin precedentes en el mundo de la informática y de las comunicaciones. Los inventos del telégrafo, teléfono, radio y ordenador sentaron las bases para esta integración de capacidades nunca antes vivida. Internet es a la vez una oportunidad de difusión mundial, un mecanismo de propagación de la información y un medio de colaboración e interacción entre los individuos y sus ordenadores independientemente de su localización geográfica.
Orígenes de Internet
La primera descripción documentada acerca de las interacciones sociales que podrían ser propiciadas a través del networking (trabajo en red) está contenida en una serie de memorándums escritos por J.C.R. Licklider, del Massachusetts Institute of Technology, en Agosto de 1962, en los cuales Licklider discute sobre su concepto de Galactic Network (Red Galáctica).
El concibió una red interconectada globalmente a través de la que cada uno pudiera acceder desde cualquier lugar a datos y programas. En esencia, el concepto era muy parecido a la Internet actual. Licklider fue el principal responsable del programa de investigación en ordenadores de la DARPA desde Octubre de 1962. Mientras trabajó en DARPA convenció a sus sucesores Ivan Sutherland, Bob Taylor, y el investigador del MIT Lawrence G. Roberts de la importancia del concepto de trabajo en red.
En Julio de 1961 Leonard Kleinrock publicó desde el MIT el primer documento sobre la teoría de conmutación de paquetes. Kleinrock convenció a Roberts de la factibilidad teórica de las comunicaciones vía paquetes en lugar de circuitos, lo cual resultó ser un gran avance en el camino hacia el trabajo informático en red. El otro paso fundamental fue hacer dialogar a los ordenadores entre sí.
Para explorar este terreno, en 1965, Roberts conectó un ordenador TX2 en Massachusetts con un Q-32 en California a través de una línea telefónica conmutada de baja velocidad, creando así la primera (aunque reducida) red de ordenadores de área amplia jamás construida. El resultado del experimento fue la constatación de que los ordenadores de tiempo compartido podían trabajar juntos correctamente, ejecutando programas y recuperando datos a discreción en la máquina remota, pero que el sistema telefónico de conmutación de circuitos era totalmente inadecuado para esta labor. La convicción de Kleinrock acerca de la necesidad de la conmutación de paquetes quedó pues confirmada.
A finales de 1966 Roberts se trasladó a la DARPA a desarrollar el concepto de red de ordenadores y rápidamente confeccionó su plan para ARPANET, publicándolo en 1967. En la conferencia en la que presentó el documento se exponía también un trabajo sobre el concepto de red de paquetes a cargo de Donald Davies y Roger Scantlebury del NPL. Scantlebury le habló a Roberts sobre su trabajo en el NPL así como sobre el de Paul Baran y otros en RAND. El grupo RAND había escrito un documento sobre redes de conmutación de paquetes para comunicación vocal segura en el ámbito militar, en 1964.
Ocurrió que los trabajos del MIT (1961-67), RAND (1962-65) y NPL (1964-67) habían discurrido en paralelo sin que los investigadores hubieran conocido el trabajo de los demás. La palabra packet (paquete) fue adoptada a partir del trabajo del NPL y la velocidad de la línea propuesta para ser usada en el diseño de ARPANET fue aumentada desde 2,4 Kbps hasta 50 Kbps (5).
En Agosto de 1968, después de que Roberts y la comunidad de la DARPA hubieran refinado la estructura global y las especificaciones de ARPANET, DARPA lanzó un RFQ para el desarrollo de uno de sus componentes clave: los conmutadores de paquetes llamados interface message processors (IMPs, procesadores de mensajes de interfaz).
El RFQ fue ganado en Diciembre de 1968 por un grupo encabezado por Frank Heart, de Bolt Beranek y Newman (BBN). Así como el equipo de BBN trabajó en IMPs con Bob Kahn tomando un papel principal en el diseño de la arquitectura de la ARPANET global, la topología de red y el aspecto económico fueron diseñados y optimizados por Roberts trabajando con Howard Frank y su equipo en la Network Analysis Corporation, y el sistema de medida de la red fue preparado por el equipo de Kleinrock de la Universidad de California, en Los Angeles (6).
A causa del temprano desarrollo de la teoría de conmutación de paquetes de Kleinrock y su énfasis en el análisis, diseño y medición, su Network Measurement Center (Centro de Medidas de Red) en la UCLA fue seleccionado para ser el primer nodo de ARPANET. Todo ello ocurrió en Septiembre de 1969, cuando BBN instaló el primer IMP en la UCLA y quedó conectado el primer ordenador host .
El proyecto de Doug Engelbart denominado Augmentation of Human Intelect (Aumento del Intelecto Humano) que incluía NLS, un primitivo sistema hipertexto en el Instituto de Investigación de Standford (SRI) proporcionó un segundo nodo. El SRI patrocinó el Network Information Center , liderado por Elizabeth (Jake) Feinler, que desarrolló funciones tales como mantener tablas de nombres de host para la traducción de direcciones así como un directorio de RFCs ( Request For Comments ).
Un mes más tarde, cuando el SRI fue conectado a ARPANET, el primer mensaje de host a host fue enviado desde el laboratorio de Leinrock al SRI. Se añadieron dos nodos en la Universidad de California, Santa Bárbara, y en la Universidad de Utah. Estos dos últimos nodos incorporaron proyectos de visualización de aplicaciones, con Glen Culler y Burton Fried en la UCSB investigando métodos para mostrar funciones matemáticas mediante el uso de "storage displays" ( N. del T. : mecanismos que incorporan buffers de monitorización distribuidos en red para facilitar el refresco de la visualización) para tratar con el problema de refrescar sobre la red, y Robert Taylor y Ivan Sutherland en Utah investigando métodos de representación en 3-D a través de la red.
Así, a finales de 1969, cuatro ordenadores host fueron conectados cojuntamente a la ARPANET inicial y se hizo realidad una embrionaria Internet. Incluso en esta primitiva etapa, hay que reseñar que la investigación incorporó tanto el trabajo mediante la red ya existente como la mejora de la utilización de dicha red. Esta tradición continúa hasta el día de hoy.
Se siguieron conectando ordenadores rápidamente a la ARPANET durante los años siguientes y el trabajo continuó para completar un protocolo host a host funcionalmente completo, así como software adicional de red. En Diciembre de 1970, el Network Working Group (NWG) liderado por S.Crocker acabó el protocolo host a host inicial para ARPANET, llamado Network Control Protocol (NCP, protocolo de control de red). Cuando en los nodos de ARPANET se completó la implementación del NCP durante el periodo 1971-72, los usuarios de la red pudieron finalmente comenzar a desarrollar aplicaciones.
En Octubre de 1972, Kahn organizó una gran y muy exitosa demostración de ARPANET en la International Computer Communication Conference . Esta fue la primera demostración pública de la nueva tecnología de red. Fue también en 1972 cuando se introdujo la primera aplicación "estrella": el correo electrónico. En Marzo, Ray Tomlinson, de BBN, escribió el software básico de envío-recepción de mensajes de correo electrónico, impulsado por la necesidad que tenían los desarrolladores de ARPANET de un mecanismo sencillo de coordinación.
En Julio, Roberts expandió su valor añadido escribiendo el primer programa de utilidad de correo electrónico para relacionar, leer selectivamente, almacenar, reenviar y responder a mensajes. Desde entonces, la aplicación de correo electrónico se convirtió en la mayor de la red durante más de una década. Fue precursora del tipo de actividad que observamos hoy día en la World Wide Web , es decir, del enorme crecimiento de todas las formas de tráfico persona a persona.
Conceptos iniciales sobre Internetting
La ARPANET original evolucionó hacia Internet. Internet se basó en la idea de que habría múltiples redes independientes, de diseño casi arbitrario, empezando por ARPANET como la red pionera de conmutación de paquetes, pero que pronto incluiría redes de paquetes por satélite, redes de paquetes por radio y otros tipos de red. Internet como ahora la conocemos encierra una idea técnica clave, la de arquitectura abierta de trabajo en red.
Bajo este enfoque, la elección de cualquier tecnología de red individual no respondería a una arquitectura específica de red sino que podría ser seleccionada libremente por un proveedor e interactuar con las otras redes a través del metanivel de la arquitectura de Internetworking (trabajo entre redes). Hasta ese momento, había un sólo método para "federar" redes.
Era el tradicional método de conmutación de circuitos, por el cual las redes se interconectaban a nivel de circuito pasándose bits individuales síncronamente a lo largo de una porción de circuito que unía un par de sedes finales. Cabe recordar que Kleinrock había mostrado en 1961 que la conmutación de paquetes era el método de conmutación más eficiente.
Juntamente con la conmutación de paquetes, las interconexiones de propósito especial entre redes constituían otra posibilidad. Y aunque había otros métodos limitados de interconexión de redes distintas, éstos requerían que una de ellas fuera usada como componente de la otra en lugar de actuar simplemente como un extremo de la comunicación para ofrecer servicio end-to-end (extremo a extremo).
En una red de arquitectura abierta, las redes individuales pueden ser diseñadas y desarrolladas separadamente y cada una puede tener su propia y única interfaz, que puede ofrecer a los usuarios y/u otros proveedores, incluyendo otros proveedores de Internet. Cada red puede ser diseñada de acuerdo con su entorno específico y los requerimientos de los usuarios de aquella red.
No existen generalmente restricciones en los tipos de red que pueden ser incorporadas ni tampoco en su ámbito geográfico, aunque ciertas consideraciones pragmáticas determinan qué posibilidades tienen sentido. La idea de arquitectura de red abierta fue introducida primeramente por Kahn un poco antes de su llegada a la DARPA en 1972. Este trabajo fue originalmente parte de su programa de paquetería por radio, pero más tarde se convirtió por derecho propio en un programa separado.
Entonces, el programa fue llamado Internetting . La clave para realizar el trabajo del sistema de paquetería por radio fue un protocolo extremo a extremo seguro que pudiera mantener la comunicación efectiva frente a los cortes e interferencias de radio y que pudiera manejar las pérdidas intermitentes como las causadas por el paso a través de un túnel o el bloqueo a nivel local. Kahn pensó primero en desarrollar un protocolo local sólo para la red de paquetería por radio porque ello le hubiera evitado tratar con la multitud de sistemas operativos distintos y continuar usando NCP.
Sin embargo, NCP no tenía capacidad para direccionar redes y máquinas más allá de un destino IMP en ARPANET y de esta manera se requerían ciertos cambios en el NCP. La premisa era que ARPANET no podía ser cambiado en este aspecto. El NCP se basaba en ARPANET para proporcionar seguridad extremo a extremo. Si alguno de los paquetes se perdía, el protocolo y presumiblemente cualquier aplicación soportada sufriría una grave interrupción. En este modelo, el NCP no tenía control de errores en el host porque ARPANET había de ser la única red existente y era tan fiable que no requería ningún control de errores en la parte de los host s.
Así, Kahn decidió desarrollar una nueva versión del protocolo que pudiera satisfacer las necesidades de un entorno de red de arquitectura abierta. El protocolo podría eventualmente ser denominado "Transmisson-Control Protocol/Internet Protocol" (TCP/IP, protocolo de control de transmisión /protocolo de Internet). Así como el NCP tendía a actuar como un driver (manejador) de dispositivo, el nuevo protocolo sería más bien un protocolo de comunicaciones.
Ideas a prueba
DARPA formalizó tres contratos con Stanford (Cerf), BBN (Ray Tomlinson) y UCLA (Peter Kirstein) para implementar TCP/IP (en el documento original de Cerf y Kahn se llamaba simplemente TCP pero contenía ambos componentes). El equipo de Stanford, dirigido por Cerf, produjo las especificaciones detalladas y al cabo de un año hubo tres implementaciones independientes de TCP que podían interoperar.
Este fue el principio de un largo periodo de experimentación y desarrollo para evolucionar y madurar el concepto y tecnología de Internet. Partiendo de las tres primeras redes ARPANET, radio y satélite y de sus comunidades de investigación iniciales, el entorno experimental creció hasta incorporar esencialmente cualquier forma de red y una amplia comunidad de investigación y desarrollo [REK78]. Cada expansión afrontó nuevos desafíos.
Las primeras implementaciones de TCP se hicieron para grandes sistemas en tiempo compartido como Tenex y TOPS 20. Cuando aparecieron los ordenadores de sobremesa ( desktop ), TCP era demasiado grande y complejo como para funcionar en ordenadores personales. David Clark y su equipo de investigación del MIT empezaron a buscar la implementación de TCP más sencilla y compacta posible.
La desarrollaron, primero para el Alto de Xerox (la primera estación de trabajo personal desarrollada en el PARC de Xerox), y luego para el PC de IBM. Esta implementación operaba con otras de TCP, pero estaba adaptada al conjunto de aplicaciones y a las prestaciones de un ordenador personal, y demostraba que las estaciones de trabajo, al igual que los grandes sistemas, podían ser parte de Internet.
En los años 80, el desarrollo de LAN, PC y estaciones de trabajo permitió que la naciente Internet floreciera. La tecnología Ethernet, desarrollada por Bob Metcalfe en el PARC de Xerox en 1973, es la dominante en Internet, y los PCs y las estaciones de trabajo los modelos de ordenador dominantes. El cambio que supone pasar de una pocas redes con un modesto número de hosts (el modelo original de ARPANET) a tener muchas redes dio lugar a nuevos conceptos y a cambios en la tecnología.
En primer lugar, hubo que definir tres clases de redes (A, B y C) para acomodar todas las existentes. La clase A representa a las redes grandes, a escala nacional (pocas redes con muchos ordenadores); la clase B representa redes regionales; por último, la clase C representa redes de área local (muchas redes con relativamente pocos ordenadores).
Como resultado del crecimiento de Internet, se produjo un cambio de gran importancia para la red y su gestión. Para facilitar el uso de Internet por sus usuarios se asignaron nombres a los host s de forma que resultara innecesario recordar sus direcciones numéricas. Originalmente había un número muy limitado de máquinas, por lo que bastaba con una simple tabla con todos los ordenadores y sus direcciones asociadas.
El cambio hacia un gran número de redes gestionadas independientemente (por ejemplo, las LAN) significó que no resultara ya fiable tener una pequeña tabla con todos los host s. Esto llevó a la invención del DNS ( Domain Name System , sistema de nombres de dominio) por Paul Mockapetris de USC/ISI. El DNS permitía un mecanismo escalable y distribuido para resolver jerárquicamente los nombres de los host s (por ejemplo, www.acm.org o www.ati.es ) en direcciones de Internet.
El incremento del tamaño de Internet resultó también un desafío para los routers . Originalmente había un sencillo algoritmo de enrutamiento que estaba implementado uniformemente en todos los routers de Internet. A medida que el número de redes en Internet se multiplicaba, el diseño inicial no era ya capaz de expandirse, por lo que fue sustituido por un modelo jerárquico de enrutamiento con un protocolo IGP ( Interior Gateway Protocol , protocolo interno de pasarela) usado dentro de cada región de Internet y un protocolo EGP ( Exterior Gateway Protocol , protocolo externo de pasarela) usado para mantener unidas las regiones.
El diseño permitía que distintas regiones utilizaran IGP distintos, por lo que los requisitos de coste, velocidad de configuración, robustez y escalabilidad, podían ajustarse a cada situación. Los algoritmos de enrutamiento no eran los únicos en poner en dificultades la capacidad de los routers , también lo hacía el tamaño de la tablas de direccionamiento. Se presentaron nuevas aproximaciones a la agregación de direcciones (en particular CIDR, Classless Interdomain Routing , enrutamiento entre dominios sin clase) para controlar el tamaño de las tablas de enrutamiento.
A medida que evolucionaba Internet, la propagación de los cambios en el software, especialmente el de los host s, se fue convirtiendo en uno de sus mayores desafíos. DARPA financió a la Universidad de California en Berkeley en una investigación sobre modificaciones en el sistema operativo Unix, incorporando el TCP/IP desarrollado en BBN. Aunque posteriormente Berkeley modificó esta implementación del BBN para que operara de forma más eficiente con el sistema y el kernel de Unix, la incorporación de TCP/IP en el sistema Unix BSD demostró ser un elemento crítico en la difusión de los protocolos entre la comunidad investigadora.
BSD empezó a ser utilizado en sus operaciones diarias por buena parte de la comunidad investigadora en temas relacionados con informática. Visto en perspectiva, la estrategia de incorporar los protocolos de Internet en un sistema operativo utilizado por la comunidad investigadora fue uno de los elementos clave en la exitosa y amplia aceptación de Internet.
Uno de los desafíos más interesantes fue la transición del protocolo para host s de ARPANET desde NCP a TCP/IP el 1 de enero de 1983. Se trataba de una ocasión muy importante que exigía que todos los host s se convirtieran simultáneamente o que permanecieran comunicados mediante mecanismos desarrollados para la ocasión.
La transición fue cuidadosamente planificada dentro de la comunidad con varios años de antelación a la fecha, pero fue sorprendentemente sobre ruedas (a pesar de dar la lugar a la distribución de insignias con la inscripción "Yo sobreviví a la transición a TCP/IP").
TCP/IP había sido adoptado como un estándar por el ejército norteamericano tres años antes, en 1980. Esto permitió al ejército empezar a compartir la tecnología DARPA basada en Internet y llevó a la separación final entre las comunidades militares y no militares. En 1983 ARPANET estaba siendo usada por un número significativo de organizaciones operativas y de investigación y desarrollo en el área de la defensa. La transición desde NCP a TCP/IP en ARPANET permitió la división en una MILNET para dar soporte a requisitos operativos y una ARPANET para las necesidades de investigación.
Así, en 1985, Internet estaba firmemente establecida como una tecnología que ayudaba a una amplia comunidad de investigadores y desarrolladores, y empezaba a ser empleada por otros grupos en sus comunicaciones diarias entre ordenadores. El correo electrónico se empleaba ampliamente entre varias comunidades, a menudo entre distintos sistemas. La interconexión entre los diversos sistemas de correo demostraba la utilidad de las comunicaciones electrónicas entre personas.
La transición hacia una infraestructura global
Al mismo tiempo que la tecnología Internet estaba siendo validada experimentalmente y usada ampliamente entre un grupo de investigadores de informática se estaban desarrollando otras redes y tecnologías. La utilidad de las redes de ordenadores (especialmente el correo electrónico utilizado por los contratistas de DARPA y el Departamento de Defensa en ARPANET) siguió siendo evidente para otras comunidades y disciplinas de forma que a mediados de los años 70 las redes de ordenadores comenzaron a difundirse allá donde se podía encontrar financiación para las mismas.
El Departamento norteamericano de Energía (DoE, Deparment of Energy ) estableció MFENet para sus investigadores que trabajaban sobre energía de fusión, mientras que los físicos de altas energías fueron los encargados de construir HEPNet. Los físicos de la NASA continuaron con SPAN y Rick Adrion, David Farber y Larry Landweber fundaron CSNET para la comunidad informática académica y de la industria con la financiación inicial de la NFS ( National Science Foundation , Fundación Nacional de la Ciencia) de Estados Unidos.
La libre diseminación del sistema operativo Unix de ATT dio lugar a USENET, basada en los protocolos de comunicación UUCP de Unix, y en 1981 Greydon Freeman e Ira Fuchs diseñaron BITNET, que unía los ordenadores centrales del mundo académico siguiendo el paradigma de correo electrónico como "postales". Con la excepción de BITNET y USENET, todas las primeras redes (como ARPANET) se construyeron para un propósito determinado.
Es decir, estaban dedicadas (y restringidas) a comunidades cerradas de estudiosos; de ahí las escasas presiones por hacer estas redes compatibles y, en consecuencia, el hecho de que durante mucho tiempo no lo fueran. Además, estaban empezando a proponerse tecnologías alternativas en el sector comercial, como XNS de Xerox, DECNet, y la SNA de IBM (8).
Sólo restaba que los programas ingleses JANET (1984) y norteamericano NSFNET (1985) anunciaran explícitamente que su propósito era servir a toda la comunidad de la enseñanza superior sin importar su disciplina. De hecho, una de las condiciones para que una universidad norteamericana recibiera financiación de la NSF para conectarse a Internet era que "la conexión estuviera disponible para todos los usuarios cualificados del campus".
En 1985 Dennins Jenning acudió desde Irlanda para pasar un año en NFS dirigiendo el programa NSFNET. Trabajó con el resto de la comunidad para ayudar a la NSF a tomar una decisión crítica: si TCP/IP debería ser obligatorio en el programa NSFNET. Cuando Steve Wolff llegó al programa NFSNET en 1986 reconoció la necesidad de una infraestructura de red amplia que pudiera ser de ayuda a la comunidad investigadora y a la académica en general, junto a la necesidad de desarrollar una estrategia para establecer esta infraestructura sobre bases independientes de la financiación pública directa. Se adoptaron varias políticas y estrategias para alcanzar estos fines.
La NSF optó también por mantener la infraestructura organizativa de Internet existente (DARPA) dispuesta jerárquicamente bajo el IAB ( Internet Activities Board , Comité de Actividades de Internet). La declaración pública de esta decisión firmada por todos sus autores (por los grupos de Arquitectura e Ingeniería de la IAB, y por el NTAG de la NSF) apareció como la RFC 985 ("Requisitos para pasarelas de Internet") que formalmente aseguraba la interoperatividad entre las partes de Internet dependientes de DARPA y de NSF.
El backbone había hecho la transición desde una red construida con routers de la comunidad investigadora (los routers Fuzzball de David Mills) a equipos comerciales. En su vida de ocho años y medio, el backbone había crecido desde seis nodos con enlaces de 56Kb a 21 nodos con enlaces múltiples de 45Mb.Había visto crecer Internet hasta alcanzar más de 50.000 redes en los cinco continentes y en el espacio exterior, con aproximadamente 29.000 redes en los Estados Unidos.
El efecto del ecumenismo del programa NSFNET y su financiación (200 millones de dólares entre 1986 y 1995) y de la calidad de los protocolos fue tal que en 1990, cuando la propia ARPANET se disolvió, TCP/IP había sustituido o marginado a la mayor parte de los restantes protocolos de grandes redes de ordenadores e IP estaba en camino de convertirse en el servicio portador de la llamada Infraestructura Global de Información.
El papel de la documentación
Un aspecto clave del rápido crecimiento de Internet ha sido el acceso libre y abierto a los documentos básicos, especialmente a las especificaciones de los protocolos.
Los comienzos de Arpanet y de Internet en la comunidad de investigación universitaria estimularon la tradición académica de la publicación abierta de ideas y resultados. Sin embargo, el ciclo normal de la publicación académica tradicional era demasiado formal y lento para el intercambio dinámico de ideas, esencial para crear redes.
En 1969 S.Crocker, entonces en UCLA, dio un paso clave al establecer la serie de notas RFC ( Request For Comments , petición de comentarios). Estos memorándums pretendieron ser una vía informal y de distribución rápida para compartir ideas con otros investigadores en redes. Al principio, las RFC fueron impresas en papel y distribuidas vía correo "lento". Pero cuando el FTP ( File Transfer Protocol , protocolo de transferencia de ficheros) empezó a usarse, las RFC se convirtieron en ficheros difundidos online a los que se accedía vía FTP.
Hoy en día, desde luego, están disponibles en el World Wide Web en decenas de emplazamientos en todo el mundo. SRI, en su papel como Centro de Información en la Red, mantenía los directorios online . Jon Postel actuaba como editor de RFC y como gestor de la administración centralizada de la asignación de los números de protocolo requeridos, tareas en las que continúa hoy en día.
El efecto de las RFC era crear un bucle positivo de realimentación, con ideas o propuestas presentadas a base de que una RFC impulsara otra RFC con ideas adicionales y así sucesivamente. Una vez se hubiera obtenido un consenso se prepararía un documento de especificación. Tal especificación seria entonces usada como la base para las implementaciones por parte de los equipos de investigación.
Con el paso del tiempo, las RFC se han enfocado a estándares de protocolo –las especificaciones oficiales- aunque hay todavía RFC informativas que describen enfoques alternativos o proporcionan información de soporte en temas de protocolos e ingeniería. Las RFC son vistas ahora como los documentos de registro dentro de la comunidad de estándares y de ingeniería en Internet.
El acceso abierto a las RFC –libre si se dispone de cualquier clase de conexión a Internet- promueve el crecimiento de Internet porque permite que las especificaciones sean usadas a modo de ejemplo en las aulas universitarias o por emprendedores al desarrollar nuevos sistemas.
El e-mail o correo electrónico ha supuesto un factor determinante en todas las áreas de Internet, lo que es particularmente cierto en el desarrollo de las especificaciones de protocolos, estándares técnicos e ingeniería en Internet. Las primitivas RFC a menudo presentaban al resto de la comunidad un conjunto de ideas desarrolladas por investigadores de un solo lugar. Después de empezar a usarse el correo electrónico, el modelo de autoría cambió: las RFC pasaron a ser presentadas por coautores con visiones en común, independientemente de su localización.
Las listas de correo especializadas ha sido usadas ampliamente en el desarrollo de la especificación de protocolos, y continúan siendo una herramienta importante. El IETF tiene ahora más de 75 grupos de trabajo, cada uno dedicado a un aspecto distinto de la ingeniería en Internet. Cada uno de estos grupos de trabajo dispone de una lista de correo para discutir uno o más borradores bajo desarrollo. Cuando se alcanza el consenso en el documento, éste puede ser distribuido como una RFC.
Debido a que la rápida expansión actual de Internet se alimenta por el aprovechamiento de su capacidad de promover la compartición de información, deberíamos entender que el primer papel en esta tarea consistió en compartir la información acerca de su propio diseño y operación a través de los documentos RFC. Este método único de producir nuevas capacidades en la red continuará siendo crítico para la futura evolución de Internet.
El futuro: Internet 2
Internet2 es el futuro de la red de redes y está formado actualmente por un consorcio dirigido por 206 universidades que junto a la industria de comunicaciones y el gobierno están desarrollando nuevas técnicas de conexión que acelerarán la capacidad de transferencia entre servidores.
Sus objetivos están enfocados a la educación y la investigación académica. Además buscan aprovechar aplicaciones de audio y video que demandan más capacidad de transferencia de ancho de banda.
miércoles, 15 de abril de 2009
Historia de la informática
El origen de la informática hay que buscarlo en el inicio del desarrollo de métodos de cómputo o cálculo por parte del hombre y el ingenio de diversos personajes históricos (unos, avanzados para su tiempo y otros, que encontraban inspiración en sus antecesores). Los saltos en el tiempo entre los avances históricos hay que entenderlos analizando las circunstancias: los científicos veían muchas veces cómo se frustraban sus intentos de materializar las ideas debido a las limitaciones y/o necesidades de su época.
1.Primeros instrumentos de cálculo.
Hace 5.000 años los egipcios ya utilizaban las decenas numericas en los jeroglíficos y es en esa época cuando se estima que surge el primer instrumento de cálculo del que se tiene constancia, el ábaco. Su procedencia originaria es muy discutida. En un principio se hacían los cálculos (sumas y restas) sobre unas líneas hechas en la arena y utlizando piedras o semillas (Sáhara) o desplazando estos mismos elementos por el interior de una caña abierta, como en la antigua Mesopotamia. El intercambio cultural que se producía debido a la expansión del comercio entre los pueblos y las conquistas bélicas llevaría a la modificación o perfeccionamiento del ábaco. El formato con marco de madera, varitas metálicas o hilos y bolitas móviles fue creado en China y modificado en Japón y en Rusia.
La dimensión que adquiere el ábaco dentro de la historia del cómputo es comprensible cuando se tiene en cuenta que, incluso tras el paso de cinco milenios, en la actualidad sigue siendo un objeto de uso común en China, Japón y Rusia, sobre todo en algunas escuelas primarias.
2. Mentes precursoras.
En 1614 el escocés John Napier (1550-1617) publica una obra en la que se explica por vez primera el uso de logaritmos, funciones matemáticas que permiten transformar las multiplicaciones en sumas y las divisones en restas, y en 1617 da a conocer el ábaco rabdológico cuya función era calcular productos y cocientes. Estaba compuesto por una tabla numerada en un lateral y varias varillas de marfil. La peculiar tonalidad de este material hizo que el invento recibiera el apelativo de huesos de Napier.
En 1623 el astrónomo alemán Wilhelm Schickard (1592-1635) inventa la primera máquina de cálculo, a la que llamó reloj calculador y que fue ideada para ser usada por su amigo astrónomo Johannes Kepler, a quien escribió unas cartas en las que adjuntaba diversos bocetos del invento y detallaba su funcionamiento (usaba discos dentados), lo que sirvió para hacer una reconstrucción a escala que está expuesta en el Museo de la Ciencia de Munich. Esto fue posible gracias al historiador Franz Hammer que, en 1935 y revisando la correspondencia que se conservaba de Kepler descubrió el invento de Shickard perfectamente detallado.
El físico y matemático francés Blaise Pascal (1623-1662) desarrolló en 1642 un calculador mecánico, primeramente llamado Máquina aritmétca, y después Pascalina, para realizar sumas que usaba un sistema de ruedas dentadas similar al que ideó Schickard. Durante mucho tiempo se le consideró erróneamente el inventor de la primera máquina de cálculo, e incluso en la actualidad muchas fuentes lo citan como tal, obviando la creación de su antecesor. Incluso uno de los primeros lenguajes de programación informática lleva su nombre: el lenguaje Pascal (1970).
Gottfried Wilhelm Leibniz (1646-1716), filósofo, matemático, físico, jurista y político alemán, máximo exponente del pensamiento barroco, tiene también un lugar importante dentro de la historia de la informática. Aparte de la creación, paralelamente a Newton, del cálculo infinitesimal, descubrió el cálculo diferencial y fue el precursor de la lógica matemática, proponiendo un sistema binario para la realización de cálculos. También inventó una máquina de cálculo que se llamó calculadora universal, capaz de realizar sumas, restas, multiplicaciones, divisiones e, incluso, raíces cuadradas. su elemento característico era un tambor cilíndrico con nueve dientes de longitud variable, llamado rueda escalonada o rueda de Leibniz, que se encuentra en prácticamente todas las calculadoras mecánicas posteriores, incluso en algunas del siglo XX.
En 1801 el francés Joseph Marie Jacquard (1752-1834) inventó un mecanismo para maquinaria textil que se basaba en el uso de tarjetas perforadas. Unas placas o moldes metálicos perforados, unidos por medio de correas, permitían contolar la creación de complejos diseños textiles que confeccionaban las máquinas de tejer. Posteriormente se utilizaría este sistema para reproducir música en pianolas y organillos, y diversos juguetes mecánicos.
El matemático e ingeniero británico Charles Babbage (1791-1871) es considerado el auténtico padre de los ordenadores. Debido a los numerosos errores que se producían en el cálculo de tablas matemáticas, tuvo la idea de crear una máquina que ejecutara ese trabajo, eliminando el error humano, y facilitando la tarea de realizar operaciones repetitivas. En 1822 presentó un proyecto para el desarrollo de una máquina diferencial, como él la llamó, en la Royal Astronomical Society, capaz de resolver polinomios de segundo grado mediante un método numérico diferencial. Recibió una subvención para construir un modelo más grande, tarea que acabó abandonando por los problemas ocasionados en la fabricación de las piezas y sus ocasionales cambios de diseño para intentar merjorar la máquina.
En 1833, Charles Babbage se centró en un nuevo proyecto: una máquina que tuviera un propósito general, capaz de resolver múltiples problemas matemáticos. La llamaría máquina analítica. Funcionaba a vapor y constaba de un mecanismo de entrada y salida mediante tarjetas perforadas basadas en el modelo de Jacquard, una memoria para 1.000 números de 50 cifras, una unidad de control para que las operaciones se realizasen en el orden correcto y una unidad aritmético-lógiaca para los cálculos. Incluso disponía de un sistema de impresión en papel similar al que se usaba en varias décadas del siglo XX. Este invento es considerado el primer ordenador de la historia. Babbage contó con la colaboración de la matemática Ada Augusta Byron (1815-1852), Condesa de Lovelace e hija de Lord Byron, quien, fascinada por el trabajo del inventor, participó en el patrocinio y la promoción de la máquina analítica, para la cual escribió diversos programas para resolver ecuaciones trascendentes e integrales definidas. De este modo se considera a Ada Byron (también conocida como Ada Lovelace) como la primera programadora de ordenadores del mundo. En su honor se llamó Ada al lenguaje de programación multipropósito desarrollado en 1979 a instancias del Departamento de Defensa de los Estados Unidos, que buscaba estandarizar los numerosos programas que existían.
Charles Babbage murió sin lograr terminar de construir su gran invento, pero sus ideas y diseños sentarían las bases para el desarrollo, décadas después, de los ordenadores modernos.
George Boole (1815-1864), matemático y filósofo británico, hizo público en 1854 un estudio sobre las leyes del pensamiento en las que se basan las teorías matemáticas de la lógica y la probabilidad, aplicando símblos a operaciones lógicas estructurados según el álgebra convencional. Surge así el álgebra de la lógica (álgebra de Boole), que el siglo siguiente sería aplicado en la construcción de ordenadores y circuitos.
Herman Hollerith (1860-1929), ingeniero neoyorquino de origen alemán, consiguió por vez primera automatizar el procesamiento de grandes cantidades de información con la ayuda de un aparato de propia creación: la máquina censadora o tabuladora. En 1879 Hollerith comenzó a trabajar como asistente para la oficina del censo. Ahí pudo comprobar la precariedad del sistema manual que se utilizaba para censar a la población: en 1880 la población de Estados Unidos llegaba a los 50 millones de personas, y el trabajo para hacer el recuento llevó 7 años y medio. Eso le llevó a desarrollar un sistema de cómputo automatizado, y lo hizo diseñando una máquina que utilizaba tarjetas en las que se representaba la información (nombre, dirección, sexo, edad, raza...) mediante perforaciones, que eran detectadas por la máquina, clasificando (tabulando) debidamente la información según la lógica de Boole. El censo de 1890 se logró completar en 2 años y medio, a pesar de que la población había aumentado en más del 20%. En 1896 Hollerith fundó su propia compañía, Tabulating Machine Company, que en 1911 se fusionó con otras dos empresas, formando así la Computing Tabulating Recording Company (CTR), esta a su vez pasa a manos de Thomas Watson en 1914 y, diez años más tarde, en 1924, toma el nombre de International Business Machines (IBM).
3. Primeros avances en el siglo XX.
En el año 1900 se celebró en París el Congreso Internacional de Matematicas, donde el matemático ruso David Hilbert formuló una pregunta clave: ¿existe un método definido que pueda aplicarse a cualquier sentencia matemática y que nos diga si esa sentencia es cierta o no?
En agosto de 1936, Alan Mathison Turing (1912-1954) publicó un artículo que venía a dar respuesta a la pregunta formulada por David Hilbert mediante el concepto de la Máquina de Turing: una máquina teórica que sería capaz de transformar con precisión operaciones elementales previamente definidas en símbolos en una cinta de papel. Prácticamente al mismo tiempo, en Estados Unidos, Alonzo Church (1903-1995) dió a conocer el cálculo lambda, un trabajo equivalente, naciendo así la Tesis de Church-Turing. De esta forma, Turing y Church son considerados unos de los padres de la Ciencia de la Computación y la Inteligencia Artificial.
Basándose en esos fundamentos, el ingeniero alemán Konrad Zuse (1910-1995) construyó en 1938 la Z1, un prototipo de computadora electromecánica de sistema binario que podía ser programada de forma limitada y que usaba relés eléctricos para automatizar los procesos, leyendo las instrucciones de una cinta perforada. No llegó a funcionar correctamente debido a la imperfección de alguna de sus piezas mecánicas. En 1940 concluyó la construcción de la Z2, modelo perfeccionado con relevadores telefónicos, y en 1941 creó la Z3, que disponía de una memoria de 64 palabras, un procesador con dos registros, una unidad de lectura de cinta perforada y una unidad de control que decodificaba una instrucción leída en la cinta perforada y transfería estos datos dentro de la máquina y los dispositivos de entrada/salida. En el bombardeo aliado sobre Berlín en 1944, la Z3 original fue destruida. Konrad Zuse no recibió el apoyo del régimen Nazi, por lo que tuvo que financiarse todos sus proyectos y, en su momento, tampoco obtuvo el reconocimiento del exterior que sí recibieron otros contemporáneos. Aún así, fundó varias empresas propias y, en 1950, realiza la primera venta de un ordenador de la historia, el modelo Z4, a una compañía suiza.
El ingeniero electrónico y doctor en física teórica estadounidense de origen búlgaro John Vincent Antanasoff (1903-1995) es considerado el inventor del ordenador digital electrónico, después de una resolución judicial en la que se vió envuelto indirectamente. Como le ocurrió a Konrad Zuse, Antanasoff quería encontrar una manera de agilizar los numerosos cálculos que debía realizar, así que comenzó a desarrollar ideas para la construcción de una máquina para tal fin, más eficiente y rápida que las del momento. Según relató, Antanasoff concibió la idea final en una taberna de Iowa (invierno de 1937), donde estableció los cuatro principios básicos en los que se fundamentaría su invento: el uso de electricidad y componentes electrónicos, un sistema binario, condensadores como elementos de memoria y un sistema lógico para el cómputo y no la enumeración, como ocurría con las máquinas análogas. La construcción se realizó entre 1937 y 1942, y Antanasoff contó con la ayuda de Clifford Edward Benning, un alumno de ingeniería eléctrica recomendado por un profesor. En diciembre de 1939 habían terminado un prototipo que funcionaba correctamente y al que llamarían ABC (Antanasoff Berry Computer). En 1940, Atanasoff asiste a una lectura del Dr. John William Mauchly y le muestra su máquina. Mauchly copia muchas ideas de la ABC para diseñar junto con John Presper Eckert la ENIAC, considerada la primera computadora digital electrónica del mundo, hasta que en 1967 un litigio entre dos compañías, Honeywell y Sperry Rand Corporation (que había adquirido la patente sobre la ENIAC), provocó que el juez llamara a declarar a Antanasoff, de quien encontró referencias durante el proceso y quien nunca supo del uso de sus diseños por parte de Mauchly y Eckert para el desarrollo de la ENIAC. Tras seis años de litigio entre las dos empresas, el que salió vencedor fue Atanasoff, quien no había demandado a nadie ni tenía interés en el asunto y resultó ser el principal perjudicado por las grandes compañías. El juez Earl R. Larson, de Minneapolis, sentenció el 19 de octubre de 1973 que la patente del ENIAC no era válida.
En 1938 se publicó la tesis del ingeniero eléctrico y matemático estadounidense Claude Elwood Shannon (1916-2001), sobre la teoría matemática de la comunicación, en la que demostró cómo el álgebra de Boole se podía utilizar en el análisis y la síntesis de la conmutación y de los circuitos digitales y cómo la combinación de circuitos podía representar operaciones aritméticas y lógicas complejas, relacionando así lógica y electrónica. Las aportaciones de Shannon serían fundamentales también en el desarrollo de la criptografía y los sistemas de compresión de datos.
En febrero de 1944, el ingeniero estadounidense Howard Hathaway Aiken (1900-1973), financiado por IBM, termina la construcción del ordenador electromecánico MARK I, basándose en los diseños de la máquina analítica de Charles Babbage. Tenía unas dimensiones gigantescas: medía unos 15,5 metros de largo, unos 2,40 metros de alto y unos 60 centímetros de ancho, su peso era de unas cinco toneladas y en su interior se repartía un cableado de unos 800 kilómetros de longitud con casi 3 millones de conexiones. Estaba compuesta por unas 750.000 piezas, cerca de 1500 interruptores rotatorios de diez posiciones. Hacía uso del sistema decimal en lugar del binario, y contenía 72 registros mecánicos, cada uno de los cuales podía almacenar 23 dígitos decimales más un dígito para el signo. Para la compañía IBM fue el comienzo de su larga y de sobra conocida trayectoria como fabricante de ordenadores.
En febrero de 1944, un proyecto secreto británico durante la Segunda Guerra Mundial derivó en la construcción de Colossus, un ordenador digital destinado a leer y descifrar los códigos alemanes, quienes utilizaban la máquina encriptadora Enigma para el envío de instrucciones al frente. Hasta entonces no se había encontrado un sistema de descifrado eficaz contra la máquina alemana. Colossus fue diseñado por el ingeniero británico Thomas Harold Flowers (1905-1998) y estaba compuesta originalmente por 1.500 válvulas electrónicas (tubos de vidrio al vacío), un lector fotoeléctrico que recibía los datos mediante una cinta perforada, poseía una memoria de cinco caracteres de cinco bits, su velocidad de proceso era de 5.000 hercios y empleaba el sistema binario. Tenía unas medidas de 2,25 metros de alto, 3 metros de largo y 1,20 metros de ancho. Hasta el final de la guerra se construyeron varios modelos más de Colossus, contando con la participación de Alan Turing.
4. Primera generación: tubos de vacío (1946-1959).
El 15 de febrero de 1946 se hace una presentación pública en la Universidad de Pennsylvania del ENIAC, acrónimo inglés de Electronic Numerical Integrator And Computer (integrador electrónico numérico y computador). Fue el primer computador digital electrónico de propósito general, construido conjuntamente por el ingeniero John Presper Eckert (1919-1995) y el físico John William Mauchly (1907-1980). Pesaba 32 toneladas y medía 2,40 metros de ancho por 30 de largo. Estaba compuesto por 17.460 válvulas, 7.200 diodos de cristal, 1.500 relés, 70.000 resistencias, 10.000 condensadores y 5 millones de soldaduras, produciendo tal calor que la temperatura de la sala en que se encontraba llegaba a los 50ºC. Disponía de capacidad para resolver en un segundo 5.000 sumas y 360 multiplicaciones, aunque para reprogramarla era preciso cambiar de posición las conexiones de los cables, lo que requería un trabajo muy laborioso. El Ejército de los Estados Unidos hizo uso del ENIAC para el cálculo de tablas balísticas.
En 1951 hace aparición la UNIVAC, acrónimo de Universal Automatic Computer (computadora automática universal), creada por Eckert y Mauchly. Se fabricó comercialmente, siendo vendida a la Oficina de Censos de los Estados Unidos. Estaba constituida por 5.200 válvulas, tenía una velocidad de proceso de 2,25 megahercios y una memoria de 1.000 palabras de 12 caracteres. Su peso superaba las 13 toneladas.
En 1952 se concluyó la construcción del EDVAC, siglas inglesas de significado Electronic Discrete Variable Automatic Computer (computadora electrónica automática de variabe discreta). Diseñada por Mauchly y Eckert, a quienes se unió el matemático húngaro John von Neumann (1903-1957), esta computadora contaba por primera vez con capacidad de almacenamiento de memoria para los programas, lo que evitaba el tedioso trabajo de reconexión que era necesario en la máquina ENIAC. La memoria consistía en líneas de mercurio dentro de un tubo de vidrio al vacío, donde un impulso electrónico podía ir y venir en 2 posiciones, para almacenar los ceros y unos, empleabando así números binarios. Constaba de 4.000 válvulas y 10.000 diodos de cristal, con una autonomía de hasta 8 horas sin errores. Disponía de un lector-grabador de cinta magnética.
5. Segunda generación: circuitos transistorizados (1957-1964).
El transistor (palabra surgida por la contracción de Transfer Resistor), elemento de silicio o germanio inventado por los Laboratorios Bell Telephone en 1947, acabó sustituyendo a los tubos de vacío (o válvulas), debido a la gran diferencia de sus prestaciones: tamaño minúsculo, menor coste y menor consumo eléctrico, generando así también menos calor. La vida útil del transistor no tiene comparación tampoco, ya que es prácticamente ilimitada, mientras que las válvulas debían ser reemplazadas con mucha frecuencia. Las primeras computadoras construidas completamente a base de transistores fueron introducidas por las compañías NCR (NCR 304, en 1957) y RCA (RCA 501, en 1958). Sin embargo, IBM creó los modelos más populares, logrando una cuota de mercado del 70% en la década de los 60. El primer modelo de IBM que empleaba transistores fue el IBM 7090, creado a finales de 1958.
Durante el período que engloba la segunda generación tiene lugar también la ampliación de las memorias internas, la generalización del concepto de arquitectura modificable y el uso de periféricos de gran masa de memoria como los tambores y discos magnéticos. Aparecen los lenguajes ensambladores que traducen las instrucciones del código máquina, llegando a generar ya lenguajes de alto nivel como:
FORTRAN, contracción de las palabras inglesas Formula Translator (traductor de fórmulas), lenguaje empleado sobre todo en aplicaciones científicas, fue desarrollado entre 1954 y 1957 por la compañía IBM.
LISP, acrónimo de LISt Processing (procesamiento de listas), creado en 1958 por John McCarthy en el Instituto Tecnológico de Massachusetts (MIT). McCarthy introdujo en 1956, en una conferencia en Dartmouth, el concepto de Inteligencia Arificial.
COBOL, acrónimo de COmmon Business Oriented Language (lenguaje común orientado a negocios), orientado hacia la informática de gestión empresarial y que se desarrolló con la intención de lograr un lenguaje estándar, debido a las múltiples incompatibilidades de los equipos de la época.
ALGOL, que proviene del inglés Algorithmic Language (lenguaje algorítmico). Su uso era bastante extendido en las universidades pero no tuvo aceptación como lenguaje de utilización comercial.
En 1963 el Comité Estadounidense de Estándares (ASA, que en 1969 tomaría el nombre de Instituo Estadounidense de Estándares Nacionales, o ANSI) aprueba el código ASCII, acrónimo inglés de American Standard Code for Information Interchange (código estándar americano para el intercambio de información), basado en el uso anglosajón del alfabeto latino. Su origen se encuentra en los conjuntos de códigos usados hasta entonces en telegrafía. En 1967 se incluyeron las minúsculas, y se redefinieron algunos códigos de control para formar el código conocido como US-ASCII.
6. Tercera generación: el circuito integrado (1964-1974).
En 1959, el ingeniero eléctrico estadounidense Jack St. Claire Kilby (1903-2005) inventó el circuito integrado monolítico cuando trabajaba para la empresa Texas Instruments, logro que sentó los cimientos conceptuales y técnicos para todo el campo de la microelectrónica y que en los años 80 llevaría al desarrollo de los microprocesadores. El invento original de Kilby era un dispositivo creado con un monocristal de germanio que integraba seis transistores en una misma base semiconductora para formar un oscilador de rotación de fase. Esto permitió por un lado abaratar costos y por el otro aumentar la capacidad de procesamiento reduciendo el tamaño físico de las máquinas. Por su contribución al desarrollo de la tecnología de la información, en el año 2000 Kilby fue galardonado con el Premio Nobel de Física.
Se considera como inicio de la tercera generación el año 1964, cuando el 7 de abril se presenta el IBM S/360, construido con un circuito integrado de pequeña escala, con la posibilidad de elegir entre seis modelos (30, 40, 50, 60, 62 y 70) de diferentes prestaciones con compatibilidad de software y periféricos. Tenía la capacidad de realizar tanto análisis numéricos como administración y procesamiento de archivos y contaba con unidades de cinta magnética de nueve canales, paquetes de discos magnéticos y otras características que ahora son estándares. La serie 360 fue la primera también en utilizar un Sistema Operativo, el OS/360, en diferentes versiones según el modelo, dotando así a la máquina de capacidad de multiprogramación, al permitir ejecutar más de un programa simultáneamente.
Durante el período que representa la tercera generación se estandarizaron los lenguajes de programación más utilizados como el FORTRAN (1966), el ALGOL (1968) y el COBOL (1970). También aparecieron lenguajes nuevos, como el BASIC (1964) o el PASCAL (1970).
A finales de la década de los sesenta comienzan a aparecer ordenadores de tamaño mediano, menor coste y mayor facilidad de manejo, las entonces llamadas minicomputadoras, con circuitos de mediana escala (MSI), destinadas a abastecer la demanda de medianas y grandes empresas. Se distribuían en varias terminales organizadas en redes. La ya desaparecida empresa DEC (Digital Equipment Corporation) dominaba el mercado de estas máquinas con sus series PDP-8 y PDP-11.
El 21 de noviembre de 1969 se realiza la primera interconexión de computadoras a través de una red, entre la Universidad de California y el Instituto de Investigaciones de Stanford. Fue un proyecto llamado ARPANET (Advanced Research Projects Agency Network), desarrollado por la DARPA (Agencia de Investigación de Proyectos Avanzados de Defensa). El 5 de diciembre de ese mismo año lograron interconectar cuatro nodos: el Instituto de Investigaciones de Stanford, la Universidad de California de Los Ángeles, la Universidad de California Santa Bárbara y la Universidad de Utah.
1969 es la fecha también del desarrollo final del sistema operativo UNIX, cuyas siglas provienen de UNiplexed Information and Computing System, ejecutado por primera vez en 1970 en una máquina PDP 11/20. El proyecto estaba liderado por el científico Kenneth Lane Thompson y el físico Dennis MacAlistair Ritchie, quien escribiría en 1972 el lenguaje de programación C para el sistema, lo que le daría portabilidad para ser instalado en diferentes ordenadores, con unos pequeños cambios.
En 1973, el presidente de Intel, Gordon Moore, postula la famosa ley de Moore que predecía que el número de transistores en las CPU se duplicarían cada 18 meses, lo que se fue cumpliendo durante más de 20 años.
7. Cuarta generación: el microprocesador (1974-...)
La cuarta generación de ordenadores se considera iniciada con la aparición del microprocesador, invento que permitiría luego la creación del ordenador personal (PC). En 1974, la empresa estadounidense Intel Corporation presentó el modelo de microprocesador 8080. Contenía 4.500 transistores y podía manejar 64k de memoria RAM a través de un bus de datos de 8 bits. El 8080 fue el cerebro del primer ordenador personal (PC), el Altair 8800, fabricado por la compañía MITS (Micro Instrumentation Telemetry Systems), promoviendo un gran interés en hogares y pequeños negocios a partir de enero de 1975, cuando apareció publicitada en la revista Popular Electronics y se vendía como un kit. El primer modelo no contaba con monitor ni teclado, tan sólo con luces LED y pequeñas palancas o switches para facilitar la programación. La información era almacenada en cassettes de grabadoras y era visualizada en aparatos de televisión. El primer lenguaje de programación para la máquina fue el Altair BASIC, escrito por William Henry Gates y Paul Allen, quienes inmediatamente después fundarían Microsoft. El Sistema Operativo que utilizaba el Altair 8800 era el CP/M (Control Program for Microcomputers), escrito por Gary Kildall.
En 1976, los amigos y aficionados a la electrónica Steve Wozniak (entonces ingeniero en Hewlett-Packard) y Steve Jobs (que trabajaba en Atari) fabrican en el garaje de su casa la microcomputadora Apple I. Steven Jobs convenció a Wozniak (que se encargó de la construcción) para continuar la fabricación para la venta al público y, así, en abril de 1976 nació la empresa Apple Computers. El Apple I se construía manualmente, y no llegó a ser vendido masivamente, pero con el desarrollo a partir de 1977 del Apple II, la compañía de Wozniak y Jobs llegó a tener una alta cuota de mercado, solamente superada por IBM.
En 1978 aparece la primera aplicación para procesar textos (WordStar), diseñada para el sistema operativo CP/M, poco después estaría disponible también para el DOS, y sería el precursor de WordPerfect. Un año después, en 1979, vio la luz VisiCalc, la primera hoja de cálculo, desarrollada por Dan Bricklin para el Apple II.
En 1980 Tim Paterson, programador de SCP (Seattle Computer Products), desarrolló un sistema operativo conocido como 86-DOS (Disk Operating System, sistema operativo de disco). En un principio se le llamó QDOS (Quick and Dirty Operating System, sistema operativo rápido y sucio), se basaba en el CP/M para un procesador Intel 8086. Acabaría siendo comprado por 50.000 dólares por Microsoft, empresa encargada por IBM para la creación de un sistema operativo para su novedoso modelo IBM PC, proyecto que Microsoft no fue capaz de cumplir, por lo que reescribió para tal fin el QDOS, convirtiéndose así en el PC-DOS para los modelos de IBM y MS-DOS para otras marcas a las que suministraría Microsoft el producto. En 1984 eran ya 200 las marcas que habían adquirido una licencia de MS-DOS, lo que supondría el principio del casi-monopolio de Microsoft. IBM, por su parte, acrecentó su liderazgo en el mercado con su PC (Personal Computer, ordenador personal), vendiendo más de 65.000 unidades el primer año y acercando la figura del ordenador a la sociedad y a los hogares con los modelos sucesivos.
La privatización masiva que estaba sufriendo el software en la época llevó a Richard Matthew Stallman a desarrollar, a partir de 1983, un proyecto de creación y difusión de software libre, denominado GNU (acrónimo de GNU is Not UNIX, GNU no es UNIX). Su finalidad era el desarrollo de un sistema operativo totalmente libre. En 1985 promovería el nacimiento de la FSF (Free Software Foundation, fundación para el software libre).
En noviembre de 1985 aparece la primera versión del sistema operativo Windows (1.0), que posibilitaba el uso de una interfaz gráfica para los PC's de IBM, que desde hacía un año ya ofrecían los modelos Macintosh (Mac) de Apple. El precio de Windows 1.0 era de 100 dólares de la época. Microsoft siguió lanzando al mercado sucesivas versiones del sistema operativo, como Windows NT (1992), Windows 95 (1995), Windows 98 (1998), Windows 2000 (2000), Windows XP (2001) y Windows Vista (2007). Actualmente se estima que alrededor del 95% de los ordenadores usan alguno de estos sistemas operativos.
1992 fue el año de dos grandes eventos. El desarrollo, por parte del ingeniero informático finlandés Linus Benedict Torvalds del sistema operativo Linux, cuyo código fuente es de libre acceso, supuso un hito para el movimiento del software libre, y el sistema sigue en uso actualmente gracias, sobre todo, a las constantes mejoras y cambios del código por parte de los programadores de todo el mundo, surgiendo así también diversas versiones. El otro hecho digno de mención de ese año fue la presentación pública del sistema global de hipertextos iniciado por el físico inglés Timothy John Berners-Lee mientras trabajaba en proyectos de investigación en el CERN de Ginebra (Conseil Européen pour la Recherche Nucléaire, consejo europeo para la investigación nuclear), denominado world wide web (www), desarrollándose así Internet tal y como lo conocemos hoy en día. Surge así una nueva era de comunicación para la humanidad, que acabaría por estar interconectada globalmente.
1.Primeros instrumentos de cálculo.
Hace 5.000 años los egipcios ya utilizaban las decenas numericas en los jeroglíficos y es en esa época cuando se estima que surge el primer instrumento de cálculo del que se tiene constancia, el ábaco. Su procedencia originaria es muy discutida. En un principio se hacían los cálculos (sumas y restas) sobre unas líneas hechas en la arena y utlizando piedras o semillas (Sáhara) o desplazando estos mismos elementos por el interior de una caña abierta, como en la antigua Mesopotamia. El intercambio cultural que se producía debido a la expansión del comercio entre los pueblos y las conquistas bélicas llevaría a la modificación o perfeccionamiento del ábaco. El formato con marco de madera, varitas metálicas o hilos y bolitas móviles fue creado en China y modificado en Japón y en Rusia.
La dimensión que adquiere el ábaco dentro de la historia del cómputo es comprensible cuando se tiene en cuenta que, incluso tras el paso de cinco milenios, en la actualidad sigue siendo un objeto de uso común en China, Japón y Rusia, sobre todo en algunas escuelas primarias.
2. Mentes precursoras.
En 1614 el escocés John Napier (1550-1617) publica una obra en la que se explica por vez primera el uso de logaritmos, funciones matemáticas que permiten transformar las multiplicaciones en sumas y las divisones en restas, y en 1617 da a conocer el ábaco rabdológico cuya función era calcular productos y cocientes. Estaba compuesto por una tabla numerada en un lateral y varias varillas de marfil. La peculiar tonalidad de este material hizo que el invento recibiera el apelativo de huesos de Napier.
Unos pocos años más tarde, entre 1620 y 1630, aparece la regla de cálculo, invento que se atribuye a William Oughtred (1574-1660), reconocido matemático de la época y amigo de John Napier. La regla de cálculo permite realizar operaciones aritméticas mediante escalas basadas en los logaritmos: se emplean líneas superpuestas de números que se desplazan, permitiendo realizar los cálculos.
En 1623 el astrónomo alemán Wilhelm Schickard (1592-1635) inventa la primera máquina de cálculo, a la que llamó reloj calculador y que fue ideada para ser usada por su amigo astrónomo Johannes Kepler, a quien escribió unas cartas en las que adjuntaba diversos bocetos del invento y detallaba su funcionamiento (usaba discos dentados), lo que sirvió para hacer una reconstrucción a escala que está expuesta en el Museo de la Ciencia de Munich. Esto fue posible gracias al historiador Franz Hammer que, en 1935 y revisando la correspondencia que se conservaba de Kepler descubrió el invento de Shickard perfectamente detallado.
El físico y matemático francés Blaise Pascal (1623-1662) desarrolló en 1642 un calculador mecánico, primeramente llamado Máquina aritmétca, y después Pascalina, para realizar sumas que usaba un sistema de ruedas dentadas similar al que ideó Schickard. Durante mucho tiempo se le consideró erróneamente el inventor de la primera máquina de cálculo, e incluso en la actualidad muchas fuentes lo citan como tal, obviando la creación de su antecesor. Incluso uno de los primeros lenguajes de programación informática lleva su nombre: el lenguaje Pascal (1970).
Gottfried Wilhelm Leibniz (1646-1716), filósofo, matemático, físico, jurista y político alemán, máximo exponente del pensamiento barroco, tiene también un lugar importante dentro de la historia de la informática. Aparte de la creación, paralelamente a Newton, del cálculo infinitesimal, descubrió el cálculo diferencial y fue el precursor de la lógica matemática, proponiendo un sistema binario para la realización de cálculos. También inventó una máquina de cálculo que se llamó calculadora universal, capaz de realizar sumas, restas, multiplicaciones, divisiones e, incluso, raíces cuadradas. su elemento característico era un tambor cilíndrico con nueve dientes de longitud variable, llamado rueda escalonada o rueda de Leibniz, que se encuentra en prácticamente todas las calculadoras mecánicas posteriores, incluso en algunas del siglo XX.
En 1801 el francés Joseph Marie Jacquard (1752-1834) inventó un mecanismo para maquinaria textil que se basaba en el uso de tarjetas perforadas. Unas placas o moldes metálicos perforados, unidos por medio de correas, permitían contolar la creación de complejos diseños textiles que confeccionaban las máquinas de tejer. Posteriormente se utilizaría este sistema para reproducir música en pianolas y organillos, y diversos juguetes mecánicos.
El matemático e ingeniero británico Charles Babbage (1791-1871) es considerado el auténtico padre de los ordenadores. Debido a los numerosos errores que se producían en el cálculo de tablas matemáticas, tuvo la idea de crear una máquina que ejecutara ese trabajo, eliminando el error humano, y facilitando la tarea de realizar operaciones repetitivas. En 1822 presentó un proyecto para el desarrollo de una máquina diferencial, como él la llamó, en la Royal Astronomical Society, capaz de resolver polinomios de segundo grado mediante un método numérico diferencial. Recibió una subvención para construir un modelo más grande, tarea que acabó abandonando por los problemas ocasionados en la fabricación de las piezas y sus ocasionales cambios de diseño para intentar merjorar la máquina.
En 1833, Charles Babbage se centró en un nuevo proyecto: una máquina que tuviera un propósito general, capaz de resolver múltiples problemas matemáticos. La llamaría máquina analítica. Funcionaba a vapor y constaba de un mecanismo de entrada y salida mediante tarjetas perforadas basadas en el modelo de Jacquard, una memoria para 1.000 números de 50 cifras, una unidad de control para que las operaciones se realizasen en el orden correcto y una unidad aritmético-lógiaca para los cálculos. Incluso disponía de un sistema de impresión en papel similar al que se usaba en varias décadas del siglo XX. Este invento es considerado el primer ordenador de la historia. Babbage contó con la colaboración de la matemática Ada Augusta Byron (1815-1852), Condesa de Lovelace e hija de Lord Byron, quien, fascinada por el trabajo del inventor, participó en el patrocinio y la promoción de la máquina analítica, para la cual escribió diversos programas para resolver ecuaciones trascendentes e integrales definidas. De este modo se considera a Ada Byron (también conocida como Ada Lovelace) como la primera programadora de ordenadores del mundo. En su honor se llamó Ada al lenguaje de programación multipropósito desarrollado en 1979 a instancias del Departamento de Defensa de los Estados Unidos, que buscaba estandarizar los numerosos programas que existían.
Charles Babbage murió sin lograr terminar de construir su gran invento, pero sus ideas y diseños sentarían las bases para el desarrollo, décadas después, de los ordenadores modernos.
George Boole (1815-1864), matemático y filósofo británico, hizo público en 1854 un estudio sobre las leyes del pensamiento en las que se basan las teorías matemáticas de la lógica y la probabilidad, aplicando símblos a operaciones lógicas estructurados según el álgebra convencional. Surge así el álgebra de la lógica (álgebra de Boole), que el siglo siguiente sería aplicado en la construcción de ordenadores y circuitos.
Herman Hollerith (1860-1929), ingeniero neoyorquino de origen alemán, consiguió por vez primera automatizar el procesamiento de grandes cantidades de información con la ayuda de un aparato de propia creación: la máquina censadora o tabuladora. En 1879 Hollerith comenzó a trabajar como asistente para la oficina del censo. Ahí pudo comprobar la precariedad del sistema manual que se utilizaba para censar a la población: en 1880 la población de Estados Unidos llegaba a los 50 millones de personas, y el trabajo para hacer el recuento llevó 7 años y medio. Eso le llevó a desarrollar un sistema de cómputo automatizado, y lo hizo diseñando una máquina que utilizaba tarjetas en las que se representaba la información (nombre, dirección, sexo, edad, raza...) mediante perforaciones, que eran detectadas por la máquina, clasificando (tabulando) debidamente la información según la lógica de Boole. El censo de 1890 se logró completar en 2 años y medio, a pesar de que la población había aumentado en más del 20%. En 1896 Hollerith fundó su propia compañía, Tabulating Machine Company, que en 1911 se fusionó con otras dos empresas, formando así la Computing Tabulating Recording Company (CTR), esta a su vez pasa a manos de Thomas Watson en 1914 y, diez años más tarde, en 1924, toma el nombre de International Business Machines (IBM).
3. Primeros avances en el siglo XX.
En el año 1900 se celebró en París el Congreso Internacional de Matematicas, donde el matemático ruso David Hilbert formuló una pregunta clave: ¿existe un método definido que pueda aplicarse a cualquier sentencia matemática y que nos diga si esa sentencia es cierta o no?
En agosto de 1936, Alan Mathison Turing (1912-1954) publicó un artículo que venía a dar respuesta a la pregunta formulada por David Hilbert mediante el concepto de la Máquina de Turing: una máquina teórica que sería capaz de transformar con precisión operaciones elementales previamente definidas en símbolos en una cinta de papel. Prácticamente al mismo tiempo, en Estados Unidos, Alonzo Church (1903-1995) dió a conocer el cálculo lambda, un trabajo equivalente, naciendo así la Tesis de Church-Turing. De esta forma, Turing y Church son considerados unos de los padres de la Ciencia de la Computación y la Inteligencia Artificial.
Basándose en esos fundamentos, el ingeniero alemán Konrad Zuse (1910-1995) construyó en 1938 la Z1, un prototipo de computadora electromecánica de sistema binario que podía ser programada de forma limitada y que usaba relés eléctricos para automatizar los procesos, leyendo las instrucciones de una cinta perforada. No llegó a funcionar correctamente debido a la imperfección de alguna de sus piezas mecánicas. En 1940 concluyó la construcción de la Z2, modelo perfeccionado con relevadores telefónicos, y en 1941 creó la Z3, que disponía de una memoria de 64 palabras, un procesador con dos registros, una unidad de lectura de cinta perforada y una unidad de control que decodificaba una instrucción leída en la cinta perforada y transfería estos datos dentro de la máquina y los dispositivos de entrada/salida. En el bombardeo aliado sobre Berlín en 1944, la Z3 original fue destruida. Konrad Zuse no recibió el apoyo del régimen Nazi, por lo que tuvo que financiarse todos sus proyectos y, en su momento, tampoco obtuvo el reconocimiento del exterior que sí recibieron otros contemporáneos. Aún así, fundó varias empresas propias y, en 1950, realiza la primera venta de un ordenador de la historia, el modelo Z4, a una compañía suiza.
El ingeniero electrónico y doctor en física teórica estadounidense de origen búlgaro John Vincent Antanasoff (1903-1995) es considerado el inventor del ordenador digital electrónico, después de una resolución judicial en la que se vió envuelto indirectamente. Como le ocurrió a Konrad Zuse, Antanasoff quería encontrar una manera de agilizar los numerosos cálculos que debía realizar, así que comenzó a desarrollar ideas para la construcción de una máquina para tal fin, más eficiente y rápida que las del momento. Según relató, Antanasoff concibió la idea final en una taberna de Iowa (invierno de 1937), donde estableció los cuatro principios básicos en los que se fundamentaría su invento: el uso de electricidad y componentes electrónicos, un sistema binario, condensadores como elementos de memoria y un sistema lógico para el cómputo y no la enumeración, como ocurría con las máquinas análogas. La construcción se realizó entre 1937 y 1942, y Antanasoff contó con la ayuda de Clifford Edward Benning, un alumno de ingeniería eléctrica recomendado por un profesor. En diciembre de 1939 habían terminado un prototipo que funcionaba correctamente y al que llamarían ABC (Antanasoff Berry Computer). En 1940, Atanasoff asiste a una lectura del Dr. John William Mauchly y le muestra su máquina. Mauchly copia muchas ideas de la ABC para diseñar junto con John Presper Eckert la ENIAC, considerada la primera computadora digital electrónica del mundo, hasta que en 1967 un litigio entre dos compañías, Honeywell y Sperry Rand Corporation (que había adquirido la patente sobre la ENIAC), provocó que el juez llamara a declarar a Antanasoff, de quien encontró referencias durante el proceso y quien nunca supo del uso de sus diseños por parte de Mauchly y Eckert para el desarrollo de la ENIAC. Tras seis años de litigio entre las dos empresas, el que salió vencedor fue Atanasoff, quien no había demandado a nadie ni tenía interés en el asunto y resultó ser el principal perjudicado por las grandes compañías. El juez Earl R. Larson, de Minneapolis, sentenció el 19 de octubre de 1973 que la patente del ENIAC no era válida.
En 1938 se publicó la tesis del ingeniero eléctrico y matemático estadounidense Claude Elwood Shannon (1916-2001), sobre la teoría matemática de la comunicación, en la que demostró cómo el álgebra de Boole se podía utilizar en el análisis y la síntesis de la conmutación y de los circuitos digitales y cómo la combinación de circuitos podía representar operaciones aritméticas y lógicas complejas, relacionando así lógica y electrónica. Las aportaciones de Shannon serían fundamentales también en el desarrollo de la criptografía y los sistemas de compresión de datos.
En febrero de 1944, el ingeniero estadounidense Howard Hathaway Aiken (1900-1973), financiado por IBM, termina la construcción del ordenador electromecánico MARK I, basándose en los diseños de la máquina analítica de Charles Babbage. Tenía unas dimensiones gigantescas: medía unos 15,5 metros de largo, unos 2,40 metros de alto y unos 60 centímetros de ancho, su peso era de unas cinco toneladas y en su interior se repartía un cableado de unos 800 kilómetros de longitud con casi 3 millones de conexiones. Estaba compuesta por unas 750.000 piezas, cerca de 1500 interruptores rotatorios de diez posiciones. Hacía uso del sistema decimal en lugar del binario, y contenía 72 registros mecánicos, cada uno de los cuales podía almacenar 23 dígitos decimales más un dígito para el signo. Para la compañía IBM fue el comienzo de su larga y de sobra conocida trayectoria como fabricante de ordenadores.
En febrero de 1944, un proyecto secreto británico durante la Segunda Guerra Mundial derivó en la construcción de Colossus, un ordenador digital destinado a leer y descifrar los códigos alemanes, quienes utilizaban la máquina encriptadora Enigma para el envío de instrucciones al frente. Hasta entonces no se había encontrado un sistema de descifrado eficaz contra la máquina alemana. Colossus fue diseñado por el ingeniero británico Thomas Harold Flowers (1905-1998) y estaba compuesta originalmente por 1.500 válvulas electrónicas (tubos de vidrio al vacío), un lector fotoeléctrico que recibía los datos mediante una cinta perforada, poseía una memoria de cinco caracteres de cinco bits, su velocidad de proceso era de 5.000 hercios y empleaba el sistema binario. Tenía unas medidas de 2,25 metros de alto, 3 metros de largo y 1,20 metros de ancho. Hasta el final de la guerra se construyeron varios modelos más de Colossus, contando con la participación de Alan Turing.
4. Primera generación: tubos de vacío (1946-1959).
El 15 de febrero de 1946 se hace una presentación pública en la Universidad de Pennsylvania del ENIAC, acrónimo inglés de Electronic Numerical Integrator And Computer (integrador electrónico numérico y computador). Fue el primer computador digital electrónico de propósito general, construido conjuntamente por el ingeniero John Presper Eckert (1919-1995) y el físico John William Mauchly (1907-1980). Pesaba 32 toneladas y medía 2,40 metros de ancho por 30 de largo. Estaba compuesto por 17.460 válvulas, 7.200 diodos de cristal, 1.500 relés, 70.000 resistencias, 10.000 condensadores y 5 millones de soldaduras, produciendo tal calor que la temperatura de la sala en que se encontraba llegaba a los 50ºC. Disponía de capacidad para resolver en un segundo 5.000 sumas y 360 multiplicaciones, aunque para reprogramarla era preciso cambiar de posición las conexiones de los cables, lo que requería un trabajo muy laborioso. El Ejército de los Estados Unidos hizo uso del ENIAC para el cálculo de tablas balísticas.
En 1951 hace aparición la UNIVAC, acrónimo de Universal Automatic Computer (computadora automática universal), creada por Eckert y Mauchly. Se fabricó comercialmente, siendo vendida a la Oficina de Censos de los Estados Unidos. Estaba constituida por 5.200 válvulas, tenía una velocidad de proceso de 2,25 megahercios y una memoria de 1.000 palabras de 12 caracteres. Su peso superaba las 13 toneladas.
En 1952 se concluyó la construcción del EDVAC, siglas inglesas de significado Electronic Discrete Variable Automatic Computer (computadora electrónica automática de variabe discreta). Diseñada por Mauchly y Eckert, a quienes se unió el matemático húngaro John von Neumann (1903-1957), esta computadora contaba por primera vez con capacidad de almacenamiento de memoria para los programas, lo que evitaba el tedioso trabajo de reconexión que era necesario en la máquina ENIAC. La memoria consistía en líneas de mercurio dentro de un tubo de vidrio al vacío, donde un impulso electrónico podía ir y venir en 2 posiciones, para almacenar los ceros y unos, empleabando así números binarios. Constaba de 4.000 válvulas y 10.000 diodos de cristal, con una autonomía de hasta 8 horas sin errores. Disponía de un lector-grabador de cinta magnética.
5. Segunda generación: circuitos transistorizados (1957-1964).
El transistor (palabra surgida por la contracción de Transfer Resistor), elemento de silicio o germanio inventado por los Laboratorios Bell Telephone en 1947, acabó sustituyendo a los tubos de vacío (o válvulas), debido a la gran diferencia de sus prestaciones: tamaño minúsculo, menor coste y menor consumo eléctrico, generando así también menos calor. La vida útil del transistor no tiene comparación tampoco, ya que es prácticamente ilimitada, mientras que las válvulas debían ser reemplazadas con mucha frecuencia. Las primeras computadoras construidas completamente a base de transistores fueron introducidas por las compañías NCR (NCR 304, en 1957) y RCA (RCA 501, en 1958). Sin embargo, IBM creó los modelos más populares, logrando una cuota de mercado del 70% en la década de los 60. El primer modelo de IBM que empleaba transistores fue el IBM 7090, creado a finales de 1958.
Durante el período que engloba la segunda generación tiene lugar también la ampliación de las memorias internas, la generalización del concepto de arquitectura modificable y el uso de periféricos de gran masa de memoria como los tambores y discos magnéticos. Aparecen los lenguajes ensambladores que traducen las instrucciones del código máquina, llegando a generar ya lenguajes de alto nivel como:
FORTRAN, contracción de las palabras inglesas Formula Translator (traductor de fórmulas), lenguaje empleado sobre todo en aplicaciones científicas, fue desarrollado entre 1954 y 1957 por la compañía IBM.
LISP, acrónimo de LISt Processing (procesamiento de listas), creado en 1958 por John McCarthy en el Instituto Tecnológico de Massachusetts (MIT). McCarthy introdujo en 1956, en una conferencia en Dartmouth, el concepto de Inteligencia Arificial.
COBOL, acrónimo de COmmon Business Oriented Language (lenguaje común orientado a negocios), orientado hacia la informática de gestión empresarial y que se desarrolló con la intención de lograr un lenguaje estándar, debido a las múltiples incompatibilidades de los equipos de la época.
ALGOL, que proviene del inglés Algorithmic Language (lenguaje algorítmico). Su uso era bastante extendido en las universidades pero no tuvo aceptación como lenguaje de utilización comercial.
En 1963 el Comité Estadounidense de Estándares (ASA, que en 1969 tomaría el nombre de Instituo Estadounidense de Estándares Nacionales, o ANSI) aprueba el código ASCII, acrónimo inglés de American Standard Code for Information Interchange (código estándar americano para el intercambio de información), basado en el uso anglosajón del alfabeto latino. Su origen se encuentra en los conjuntos de códigos usados hasta entonces en telegrafía. En 1967 se incluyeron las minúsculas, y se redefinieron algunos códigos de control para formar el código conocido como US-ASCII.
6. Tercera generación: el circuito integrado (1964-1974).
En 1959, el ingeniero eléctrico estadounidense Jack St. Claire Kilby (1903-2005) inventó el circuito integrado monolítico cuando trabajaba para la empresa Texas Instruments, logro que sentó los cimientos conceptuales y técnicos para todo el campo de la microelectrónica y que en los años 80 llevaría al desarrollo de los microprocesadores. El invento original de Kilby era un dispositivo creado con un monocristal de germanio que integraba seis transistores en una misma base semiconductora para formar un oscilador de rotación de fase. Esto permitió por un lado abaratar costos y por el otro aumentar la capacidad de procesamiento reduciendo el tamaño físico de las máquinas. Por su contribución al desarrollo de la tecnología de la información, en el año 2000 Kilby fue galardonado con el Premio Nobel de Física.
Se considera como inicio de la tercera generación el año 1964, cuando el 7 de abril se presenta el IBM S/360, construido con un circuito integrado de pequeña escala, con la posibilidad de elegir entre seis modelos (30, 40, 50, 60, 62 y 70) de diferentes prestaciones con compatibilidad de software y periféricos. Tenía la capacidad de realizar tanto análisis numéricos como administración y procesamiento de archivos y contaba con unidades de cinta magnética de nueve canales, paquetes de discos magnéticos y otras características que ahora son estándares. La serie 360 fue la primera también en utilizar un Sistema Operativo, el OS/360, en diferentes versiones según el modelo, dotando así a la máquina de capacidad de multiprogramación, al permitir ejecutar más de un programa simultáneamente.
Durante el período que representa la tercera generación se estandarizaron los lenguajes de programación más utilizados como el FORTRAN (1966), el ALGOL (1968) y el COBOL (1970). También aparecieron lenguajes nuevos, como el BASIC (1964) o el PASCAL (1970).
A finales de la década de los sesenta comienzan a aparecer ordenadores de tamaño mediano, menor coste y mayor facilidad de manejo, las entonces llamadas minicomputadoras, con circuitos de mediana escala (MSI), destinadas a abastecer la demanda de medianas y grandes empresas. Se distribuían en varias terminales organizadas en redes. La ya desaparecida empresa DEC (Digital Equipment Corporation) dominaba el mercado de estas máquinas con sus series PDP-8 y PDP-11.
El 21 de noviembre de 1969 se realiza la primera interconexión de computadoras a través de una red, entre la Universidad de California y el Instituto de Investigaciones de Stanford. Fue un proyecto llamado ARPANET (Advanced Research Projects Agency Network), desarrollado por la DARPA (Agencia de Investigación de Proyectos Avanzados de Defensa). El 5 de diciembre de ese mismo año lograron interconectar cuatro nodos: el Instituto de Investigaciones de Stanford, la Universidad de California de Los Ángeles, la Universidad de California Santa Bárbara y la Universidad de Utah.
1969 es la fecha también del desarrollo final del sistema operativo UNIX, cuyas siglas provienen de UNiplexed Information and Computing System, ejecutado por primera vez en 1970 en una máquina PDP 11/20. El proyecto estaba liderado por el científico Kenneth Lane Thompson y el físico Dennis MacAlistair Ritchie, quien escribiría en 1972 el lenguaje de programación C para el sistema, lo que le daría portabilidad para ser instalado en diferentes ordenadores, con unos pequeños cambios.
En 1973, el presidente de Intel, Gordon Moore, postula la famosa ley de Moore que predecía que el número de transistores en las CPU se duplicarían cada 18 meses, lo que se fue cumpliendo durante más de 20 años.
7. Cuarta generación: el microprocesador (1974-...)
La cuarta generación de ordenadores se considera iniciada con la aparición del microprocesador, invento que permitiría luego la creación del ordenador personal (PC). En 1974, la empresa estadounidense Intel Corporation presentó el modelo de microprocesador 8080. Contenía 4.500 transistores y podía manejar 64k de memoria RAM a través de un bus de datos de 8 bits. El 8080 fue el cerebro del primer ordenador personal (PC), el Altair 8800, fabricado por la compañía MITS (Micro Instrumentation Telemetry Systems), promoviendo un gran interés en hogares y pequeños negocios a partir de enero de 1975, cuando apareció publicitada en la revista Popular Electronics y se vendía como un kit. El primer modelo no contaba con monitor ni teclado, tan sólo con luces LED y pequeñas palancas o switches para facilitar la programación. La información era almacenada en cassettes de grabadoras y era visualizada en aparatos de televisión. El primer lenguaje de programación para la máquina fue el Altair BASIC, escrito por William Henry Gates y Paul Allen, quienes inmediatamente después fundarían Microsoft. El Sistema Operativo que utilizaba el Altair 8800 era el CP/M (Control Program for Microcomputers), escrito por Gary Kildall.
En 1976, los amigos y aficionados a la electrónica Steve Wozniak (entonces ingeniero en Hewlett-Packard) y Steve Jobs (que trabajaba en Atari) fabrican en el garaje de su casa la microcomputadora Apple I. Steven Jobs convenció a Wozniak (que se encargó de la construcción) para continuar la fabricación para la venta al público y, así, en abril de 1976 nació la empresa Apple Computers. El Apple I se construía manualmente, y no llegó a ser vendido masivamente, pero con el desarrollo a partir de 1977 del Apple II, la compañía de Wozniak y Jobs llegó a tener una alta cuota de mercado, solamente superada por IBM.
En 1978 aparece la primera aplicación para procesar textos (WordStar), diseñada para el sistema operativo CP/M, poco después estaría disponible también para el DOS, y sería el precursor de WordPerfect. Un año después, en 1979, vio la luz VisiCalc, la primera hoja de cálculo, desarrollada por Dan Bricklin para el Apple II.
En 1980 Tim Paterson, programador de SCP (Seattle Computer Products), desarrolló un sistema operativo conocido como 86-DOS (Disk Operating System, sistema operativo de disco). En un principio se le llamó QDOS (Quick and Dirty Operating System, sistema operativo rápido y sucio), se basaba en el CP/M para un procesador Intel 8086. Acabaría siendo comprado por 50.000 dólares por Microsoft, empresa encargada por IBM para la creación de un sistema operativo para su novedoso modelo IBM PC, proyecto que Microsoft no fue capaz de cumplir, por lo que reescribió para tal fin el QDOS, convirtiéndose así en el PC-DOS para los modelos de IBM y MS-DOS para otras marcas a las que suministraría Microsoft el producto. En 1984 eran ya 200 las marcas que habían adquirido una licencia de MS-DOS, lo que supondría el principio del casi-monopolio de Microsoft. IBM, por su parte, acrecentó su liderazgo en el mercado con su PC (Personal Computer, ordenador personal), vendiendo más de 65.000 unidades el primer año y acercando la figura del ordenador a la sociedad y a los hogares con los modelos sucesivos.
La privatización masiva que estaba sufriendo el software en la época llevó a Richard Matthew Stallman a desarrollar, a partir de 1983, un proyecto de creación y difusión de software libre, denominado GNU (acrónimo de GNU is Not UNIX, GNU no es UNIX). Su finalidad era el desarrollo de un sistema operativo totalmente libre. En 1985 promovería el nacimiento de la FSF (Free Software Foundation, fundación para el software libre).
En noviembre de 1985 aparece la primera versión del sistema operativo Windows (1.0), que posibilitaba el uso de una interfaz gráfica para los PC's de IBM, que desde hacía un año ya ofrecían los modelos Macintosh (Mac) de Apple. El precio de Windows 1.0 era de 100 dólares de la época. Microsoft siguió lanzando al mercado sucesivas versiones del sistema operativo, como Windows NT (1992), Windows 95 (1995), Windows 98 (1998), Windows 2000 (2000), Windows XP (2001) y Windows Vista (2007). Actualmente se estima que alrededor del 95% de los ordenadores usan alguno de estos sistemas operativos.
1992 fue el año de dos grandes eventos. El desarrollo, por parte del ingeniero informático finlandés Linus Benedict Torvalds del sistema operativo Linux, cuyo código fuente es de libre acceso, supuso un hito para el movimiento del software libre, y el sistema sigue en uso actualmente gracias, sobre todo, a las constantes mejoras y cambios del código por parte de los programadores de todo el mundo, surgiendo así también diversas versiones. El otro hecho digno de mención de ese año fue la presentación pública del sistema global de hipertextos iniciado por el físico inglés Timothy John Berners-Lee mientras trabajaba en proyectos de investigación en el CERN de Ginebra (Conseil Européen pour la Recherche Nucléaire, consejo europeo para la investigación nuclear), denominado world wide web (www), desarrollándose así Internet tal y como lo conocemos hoy en día. Surge así una nueva era de comunicación para la humanidad, que acabaría por estar interconectada globalmente.
Suscribirse a:
Entradas (Atom)