Después de hablar de qué es el Software Libre y sus libertades, y de la breve introducción a la serie, hablaremos en primera instancia de GNU/Linux, pero claro, por partes: primero GNU y luego Linux. Así que vamos a ello…
GNU es una base operativa incompleta, un primo pequeño de los antiguos Unix, desarrollados en los años 60 por el gigante telefónico AT&T. La pretensión de GNU es y ha sido siempre la creación de un Sistema Operativo libre y funcional que fuese como Unix sin ser Unix. La mayoría de los sistemas libres que existen hoy día están basados en Unix, por lo que la historia de este sistema operativo estará muy presente a lo largo de la serie.
Pero paremos un momento para explicar qué es un sistema operativo: éste es un paquete completo de programas que permiten utilizar un aparato electrónico – si bien, por no liarme mucho, de momento hablaré solamente de ordenadores -. Cuando el ordenador se enciende, los principales y más básicos programas del Sistema Operativo se ponen a funcionar y hacen que el resto de programas necesarios se ejecuten también. Resumiendo, dentro de los programas de un sistema operativo se encuentran tres tipos de programaciones básicas: núcleo, librerías y herramientas.
A estos tres elementos básicos debemos unir un “encendedor”, o gestor de arranque, que se ejecuta en primer lugar cuando se enciende el ordenador y hace que los otros elementos se pongan a funcionar. Una vez arrancado, el núcleo controla la comunicación de las herramientas con el hardware – es decir, todas las entradas y salidas de datos pasan por él -, las librerías incluyen sub-programas, variables y algoritmos utilizados tanto por el núcleo como por las herramientas, y las herramientas, finalmente, dan utilidad al sistema. Estos elementos desarrollan las cuatro tareas básicas del sistema: gestionar recursos, gestionar ficheros, gestionar automatismos e iniciar la interfaz de usuario.
Como decimos, el Sistema Operativo incluye una interfaz de usuario que, simplemente, permite al usuario utilizar el ordenador incluyendo varias herramientas básicas, como editores de texto, sistemas de automatización de tareas y control de actividades, u ordenes con las que obtener información del sistema. Así pues, como sistema operativo libre, GNU pretende incluir toda esa programación mientras cumple las libertades básicas del software libre, de las que ya hablamos en el artículo anterior.
La idea de GNU se le ocurrió a Richard M. Stallman, fundador al mismo tiempo de la FSF. Al parecer, tenía problemas con el programa controlador de una impresora y, cuando solicitó la fuente para modificarla, la empresa propietaria de la impresora le dijo que de código fuente ni hablar. Dice el mito que se rebotó tanto Stallman que se le ocurrió crear un sistema operativo completo con Software Libre, al que llamaría GNU, como el animal (Ñu en castellano), siendo a su vez el acrónimo recursivo de “Gnu is Not Unix” (“Ñu no es Unix”), ya que en el momento Unix era un sistema muy extendido, comercial, y cuya propiedad no estuvo muy bien llevada en los primeros años de su existencia, acabando en pleitos a principios de los ’90 – y después, a finales de los ’90 -.
Cuando Richard M. Stallman dio a luz al proyecto GNU, en 1983, no existía alternativa libre a Unix y las versiones del sistema, ya fuesen de AT&T o de terceras partes licenciadas, eran muy costosas. Era el momento perfecto para crear un clon de Unix que no fuese Unix y cuya propiedad fuese distribuida y no cerrada. Pero hablemos un poco más de Unix para conocer bien el contexto histórico…
Unix nació en los 60 como una respuesta para los problemas de seguridad propios de sistemas previos (hasta entonces se usaba en AT&T uno de los primeros sistemas operativos funcionales, Multics, que daría nombre a Unix por derivación). Seguramente hoy no llamaríamos ordenadores a aquellas máquinas que utilizaron para desarrollar Unix – sino más bien cacharros -, pero de aquella experiencia, que en realidad nació básicamente para jugar a los marcianitos – eso dice el mito -, los desarrolladores Ken Thompson y Dennis Ritchie, empleados de AT&T, crearon el primer sistema operativo multitarea – capaz de ejecutar más de un programa a la vez -, pensado como una solución no tanto enfocada al usuario sino a la lógica de cómo debía ser un sistema operativo simple en su estructura. Esto llamó la atención de AT&T. La primera versión “estable” de Unix de la que se tiene constancia es de 1970, que incluía, aparte de su propio sistema de ficheros (no era necesario adaptar el sistema operativo al sistema de ficheros que utilizara el equipo), un formateador de textos y un editor simple de texto (el precursor del que hoy día se llama Vi).
Aún había algo a superar: Unix estaba desarrollado en lenguaje Ensamblador. Este lenguaje es el lenguaje de ejecución directo de un modelo de procesador concreto, y cada tipo de procesador tiene su propio lenguaje Ensamblador, por lo que Unix, de momento, solo se podía ejecutar en un tipo de ordenador. Así, en 1972 se decidió escribirlo en lenguaje C, lenguaje el cual fue creado por Thompson y Ritchie intencionadamente para portar Unix (y que es el lenguaje en el que están escritas la mayoría de las aplicaciones GNU), de modo que fuese posible utilizar un intérprete de C[1] en cualquier ordenador, para así “construir” el programa en lenguaje de ejecución binario desde el código fuente.
Éste es el proceso conocido como compilación, ya que compila los diversos archivos del código fuente en un solo archivo de código binario. Con esto, se daba un impulso al desarrollo de Unix, que ya era más sencillo, claro, conciso, y fácil de modificar para más programadores. Unix ya era multitarea – podía ejecutar varios programas a la vez -, multiusuario – podía ser usado por varias personas a la vez – y portable – podía adaptarse a varios tipos de ordenadores -.
Y aquí es cuando el devenir de Unix llevaría a los problemas de los ’90: AT&T empezó a licenciar Unix para distintas instituciones públicas y empresas privadas, que modificaron Unix a su antojo y según la licencia. Pero, claro, en ocasiones las modificaciones alteraban tanto el producto inicial que muchas empresas e instituciones terminaron creyendo que la distribución Unix que habían creado respecto de la licencia original podía ser de su propiedad. De los desarrollos más famosos hoy día, y aún vigentes, de aquel Unix original de los ’70, tenemos que tener en cuenta sobretodo a los desarrollos de la Universidad de Berkeley – que fue la que más problemas legales tuvo con AT&T a principios de los ’90 -. Mientras tanto, AT&T seguía desarrollando las versiones oficiales de Unix.
Las versiones de Unix fueron valoradas por AT&T y los desarrollos propios de otros se incluyeron en la versión System V (V de 5) de Unix. De este modo, AT&T pretendía acabar con la confusión de versiones de Unix que habían aparecido en los ’70 – por ejemplo la de Western Electric, empresa que formaba parte del conglomerado de empresas de AT&T -. Nos encontramos entonces en 1983, y hasta Microsoft, una empresa entonces muy joven y pequeña, tenía su propio sistema operativo Unix (Xenix) que fue desarrollado junto con Santa Cruz Operation en lo que terminaría siendo SCO Unix con licencia propia obtenida de AT&T.
También la Universidad de Berkeley, después de casi 10 años de desarrollo de versiones propias de Unix, continuaba el desarrollo su distribución, creada en 1977 sobre Unix Sexta Edición – primera versión de Unix que salió fuera de AT&T -, y llamada BSD (“Berkeley Software Distribution” o Distribución de Software de Berkeley). Pero todavía seguían utilizando propiedades de AT&T por las que debían pagar licencias.
Y en esa tesitura crece la alternativa libre de GNU: cada vez más gente era consciente de que era necesario un Unix, porque Unix era lo que todo el mundo usaba y su estructura se basaba en la simple lógica, que fuese libre y que se hiciera desde el principio completamente nuevo. Hacía falta un unix que no fuese Unix. Hacía falta GNU, ya que Gnu No es Unix.
Y GNU No es Unix porque Unix era de AT&T, mientras GNU está licenciado con GPL, la Licencia Pública General de GNU que convierte al software en Software Libre e impide que se pueda utilizar el código de ese software dentro de otro paquete de software licenciado de otra forma. Es decir, el software licenciado con GPL no puede re-licenciarse: sólo puede utilizarse con GPL en lo que algunos – los críticos con la GPL, sobre todo usuarios de sistemas BSD – llaman “clausula vírica” porque el montante de software licenciado con GPL solo crece y “contamina” a todo aquel software que utilice partes con GPL. De este modo todo el mundo puede ejecutar, leer, modificar y re-distribuir el software.
Todo lo que fuese a parar a GNU sería siempre GPL, lo cual, desde mi punto de vista, suponía (y supone hoy día) una ventaja social increíble y a la vez un cúmulo de discusiones ridiculas con las que pasar el rato. De hecho, rápidamente, y aparte de algunas librerías básicas, Stallman tenía un editor de textos listo para utilizar dentro de GNU sin tener que recurrir al Vi de Unix ni a ningún clon parecido: Emacs, que sería protagonista durante años junto con un clon libre de Vi de las guerras de editores de texto, en las que los usuarios perdían el tiempo discutiendo sobre las implicaciones de usar uno u otro editor. De hecho, debo decir que personalmente utilizo todos los días una versión del clon libre de Vi y que, entre los que usamos Vi y los que usan Emacs nos miramos raro… y es que Emacs es raro de usar…
A la vez, la paz jurídico-informática que suponían GNU y su GPL dentro de todo el lio de licencias que se vivía en los ’80 atrajo a muchos “gurús” – hackers, que nada tienen que ver con los delincuentes telemáticos de los que hablan los medios de comunicación – que se pusieron como locos a desarrollar y mantener aplicaciones. Entre ellos surgió una especie de broma sobre una supuesta religión GNU de la que su creador, Richard M. Stallman, debía ser una especie de santo, el santo de GNU, San IGNUtius. Hablamos de un mundo de frikis a los que, entre otras cosas, se les va la olla con las bromas – es algo que vivo en el día a día: la cosa se queda en broma, pero se lleva hasta el extremo -. Y entre ellos, al que más se le va la olla es al propio Stallman…
En fin, después de la pausa cómica, recuerdo que estamos a mediados de los ’80 y GNU está empezando a crecer, ya que después de Emacs vendrían el resto de distintas herramientas y librerías para lo que sería el sistema operativo libre basado en Unix que debía ser.
Eso si, herramientas y librerías, pero faltaba el núcleo…
Referencias:
- GNU en Wikipedia
- Unix en Wikipedia
- BSD en Wikipedia
- Lenguaje C en Wikipedia
- Historia de Emacs en Wikipedia
- en realidad un compilador, porque un intérprete es otra cosa [↩]
The Sistemas Operativos Libres: GNU by Manuel Méndez Gago, unless otherwise expressly stated, is licensed under a Creative Commons Attribution-Noncommercial-No Derivative Works 2.5 Spain License.
{ 22 } Comentarios
Sigue así!
quiero más!!! quiero más!!! me has dejado en ascuas. Ojalá me hubiesen explicado así en clase de SO.
Y porque no habéis visto a Stallman cantar… xD
PS: del artículo, echo en falta la célebre impresora de RMS :’(
Por cierto: Vi, siempre Vi, para siempre Vi… jejeje
@BooT Loos
También, también xD
Aisss, si es que leemos a toda prisa eh…:
Buen artículo.
A ver… El artículo es bueno, pero adolece de falta de información sobre lo que de verdad se cocía en aquéllas (lejanas) épocas. Y en éstas, que demonios!!.
ATT UNIX no fué el primer sistema operativo multitarea, ni mucho menos. Sperry-UNIVAC, en 1970 ya vendía ordenadores UNIVAC-1100 con hasta 6 CPUs y 4 canales de E/S, con sistema operativo DMS; competía duramente (y perdiendo) con IBM y sus Sistemas MVT y OS/VS1 y con otros como NCR, Burroughs, etc; a finales de los 60 ya se comenzó a comercializar los sistemas IBM 370 (diseñados por Amdahl), y sobre el 72 ó 74, también el nuevo sistema MVS. Por cierto, el proyecto de desarrollo del Sistema MVS fue el más complejo hasta ese momento (unos 3500 años/hombre), y su Director, Fred Brooks, explicó su experiencia en el famoso libro “El Hombre/Mes Mítico”, donde ya nos indicó aquello tan conocido y siempre olvidado de que “Añadir más recursos a un proyecto retrasado sólo consigue retrasarlo más”.
ATT (American Telegraph & Telephone) comenzó el desarrollo de UNIX para facilitar la programación de las incipientes centrales telefónicas de la época, nunca pensando en ordenadores de propósito general. Luego, ya que estaba aquí, se fué usando más y más en los llamados “miniordenadores” de los años 80 (Digital VAX, NCR Tower, HP, Sun, IBM RS/6000, etc). Cada fabricante le adquiría una licencia a ATT para “ajustarla” a su hardware específico, y de paso, “mejorarla”. Así aparecieron el Digital UNIX, HP/UX, AIX, Solaris, etc. Todos ellos eran “UNIX”, pero todos ellos eran… incompatibles entre sí. El mantra de marketing de los fabricantes era siempre… “Mi UNIX es más UNIX que el UNIX de los demás”. Migrar una aplicación de un sistema a otro era un dolor de cabeza. Acabamos todos hartos. Y eso le ha costado la muerte comercial a UNIX, no otra cosa. Un problema comercial y de soporte, no de especificaciones.
Otra cosa, UNIX nunca ha sido “lo que todo el mundo usaba”. Tampoco Windows lo es ahora. La irrupción de la informática personal, y su enorme impacto en nuestras vidas, nos hacen pensar que “lo que no está en PC no existe”. Es una opinión fuertemente compartida por mucha gente, tanto del entorno del software libre como del propietario (Microsoft, mayormente). Pero es que no es verdad.
Resulta que prácticamente todos los Sistemas Importantes están basados en otras máquinas y otros Sistemas. Los sistemas z/Series de IBM, con su sistema Z/OS (o como se llame ahora, porque lo cambian de nombre cada año o dos), que no es ni más ni menos que MVS con las modificaciones pertinentes, prácticamente monopolizan los sistemas informáticos de Bancos, Telefónicas, Aseguradoras, Haciendas, Eléctricas y todas las grandes compañías y administraciones, no sólo de España, sino del mundo. Su fiabilidad es INMENSA, su seguridad, gigantesca, su disponibilidad, casi inagotable, y su rendimiento, inenarrable y completamente increíble para cualquiera acostumbrado al mundo LINUX/Windows.
Algún breve dato: - Número de arranques que hay que hacer al ordenador al año: 1 (generalmente en Navidad), utilizado para permitir que se reestructuren las librerías, porque si no, ni eso. - Número de usuarios simultáneos utilizando el ordenador en TSO (time sharing): Entre 800 y 1000. - Número de iniciadores batch (o sea, procesos de usuario ejecutándose simultáneamente): Entre 400 y 600. - Número de transacciones diarias: Entre 8 y 10 millones. - Porcentaje de utilización de la CPU: 100% contínuo (Y NO SE CAE!!!: Número de caídas anuales: Cero) - Número de CPU’s: 12. - Almacenamiento en disco que controla: 60 – 100 TB. - En qué se programa (en un 80%): En Cobol.
No nos engañemos: el mundo gira gracias al vetusto MVS.
Quitando estas cosas, lógicas para quien no está familiarizado, el artículo es muy bueno, que conste. Felicidades.
Muy buenos posts!!!
Macluskey:
La filosofía de la serie es la de El Tamiz, a saber, “Antes simplista que incomprensible”. Esa es la razón de usar expresiones como “Unix era lo que todo el mundo usaba”, o el motivo de que MVS – que por otra parte, por lo que tengo entendido, no fue multitarea hasta los 80 – no se nombre en toda la serie. Aparte, es una serie únicamente sobre sistemas operativos libres, por lo que no es necesario “subir” por encima de Unix. En todo caso Unix es el primer sistema operativo multitarea que llegó al mercado general.
Por otra parte, puedo asegurarte que he encontrado varias referencias en las que se habla de que Thomson solo quería re-programar un juego “matamarcianos” cuando comenzó el desarrollo de Unix…
Recuerda, en todo caso, que este artículo es sobre GNU.
Vale, vale, Manuko, ya he dicho que el artículo es muy bueno, y lo repito.
Unicamente es que me encuentro, permanentemente, con personas (con informáticos de carrera, y profesionales de la informática, incluso) que ignoran todo acerca de la historia de la informática. Parece que, fuera de los PC’s (por grandes que sean) no existe nada; he oído muchas veces llamar despectivamente “dinosaurios” a las personas que trabajan con los grandes mainframes, y esto está pasando últimamente incluso con la gente que trabaja con los mainframes, que ya es decir (y lo digo con conocimiento de causa, créeme).
Estoy en condiciones de afirmar que, en 2008, el Único Sistema Operativo que merece tal nombre, es el MVS (o z/OS, o lo que sea), que por cierto te puedo asegurar que era multitarea desde el principio de su concepción (de hecho, MVS significa “Multiple Virtual System”), pero es que ya el OS/VS1 de 1965 lo era, y el OS/VS2 también, y en otras marcas, desde luego. En 1974 yo trabajaba en un Banco Grande del País que convirtió ese año su NCR-Century 200 con 32 Kb y sistema operativo B1 monotarea en un B3 multitarea, vía poner 32 Kb más de memoria. Y otros compañeros de la Carrera trabajaban en otras empresas que ya tenían IBM/370 con MVS y un auténtico monitor de teleproceso, el primero que hizo IBM y precursor del CICS, de nombre “PCL”, que significa… Programa de Control de Líneas, en español, dado que fue parido y escrito en Barcelona. Curioso, ¿no?
Como decía antes, un Sistema Operativo Serio (el que maneja tus cuentas bancarias, tus accesos al Cajero automático, tus reservas aéreas o tus llamadas y mensajes telefónicas, o sea, los Sistemas que de verdad mueven el mundo), no se puede permitir el lujo de hacer un rearranque cada vez que alguien instale un programa para cualquier cosa, ocuando una aplicación programada por cualquier cateto casque. Cualquier sistema operativo que tenga incrustado en su diseño el que haya que apagar y encender de nuevo para instalar un nuevo dispositivo o programa, no merece la denominación de Serio. En mi opinión, claro, aunque supongo que también en la de todos aquellos que prefieran no tener sorpresas con los saldos de sus cuentas, etc, etc.
Claro que, a cambio, es muy barato, realmente barato, comparado con la millonada que cuesta un MVS, que además, IBM no vende: lo alquila. La relación calidad/precio de los sistemas LINUX en general, y también de Windows, es excelente, desde luego. Por unos pocos dólares o euros, no se puede pedir la perfección. Lo que cuesta, a cambio, es una pantallita azul (o del color que sea) de vez en cuando, y lo que has perdido, perdido queda.
Repito: muy buen artículo. Que quede clara mi opinión, que, sin falsa modestia, creo que es fundada.
Saludos
Hombre, aquí obviamente no estamos hablando solamente de PC’s, de hecho por alguna parte he dicho eso de que un sistema operativo es necesario para cualquier artilugio electrónico – aunque sea en la más simple forma de Firmware -, pero, claro, me parece igual de irrelevante hablar de UniVACs, Mainframes posteriores, Clusters, Máquinas Virtuales (que ya están aquí, en donde trabajo nos dedicamos precisamente a ellas) u otras modalidades de sistemas de alta disponibilidad.
Por cierto, MVS, que yo recuerde, es “Multiple Virtual Storage”, y no incluía multitarea hasta que se le incluyó MST (o algo así) en los ’80, aunque me suena que el MST este era previo a MVS, por lo que claro que antes de Unix y MVS había multitarea, solo que esos vetustos sistemas multitarea lograban esa característica a través de mecanismos de tiempo compartido, por lo que no se puede hablar de multitarea real. Hasta que no llega el microprocesador – poquitos años antes del nacimiento de Unix-, no se puede hablar de multitarea real. En todo caso, debo quitarme el sombrero porque yo todo esto lo se de haberlo leido, mientras tú lo sabes de haberlo vivido…
Huelga decir, en todo caso, que te agradezco tanto la información que comentas como las felicitaciones
Muy bueno el articulo oiga,
pero cuando los hispanohablantes nos referimos a las “librerias” y los “ficheros” no venimos a decir lo mismo que los que acuñaron estos terminos metaforicos. Si alguien algoparlante se refiere a una “library” no se imagina un tipo vendiendo libros dentro del ordenador sino mas bién una biblioteca (que es la traducción del término). Lo mismo con “file” que no es una ficha donde sale tu nombre y la foto del careto sino un archivo donde pueden haber multitud de cosas.
Disculpad por el rollo pero eso me lo incrustaron en la cabeza hace muchos años y me pongo loco cuando oigo lo contrario
Saludos
@ Pelilla,
En primer lugar, no creo que hubiera sido una buena idea meterse en esos derroteros en el artículo — Manuko ha utilizado los nombres que usa todo el mundo, y me parece que es lo más adecuado. Otra cosa es que se pueda escribir un artículo específico sobre la corrección o incorrección de los nombres.
Eso sí, tal vez te sorprenda, pero en el DRAE aparece una de las acepciones de “librería” como “biblioteca”, de modo que traducir “library” como “librería”, aunque sea confuso en algunos contextos (yo no lo haría al hablar del lugar donde se prestan libros), es estrictamente correcto. Y en el caso de la informática no le veo el menor problema…
Pelilla, yo por libreria entiendo o imagino una estantería llena de libros, y si están a la venta o no, no me preocupa. En cuanto a fichero, sugiere una especie de cajón en donde puedes meter muchas cosas.
No está tan lejos de la realidad, no?
Respecto a “fichero” estoy con joel — no tiene por qué ser el careto de nadie, sino el lugar donde se almacena información (por cierto, el significado informático aparece ya en el DRAE, “Conjunto organizado de informaciones almacenadas en un soporte común”)
Bueno, Manuko, no tiene sentido crear polémica, pero te aseguro que MVS (que, tienes razón, es Multiple Virtual Storage, no “System”, es que uno se ha aprendido tal cantidad de siglas a lo largo de su vida que ya las confunde todas) fué multitaera desde su concepción, es más, el OS/360 (creado 10 años antes) lo era ya, y los sistemas operativos de la competencia lo eran también en esa época. Así, el UNIVAC 1100 era el práctico monopolizador de los sistemas de reservas de líneas aéreas, con un sistema específico para ello que se llamaba ARCO, creo recordar.
Otro ejemplo en primera persona: En 1972 ó 1973, cuando yo empezaba la Carrera de Informática (por entonces ni siquiera era Carrera, sólo se convirtió en Licenciatura en 1977, si no recuerdo mal las fechas; el por qué se convirtió en “Licenciatura” y no en “Ingeniería” requeriría un post entero para explicarlo), en el “Centro de Cálculo” de la Universidad Complutense (situado enfrente de Ciencias Exactas, que era así como se llamaba entonces), estaba recién instalado un ordenador IBM/360 con OS/VS1, creo recordar, que fue donado por una gran empresa española cuando lo sustituyó por un nuevo IBM/370 y se quedó obsoleto. El ordenador donado tenía la increíble cantidad de 512 Kb de memoria (¡Media Mega!), lo que le permitía tener algo así como seis u ocho particiones (una barbaridad para la época). He pasado yo allí cientos de programas (la mayoría en Fortran, y desde luego todos en fichas perforadas) porque en el que nos dejaban hacer prácticas en el Instituto de Informática (ése era su nombre), que era el del Ministerio de Educación y Ciencia (un Univac 1100 con DMS) sólo podíamos pasar una práctica al año. UNA. Al año.
¡Qué viejos somos algunos, y cuánto ha cambiado esto!!
Eso sí, lo de vivir en primera persona toda la historia de tu profesión te da una gran amplitud de miras y relativizarlo todo… Os aseguro que prácticamente todo lo que aparece en nuestra profesión diariamente como un gran avance, ha sido ya inventado hace muchos años. ¡¡Cosas del marketing!!
Saludos, y espero tus nuevos capítulos, que serán igualmente interesantes.
@ Macluskey,
Si llego a saber que eras un viejete te hablaría con más respeto
Creo que hablo en nombre de todos cuando te pido que, en tu senectud, encuentres tiempo para escribir sobre cómo eran las cosas y cómo han ido cambiando desde la primera persona, ¡sería fascinante! ¡fichas perforadas!
Siento la coña, pero reconocerás que era inevitable
@Pedro: Ja, ja, ja…. ¡Con más respeto, dice! Ja, Ja, ja…. Pues como no me llames de usía, o de vuecencia, o de indecencia, …
No, no, está bien como está, te lo aseguro, Pedro. Además, soy un vejete con espíritu de chaval. Este blog es una delicia, gracias a ti y tus comentantes, y es el primero que abro cada día, antes de siquiera mirar si pasa algo interesante en el mundo.
Me pensaré eso que me dices, pero dudo que tenga mucho interés los desvaríos de un vejete desdentado de cuando se parcheaban los programas en código binario, ya que compilar un programa tardaba más de veinte minutos… ¡en monoprogramación!!
Por cierto (y perdón por el off-topic), me he intentado registrar en un par de ocasiones en el foro y no he recibido el email que me promete el sitio cuando termino; no sé si es mi emilio que está tonto (que sí) o hay algo más (que quizá también). Igual te aparece ya registrado mi nombre y por eso no me deja; si es así, si no te importa lo borras y lo vuelvo a intentar, a ver si así…
Saludos
Macluskey, ya disfruté sobremanera tus comentarios sobre la influencia del Efecto Túnel en los microprocesadores en el último ártículo de “Cuántica sin fórmulas”.
Lo mismo digo de los de ahora. Entre Manuko (gracias por la serie, Manuko) y tu me habeis dejado un buen sabor de boca esta mañana.
“…dudo que tenga mucho interés los desvaríos de un vejete desdentado…” No sé que pensarán los demás pero yo desde luego estoy muy interesado en tus desvaríos. Una serie histórico-técnica-biográfica en primera persona sobre la evolución de la informática no tiene precio.
En mis tiempos de estudiante compraba una revista llamada “Sólo Programadores” (no sé si existe aún, y no trato de hacer publicidad). Los primeros números incluían siempre un artículo en el que el autor se remontaba hacia atrás en el tiempo para contar sus vivencias y analizar las cosas con perspectiva. Pasado el primer año suprimieron esa sección y la llenaron de cursos de C++, Visual Basic y demas zarandajas… Dejé de comprarla.
Tus comentarios me han recordado las (buenas) sensaciones que sentía leyendo esos artículos. Llámame nostálgico, pero no me importaría volver a sentirlas…
Ánimo.
Jooo, Mazinger (¿Z?), que me pongo sentimental, y eso no es bueno en alguien de mi edad…
Bueeeeno, me lo pensaré. Desde luego, una descripción de cómo era la vida de un programador en la década de los setenta dejaría más o menos patidifuso a muchos de esos que se quejan de que su Pentium Core Quad de no-se-cuántos-Ghz con sus 3 Gb de RAM y Windows no anda… ¡Vaya si anda! ¡VUELA!
Y no digo nada de la vida de un Técnico de Sistemas porque… ¡No había! Los poquitos que hacían esa función eran todos empleados de la marca de los ordenadores, que “venían de serie” con la máquina… Sí, es cierto: comprando un ordenador te instalaban además un par de personas que se encargaban de mantenerlo, arreglarlo, recauchutarlo y demás… ¡Gratis!. Tanta pasta costaban las máquinas que el sueldo de dos especialistas era una minucia, así que te los regalaban.
En fin, me lo pensaré, y si me sale algo gracioso de dos o tres capítulos en Plan “Una semana en la vida de un programador de la época de los Dinosaurios”, se lo submito a Su Excelencia el SuperJefe para su aprobación. Pero tardará un poco, eh?
Hola, curiosamente navegando por la fantástica red de redes, he visto este lugar le he hechado una ojeada por nombrar a Richard M. Stallman que para mi es un grande de la informática mucho más de lo que ha podido ser steve jobs que en paz este donde quiera que se encuentre. como el finlandes lunix y etc…pero estos son de mis preferidos. Yo comence en este mundo con un inves 300 con pantalla verde monocromo y CPU 8086 mas el co-procesador matematico 8087 un autentico pepino en un chaval de 14 años y disquetera de 5, 1/4. Antes de eso trataba con algunos modelos de Amstrand de la época de algunos amigos donde grabamos programas en basic en cintas de casete y lo que tardaban con su peculiar ruido… esto a evolucionado una pasada y me encanta ver toda esta evolución. También es verdad lo que dicen por ahí que casi todo estaba inventado ya pero cuando la máquina del marketing funciona reinventan cualquier cosa como una creación nueva, claso está, para la gran mayoría de personas que desconoce este mundo, un saludo y felicidades por este apartado.
Escribe un comentario