El fin de la informática?
- 18/10/2013
- por Rubén Sánchez Vicente
- 1512
En 1989, Francis Fukuyama publicó en la prensa un artículo titulado "¿El fin de la Historia?", que posteriormente desarrollaría en 1992 en un libro de título "El Fin de la Historia y el Último Hombre". El libro dio lugar a muchos artículos periodísticos, la mayor parte de ellos escritos por gente que no había leído el libro ni tenía interés en saber qué decía, y que fundamentalmente hacían una crítica del título, interpretando en él algo así como si Fukuyama hubiera decretado el fin del mundo.
En realidad la tesis de Fukuyama consistía en afirmar básicamente que, con la caída del comunismo y su desprestigio como una fórmula de gobierno viable, la democracia liberal, (basada en tres pilares: el libre mercado, la democracia representativa y un marco jurídico estable que garantice el derecho de propiedad junto a otros derechos básicos) quedaba como único sistema político posible y universalmente reconocido como deseable. Con lo cual la Historia con mayúscula, entendida como búsqueda de la mejor forma de gobierno para la humanidad, habría llegado a su fin.
Por supuesto, pido perdón por la enorme simplificación que supone este resumen, pero vayamos a lo nuestro.
¿Podríamos hablar, en el mismo sentido que Fukuyama, del "Final de la Informática"?. Probemos.
La informática, al igual que la sociedad humana, es una estructura compleja, en búsqueda permanente de la forma de organización más eficaz posible. Y también, como nuestra sociedad, está condicionada por el desarrollo tecnológico, por intereses económicos, por grupos dominantes, por los prejuicios, por la voluntad de quienes van a usarlo. Y podríamos decir que la sucesión de distintas arquitecturas y formas de organización constituye la Historia de la informática.
Esta historia comienza en 1945, en el sótano de la Universidad de Pensilvania, cuando la enorme ENIAC (32 toneladas, 17.468 válvulas, 160.000 Watios de consumo) se encendió por primera vez y comenzó a calcular. La primera forma de organización informática estaba compuesta por enormes máquinas, compuestas por grandes conjuntos de armarios llenos de placas ocupando amplias salas refrigeradas, con el falso suelo repleto de gruesos cables, que se alimentaban de las fichas de cartón que generaba un nutrido grupo de perforistas y eran introducidas por bloques en riguroso orden por el operador, auténtico director de pista. La informática era un conjunto de universos cerrados. Cada empresa o Gobierno, es decir, cada entidad con tamaño suficiente para rentabilizar tamaña inversión, poseía su propio centro de cálculo, en un universo cerrado de grandes sistemas propietarios (IBM, Univac, General Electric, Bull...) diseñados y construidos de arriba abajo por cada fabricante y cuyo único punto en común, con suerte, es que fueran capaces de interpretar programas en Cobol. Así pues una informática encerrada en un bunker autosuficiente construido dentro de cada empresa, con sus analistas, programadores, perforistas y operadores agrupados en un mismo edificio, y con un puñado de fabricantes encargados de diseñar, construir, instalar, mantener y formar cada uno su entorno propietario. Si uno era IBM, era de IBM. De principio a fin. Y punto.
De repente, en este universo dominado por los grandes fabricantes irrumpió Digital y su concepto de Miniordenador (Mini es un concepto relativo) con un abaratamiento de la informática que permitió su "democratización", en el sentido de que las empresas de menor tamaño, no sólo gobierno, bancos y multinacionales, pudieran también informatizarse. Sin embargo, el modelo seguía siendo el mismo: una empresa, un centro de proceso de datos, unos pocos fabricantes propietarios de su sistema de principio a fin, un universo cerrado. ¿He dicho algo sobre los usuarios? No, por supuesto que no. En este punto de la historia los individuos no tienen aún cabida. El individuo, el usuario, no ha hecho aún acto de presencia en la Historia de la Informática..
El precursor del actual usuario aparece cuando en 1964 General Electric y los laboratorios Bell comienzan a desarrollar el sistema operativo Multics, que posteriormente evolucionaría hasta convertirse en Unix, donde aparece por primera vez el concepto de que varios procesos (y por lo tanto varios operadores) puedan controlar al mismo tiempo una sola máquina. Esto llevó directamente a la aparición de los terminales, de las conexiones remotas y de los primeros usuarios, individuos que, a través de un teclado y una pantalla, eran capaces de dialogar directamente con el ordenador.
Pero si los Minis supusieron la democratización de la informática para la empresa, fue la aparición de los Microordenadores lo que supuso una auténtica revolución, propagando el concepto de una persona un ordenador. No importa que casi nadie supiera para qué servían aquellos Apple, Commodore o ZX81. Lo de menos es que casi nadie comprendiera para qué servía una hoja de cálculo ni cómo ni para qué hacer un programa en Basic. Lo realmente importante era que el individuo podía ser dueño de aquella máquina maravillosa, que se regalaba a los hijos para que se preparasen para "el futuro". Entonces, ¿fueron estos los primeros usuarios?.No, estos no eran aún usuarios, al igual que un campesino medieval con su pequeña parcela de tierra no es todavía un ciudadano. Estos eran simplemente, lo que no es poco, propietarios de su pequeño ordenador. Pero no usuarios.
La presentación del PC (Personal Computer) por parte de IBM en 1981 supuso el comienzo de una revolución informática, aunque el padre de la criatura no supiera ver su importancia. IBM desarrolló el PC como un proyecto menor, juntando componentes de otros fabricantes (Intel, Motorola, Tandom), haciéndolos funcionar mediante una pequeña BIOS que ni siquiera se molestó en patentar e incorporando un intérprete de BASIC de Microsoft que, pese a los esfuerzos de Bill Gates, ni siquiera se dignó a comprar. Todo esto dio lugar al desarrollo de los clónicos, a la normalización y difusión del estándar IBM PC, al abaratamiento de los microordenadores y a su generalización en la empresa pequeña.
El siguiente gran avance en la historia de la informática estuvo impulsado por la aparición de Windows y la disponibilidad del Office lo que permitió configurar un puesto de trabajo para la empresa de bajo costo, gran productividad y relativamente fácil de utilizar, facilitando su adopción por los departamentos de informática y dando lugar al nacimiento del usuario tal como lo conocemos a día de hoy.
El concepto de usuario implica la pertenencia a una sociedad informática, a un grupo. Usuario implica organización y jerarquía, implica singularidad aunque también subordinación. Uno es un usuario porque tiene su nombre y password único, lo que lo diferencia de los demás, pero también porque pertenece a una organización informática y dentro de ella a un grupo, lo que le otorga unos derechos pero también unos límites. Alguien decide lo que puede y lo que no puede hacer. Y cómo tiene que hacerlo. Podríamos decir que la aparición de estos usuarios con una gran potencia de trabajo pero controlados férreamente por unos departamentos de informática tiránicos, correspondería en la historia humana a las fases de gobiernos dictatoriales de cualquier signo.
Esta etapa, caracterizada por un control absoluto de los departamentos de informática y una generalización del puesto de trabajo con teléfono, ordenador, Windows y Office, es adoptada como un modelo generalizado por las empresas en un período que abarca aproximadamente desde el Windows 95 hasta Windows 7, pasando por Windows 98, 2000 Pro, XP y Vista (y no vista). Una época histórica estable de más de 15 años, lo que en tiempos informáticos es una época muy, muy larga.
Mientras tanto, bajo el subsuelo, las corrientes sociales iban minando los fundamentos de esta estructura aparentemente tan inmutable. Las personas, no los usuarios, cada vez tenían más y más potentes ordenadores en sus casas, mejores en muchos casos que los disponibles en el trabajo, y las personas, no los usuarios, cada vez eran capaces de hacer con sus ordenadores personales lo que el departamento de informática no les permitía. Hasta que al final estalló la última revolución, los usuarios dijeron basta, los departamentos de informática tuvieron que ceder, se produjo BYOD y la informática se convirtió en una informática liberal.
BYOD (Bring Your Own Device) es un gran acuerdo por el cual cada usuario, ahora sí un ciudadano de pleno derecho, tomas sus propias decisiones sobre qué ordenador usar (portátil, sobremesa, tablet, convertible...), qué sistema operativo usar (Windows X, Linux, OSX...), que programas usar (Office, OpenOffice...) siempre que respete unas normas de convivencia dictadas por el departamento de informática y por el sentir de la gente. Este es el momento actual.
Y, ahora, como Fukuyama en 1989, podemos preguntarnos ¿Ya tenemos el mejor sistema de organización posible? ¿Se ha terminado la búsqueda incansable de la perfección? ¿Estamos ante el final de la informática?
Cuando en 1989 leí a Fukuyama estuve de acuerdo con él. Parecíamos haber tocado techo. Parecía que, aunque no todos los países hubieran llegado, había un gran consenso universal en que todos querían llegar, en que esa era la estación Terminus deseada por todo el mundo. Y, sin embargo, desde entonces hemos asistido al auge del Islam, al crecimiento imparable de los Hermanos Musulmanes, a Egipto, a Túnez, a tantas y tantas convulsiones que nos indican que no, que la democracia liberal no era el Fin de la Historia, no para todo el mundo.
O sea que ¿estamos ante el Fin de la Informática? Pues... a saber. El tiempo lo dirá.