El futuro de la tecnología de información es de grandes oportunidades y/o retos:

  • Se extiende el continuo del servidor tradicional a la nube, “máquinas para problemas dedicados” (computing appliances mas allá de los hoy descritos en wikipedia sobre almacenamiento y redes) y “arquitecturas de referencia” en la que se basan las descritas máquinas. Las máquinas dedicadas y arquitecturas pueden ser consideradas la nube interna.
  • El cambio fundamental con máquinas y arquitecturas es el “conectar y olvidar”. Cuando se requiere más capacidad simplemente se amplia el sistema insertando un módulo adicional. El proceso de “afinar” un sistema se hace innecesario. Salido de caja, el desempeño va a ser superior al que los mejores arquitectos de software lograron alcanzar en años, debido tanto a avances en hardware como aplicación directa de mejores prácticas de la carga de cómputo a resolver.
  • Otras cargas menos desarrolladas continuarán en ruta “tradicional” hasta madurar. Por ejemplo MDM: los datos iniciaron en silos de información pero los escaparon. Hoy hay un considerable problema de coordinación de datos que continuará, porque la “fábrica” de la nube hace muy sencilla la difusión de información.
  • El “punto de acceso” será una PC o un “information appliance” que incluye PDAs, teléfonos inteligentes, embedded system, etc. La predicción de Larry Ellison de que las máquinas de acceso dedicadas superarán a las de uso general no se ha cumplido.

 

El Cómputo 2.0 tiene muchos temas, pero el que más me llama la atención es el de las “fábricas¨ de software tomando niveles superiores de automatización, coordinando potencialmente decenas a miles de servidores. Un auténtico auto-servicio. Es tiempo de cambiar de paradigma – el cómputo 2.0 es un animal distinto: Durante los siguientes 18 meses, Adoptemos lás máquinas de cómputo dedicadas y arquitecturas  de referencia que combinan hardware/software y vayamos adelante.