Para asegurar que más organizaciones y personas puedan utilizar la vasta cantidad de datos que son generados, colectados y almacenados todos los días – también conocidos como “Big Data” (grandes datos) –, Intel Corporation anuncia la disponibilidad de la nueva Distribución de Intel® del software Hadoop* de Apache.
Esta oferta, que incluye el Intel® Manager para el software Hadoop de Apache, es fabricada desde el silicio para ofrecer performance líder de la industria y atributos de seguridad mejorados.
Con la globalización, la extensión virtual se hizo necesaria, además el incremento exponencial de datos en la última década despertó la atención de los expertos por una posible falta de espacio. Por ejemplo, a través de Internet, en sólo un minuto más de 639.800 Gigabytes de datos globales son transferidos entre computadoras, 204 millones de correos electrónicos son enviados y más de 47.000 aplicaciones son bajadas; además, se prevé que para 2015 estos números se dupliquen.
En ese escenario, Big Data se presenta como un activo valioso para muchas organizaciones. La capacidad de analizar y entender Big Data tiene un enorme potencial para transformar a la sociedad, ya que permite nuevos descubrimientos científicos, modelos de negocios y experiencias de consumo. Aun así, sólo una pequeña fracción del mundo es capaz de encontrar sentido en toda esta información debido a que las tecnologías, técnicas y habilidades disponibles actualmente son demasiado rígidas para los tipos de datos, o excesivamente caras para implementarlas.
El software de Big Data recoge todos los datos que una organización genera y permite a los administradores y analistas usarlos más tarde. En este sentido, son más escalables que las bases de datos tradicionales y los data warehouses. Big Data está impacta en la forma en que será usado el data center en el futuro. Big Data tiene muchas más implicaciones sobre el ámbito de data centers, especialmente, con su infraestructura de cómputo y de redes. En este sentido, en el futuro, éstos deben ser no sólo capaces de procesar los datos sino también de mover su volumen.
El software Hadoop de Apache es una estructura de código abierto para almacenar y procesar grandes volúmenes de datos en clústeres escalables de servidores, que surgieron como la plataforma preferida para la gestión de Big Data. Con cada vez más información proveniente de los miles de millones de sensores y sistemas inteligentes también en el horizonte, la estructura de trabajo debe permanecer abierta y escalable, además de cumplir con los requisitos exigentes de rendimiento, seguridad y capacidad de gestión de nivel empresarial.
“Personas y máquinas están produciendo información valiosa que podrá enriquecer nuestras vidas de muchas maneras, desde la extrema precisión en la previsión del mal tiempo hasta el desarrollo de tratamientos personalizados para enfermedades terminales”, declaró Boyd Davis, vicepresidente y gerente general del Data Center Software Division de Intel. “Intel se compromete a contribuir y dar soporte a la comunidad de código abierto para proveer a la industria una mejor base sobre la cual podrá extender los límites de la innovación y percibir la oportunidad de transformación de Big Data”, añade el ejecutivo.
Rendimiento y seguridad garantizados: la diferencia de la tecnología Intel
Actualmente, Intel está ofreciendo una plataforma abierta innovadora, desarrollada en Hadoop de Apache, capaz de acompañar el ritmo de la rápida evolución del análisis de Big Data. La nueva Distribución de Intel® es la primera en ofrecer criptografía total con soporte para Intel® AES New Instructions (Intel® AES-NI) con el procesador Intel® Xeon®. Al incorporar un soporte para criptografía basada en el silicio del Hadoop Distributed File System*, las organizaciones ya pueden analizar con seguridad sus conjuntos de datos sin comprometer el rendimiento.
Las optimizaciones hechas para comunicación a través de redes y las tecnologías IO de la plataforma del procesador Intel® Xeon® también habilitan nuevos niveles de rendimiento. Analizar un Terabyte de datos – algo que anteriormente llevaría más de 4 horas – ahora puede hacerse en 7 minutos¹ gracias a la poderosa combinación de hardware Intel y la nueva Distribución de Intel®. Si consideramos la estimación de Intel de que el mundo genera un Petabyte de datos (1.000 Terabytes) cada 11 segundos, o lo equivalente a 13 años de video HD, el poder de la tecnología Intel ofrece al mundo posibilidades aún mayores.
Por ejemplo, en un ambiente hospitalario, la inteligencia derivada de los datos puede ayudar a mejorar la atención al paciente, ayudando a los profesionales de salud a que hagan diagnósticos más rápidos y precisos, determinen la eficacia de medicamentos, las interacciones de los medicamentos, recomendaciones sobre las dosis y los potenciales efectos colaterales a través del análisis de millones de registros médicos electrónicos, datos de salud pública y registros de información de reclamos médicos, tornándose fundamental mantener la seguridad y la privacidad durante la realización de análisis.
La inclusión del Intel® Manager para el software Hadoop de Apache también simplifica la implementación, la configuración y el monitoreo del clústers para administradores de sistemas a medida que estos estudian la implementación de nuevas aplicaciones. Usando el Intel® Active Tuner para el software Apache Hadoop se configura automáticamente el ajuste del desempeño. Hasta ahora, esto exigía una comprensión especializada del uso de cada aplicación de recursos del sistema, juntamente con la configuración del Hadoop y de estándares de rendimiento.
Intel está trabajando con asociados estratégicos para integrar este software en innúmeras plataformas y soluciones de próxima generación y para habilitar la implementación en ambientes de nubes públicas y privadas. Los aliados que soportan ese lanzamiento son 1degreenorth*, AMAX*, Cisco*, Colfax Corporation*, Cray*, Datameer*, Dell*, En Pointe*, Flytxt*, Hadapt*, HStreaming*, Infosys*, LucidWorks*, MarkLogic*, NextBio*, Pentaho*, Persistent Systems*, RainStor*, Red Hat*, Revolution Analytics*, SAP*, SAS*, Savvis, a CenturyLink company, Silicon Mechanics*, SoftNet Solutions*, Super Micro Computer, Inc.*, Tableau Software*, Teradata*, T-Systems*, Wipro* y Zettaset*.
Un enfoque integral para Big Data
El nuevo software amplía el extenso portafolio de productos de Intel para data center, redes, almacenamiento y sistemas inteligentes. El recién lanzado Intel® Intelligent Systems Framework, un conjunto de soluciones interoperables proyectado para habilitar la conectividad, la gestión y la seguridad en dispositivos inteligentes – de manera consistente y escalable – crea una base para ayudar a reunir, analizar y proveer información valiosa para el análisis punto a punto, del dispositivo al data center.
Además, Intel continúa invirtiendo en investigaciones y en capital para generar avances en el ecosistema de Big Data. Intel Labs es la vitrina que incluye el desarrollo del Intel® Graph Builder para el software Hadoop de Apache, una biblioteca para transformar grandes conjuntos de datos en gráficos con el objetivo de ayudar a visualizar las relaciones entre los datos. El Intel® Graph Builder es optimizado para la nueva Distribución de Intel® para ayudar a reducir el tiempo de desarrollo al eliminar la necesidad de desarrollar grandes cantidades de códigos personalizados. Mientras tanto, Intel Capital ha hecho grandes inversiones en tecnologías para el análisis de Big Data, incluyendo el 10gen del MogoDB Company y la proveedora de soluciones para el análisis de Big Data Guavus Analytics.