¿En qué consisten los denominados Data Lake?

Un Data Lake es un repositorio de datos en bruto, sin procesar y sin jerarquía alguna. En un Data Lake, los datos se mantienen en el tiempo, de manera indefinida, hasta que son necesarios para realizar un análisis o cualquier tipo de procesamiento. El hecho de que no existan jerarquías implica que se trata de una arquitectura plana, con sus ventajas y desventajas.

Leer más

¿Es el Aprendizaje Automático una parte de la Inteligencia Artificial?

Inteligencia Artificial, Aprendizaje Automático (Machine Learning) y Aprendizaje Profundo (Deep Learning) son tres conceptos distintos, pero fuertemente relacionados y que en muchas ocasiones mezclamos al hablar de las nuevas tendencias tecnológicas.  En este artículo, aclaramos estos tres conceptos, pero comenzaremos aclarando que Deep Learning forma parte de lo que conocemos como Machine Learning y que el propio Machine Learning también es un subconjunto de la Inteligencia Artificial.

Leer más

Cómo facilita la Inteligencia Artificial la gestión de los Centros de Datos

El auge de la Inteligencia Artificial  (IA) y el Machine Learning permite los mayores avances también en los Centros de Datos. Gracias a estas tecnologías, es posible mejorar sensiblemente su eficiencia energética, así como optimizar la distribución de la carga o ayudar a mejorar la detección de fallos y la resolución de incidentes. En este artículo, veremos algunas de las formas en que los Centros de Datos dotados de mecanismos de Inteligencia Artificial mejoran los niveles de servicio de los proyectos alojados.
Leer más

AIaaS, la Inteligencia Artificial como Servicio

Cada vez son más las empresas y organizaciones que buscan formas de incorporar Inteligencia Artificial (IA) en sus aplicaciones, productos, servicios y análisis de Big Data. En muchos casos, introducir la IA en los procesos empresariales es una necesidad imperiosa; de no hacerlo, la empresa se puede quedar descolgada con respecto a su competencia. Para muchas empresas, la mejor manera de comenzar a incorporar esta tendencia a sus procesos es, precisamente, optar por AIaaS, la Inteligencia Artificial como Servicio, lo que se denomina AIaaS por su acrónimo inglés.

Leer más

Whitepaper – Qué es y cómo utilizar Hadoop

Hadoop es un framework Open Source diseñado para el almacenamiento de datos de manera distribuida. Su capacidad para gestionar rápidamente enormes cantidades de información lo han convertido en una de las mejores opciones para las aplicaciones Big Data, donde encuentra en las soluciones Cloud Computing a su mejor aliado. En este whitepaper te explicamos las principales características de Hadoop, sus componentes y casos de uso, para que puedas sacarle el máximo partido.

Leer más

Qué es Big Data y cómo aprovechar todo su potencial

Big Data es un término que sirve para describir grandes volúmenes de datos de diferentes procedencias, y tales que su captura, gestión, procesamiento o análisis son complejas o difíciles de conseguir mediante las tecnologías y herramientas convencionales. El concepto de Big Data no solo se refiere al volumen de datos en bruto, aunque este suele partir de los 30-40 TB hasta varios Petabytes. Para entender la complejidad del Big Data nos debemos fijar en otras variables como su procedencia, su condición de datos no estructurados —en un gran porcentaje—, la velocidad de adquisición, el grado de veracidad de los datos o el valor de negocio que contienen.
Leer más

Whitepaper – Inteligencia Artificial, el futuro inmediato de la ciberseguridad

Cada vez más numerosos y sofisticados, los ciberataques on un enorme riesgo para la seguridad IT de las empresas y negocios. En esta guía, analizamos las principales amenazas a las que nos enfrentamos en la actualidad, cómo podemos prevenir cualquier posible riesgo y el papel que desempeñan la Inteligencia Artificial y el  Machine Learning para estar prevenidos ante el malware.
Leer más