CIENCIA DE DATOS

CIENCIA DE DATOS

Get Started. It's Free
or sign up with your email address
CIENCIA DE DATOS by Mind Map: CIENCIA DE DATOS

1. se encarga de analizar grandes volúmenes de información de aplicaciones basadas en plataformas cloud que combinando tecnologías big data en tiempo real y modelos de predicción basados en la inteligencia artificial.

1.1. cloud com- putmg:

1.1.1. conocido como “la nube” sígnifico una auténtica revolución que ha transformado la manera en que las organizaciones contemplan sus gastos en infraestructuras IT, ya que es una tecnología que permite utilizar diferentes servicios como el almacenamiento de archivos, sin ocupar espacio en el disco duro de nuestro ordenador.

1.2. Inteligencia artificial

1.2.1. : una tercera revolución de la aplicación masiva mediante el uso de una combinación de nuevos o antiguos métodos de análisis de datos ha permití- do desarrollar nuevas maneras de extraer información a partir de estos.

1.2.1.1. El DWH o data warehouse:

1.3. Big data:

1.3.1. conocido como “ el internet de las cosas” en una segunda revolución surgió de la mano de la creciente necesidad de muchas empresas y organizaciones de acumular datos generados de manera masiva, un sistema que conforma miles y miles de dispositivos, objetos y artefactos industriales interconectados a Internet.

2. El DWH o data warehouse: (almacén de datos) un sistema que permite almacenar datos ordenadamente en el servidor,lo cual era una arquitectura clásica permitio evolucionar y combinar el big data y del Cloud computmg.De esta manera, un proceso de adopción de big data en cloud.

2.1. CASUALIDAD

2.1.1. donde se intenta establecer una relación de causa-efecto entre el fenómeno que se analiza y los datos relacionados con el (MayerÍSchónberger, 2013).

2.1.1.1. (MayerÍSchónberger, 2013).

2.1.1.1.1. Tiene como objetivo divulgar discusiones teóricas, análisis de datos y resultados originales de investigación aplicada, para contribuir al debate académico en torno a temas emergentes en las ciencias sociales contemporáneas

2.2. DATOS MASIVOS BIG DATA

2.2.1. Es la traducción del termino Big Data terminología anglosajona, en el entorno de la ciencia, hace referencia a una cantidad de datos tal que supera las capacidades del software tradicional para ser capturados, administrados y procesados en un tiempo razonable generando un gran volumen de datos. Los datos masivos imponen un nuevo paradigma donde la correlación «sustituye» a la causalidad. frente a esto se derivan las 4V del Big DATA

2.2.1.1. VOLUMEN

2.2.1.1.1. Permitio definir nuevas métricas de calidad, dejar de trabajar con valores absolutos, para pasar a hacerlo con aproximaciones e intervalos de confianza , el volumen de datos existente en la actualidad esta por encima del zettabyte, Los almacenes de datos tradicionales, basados en bases de datos relacionales,4 tienen unos requisitos de almacenamiento muy controlados y suelen estar acotados

2.2.1.2. VELOCIDAD

2.2.1.2.1. Son los nuevos escenarios que necesitan información en tiempo real o de forma casi inmediata.

2.2.1.3. VARIEDAD

2.2.1.3.1. La información procede de distintas fuentes y su estructura puede ser mucha, poca o directamente ninguna. Por ello, es imposible poder aplicar una misma métrica de calidad a todos ellos, Por ejemplo, podemos tener datos procedentes de: Bases de datos SQL (onoSQL), propias o de terceros, Hojas de cálculo, Otras fuentes. Podemos clasificar los orígenes de datos según su nivel de estructuración en:

2.2.1.4. VERACIDAD

2.2.1.4.1. La veracidad del dato deba ser especialmente considerada y se deba aceptar cierto grado de incertidumbre de exactitud del dato y la fiabilidad del procesamiento de la exactitud del calculó

2.3. CLASIFICACIÓN DE NIST

2.3.1. Es el acrónimo de (National Institute of Standards and Technology), un modelo tecnológico que permite el acceso ubicuo, adaptado y bajo demanda en red a un conjunto de recursos de computación configurables compartidos

2.3.1.1. Por ejemplo: redes, servidores, equipos de almacenamiento, aplicaciones y servicios) dentro de su grupo de trabajo de big data existen tres tipos

2.3.1.1.1. Tipo 1

2.3.1.1.2. Tipo 2

2.3.1.1.3. Tipo 3

2.4. ESTANDARES BID DATA

2.4.1. integración e interoperabilidad de sistemas requiere estandares de mercado.

2.4.1.1. UIMA(Unstruce tured Information Management Architecture)

2.4.1.1.1. Las aplicaciones de gestión de información no estructurada son sistemas de software que analizan grandes volúmenes de información no estructurada para descubrir conocimientos que son relevantes para un usuario final.

2.4.1.2. OWL (Web Ontology Language)

2.4.1.2.1. Una forma formal de describir taxonomías y redes declasificación, definiendo esencialmente la estructura del conocimiento para varios dominios: los sustantivos que representan clases de objetos y los verbos que representan relaciones entre los objetos.

2.4.1.3. PMML(Predictive Model Markup Language)

2.4.1.3.1. Desarrollan el lenguaje de marcado de modelo predictivo (PMML) y el formato portátil para análisis (PFA) , dos estándares complementarios que simplifican la implementación de modelos analíticos.

2.4.1.4. RIF (Rule Interchange Format )

2.4.1.4.1. es parte de la infraestructura de la web semántica ,se basa en la observación de que existen muchos "lenguajes de reglas" y lo que se necesita es intercambiar reglas entre ellos

2.4.1.5. XBRLll (eX- tensible Business Reporting Language)

2.4.1.5.1. Es el estándar internacional para la elaboración de informes digitales de información financiera, de rendimiento, de riesgo y de cumplimiento, aunque también se utiliza para muchos otros tipos de informes

2.5. UTILIDAD DE BIG DATA

2.5.1. ayuda a las organizaciones a aprovechar sus datos y utilizarlos para identificar nuevas oportunidades. Eso, a su vez, conduce a movimientos de negocios más inteligentes, operaciones más eficientes, mayores ganancias y clientes más felices

2.5.1.1. Redes sociales.

2.5.1.1.1. Consumo

2.6. DATO

2.6.1. Un dato es una representación simbólica (numérica, alfabética, algorítmica, espacial, etc.) de un atributo o variable cuantitativa o cualitativa. Los datos describen hechos empíricos, sucesos y entidades.

2.6.1.1. Es un valor o referente que recibe el computador por diferentes medios, los datos representan la información que el programador manipula en la construcción de una solución o en el desarrollo de un algoritmo.

2.6.1.1.1. Algoritmo

2.7. CORRELACIÓN

2.7.1. Permite recoger todos aquellos que hablen del tema y analizarlos. En este caso, el analisis no pretende confirmar o invalidar una hipótesis, sino establecer correlaciones entre distintas variables de la muestra.