Cloud Computing Modulo 3 y 4

Solve your problems or get new ideas with basic brainstorming

Get Started. It's Free
or sign up with your email address
Cloud Computing Modulo 3 y 4 by Mind Map: Cloud Computing Modulo 3 y 4

1. • La virtualización consiste en dos tecnologías

1.1. SDN Las redes definidas por software (SDN) representan un enfoque en el que las redes utilizan controladores basados en software o interfaces de programación de aplicaciones (API) para dirigir el tráfico en la red y comunicarse con la infraestructura de hardware subyacente. NFV La virtualización de las funciones de red (NFV) se utiliza para virtualizar los servicios de red, como los enrutadores, los firewalls y los equilibradores de carga, que tradicionalmente se ejecutaban en el hardware propietario.

2. - Virtualizar consiste en separar el software del hardware las cuales pueden ejecutar diferentes sistemas operativos y distintas aplicaciones utilizando un solo equipo físicamente

2.1. Ventajas de la virtualización

2.1.1. • Reduce el costo de mantenimiento de hardware en servidores físicos.

2.1.2. • Aumento de eficiencia al utilizar, a través de una estrategia solidificada de servidores, mayor espacio en su centro de datos

2.1.3. • Al momento de realizar actualizaciones o mejoras de una aplicación que se encuentra dentro de su servidor virtual, evita impactar en otras por estos cambios.

2.1.4. • El ahorro de tiempo gracias a la facilidad de crear las normas de implementación de un nuevo servidor virtual y guardarlas para futuras ocasiones

2.1.5. • La facilidad de implementación de diferentes tecnologías en los servidores virtuales que se posean, sin la necesidad de aumentar el equipo físico.

3. Web como el portal de la nube

3.1. • Principios de la Virtualización -Vm- contenedor virtual que simula los sistemas servidor -Hipervisor – Da RAM CPU a las máquinas virtuales -Soluciones de costo beneficios

3.1.1. • Se requiere una red más flexible, ágil y moldeable

3.2. • Virtualización de Red -Mantenimientos automáticos que dará más tiempo a la empresa a dedicarse crecer su verdadero negocio -La red rígida dificulta la introducción de cambios de - Gestión - Configuración - Control

4. Modulo Identificar los conceptos básicos en virtualización y de esta forma Implementar en las organizaciones

4.1. Tienen como objetivo

4.1.1. Conceptualizar diferentes modelos de negocios

4.1.2. Identificar ventajas y desventajas

4.1.3. Necesidades en CLOUD COMPUTING y Virtualizacion

5. Microservicios, contenedores y orquestación

5.1. Microservicios

5.1.1. Los microservicios son una técnica de diseño de software en la que la aplicación se desglosa en pequeñas piezas operativas con límites de funcionalidad bien definidos. Las piezas individuales (en otras palabras, los servicios) se entrelazan entre sí por medio de las interfaces de programación de aplicaciones (API) en un entorno conectado ligeramente

5.1.2. MICROSERVICIOS Y MONOLITOS

5.1.2.1. A menudo se habla de los microservicios como de una especie de clasificación binaria de una arquitectura de software y se los compara con los monolitos. Sin embargo, es importante saber que los dos términos funcionan como un proceso continuo. Los microservicios son una técnica de organización de software y pueden ser partes de una aplicación que se compone de servicios aislados, mientras que otros permanecen en bloques funcionales de mayor tamaño

5.2. Contenedores

5.2.1. Los contenedores son ligeros paquetes de software ejecutable e independiente que incluyen todo lo que se necesita para funcionar, como código, herramientas del sistema, binarios, bibliotecas, marcos y configuración. Docker es la plataforma estándar de código abierto para ejecutar contenedores

5.2.2. Características

5.2.2.1. » Ligeros: los contenedores reducen el impacto que tienen los recursos al ejecutarse directamente en el núcleo del host sin necesitar un SO invitado, que ocupa CPU, memoria y disco

5.2.2.2. » Previsibles: al empaquetar una aplicación con todas sus dependencias, los contenedores son previsibles y portátiles porque funcionan del mismo modo en cualquier entorno de contenedor

5.2.2.3. » Rápidos y escalables: en una aplicación de producción con requisitos dinámicos en tiempo real, los contenedores arrancan muy rápido y no dependen de una VM subyacente para iniciarse. Una vez que han arrancado, pueden ampliarse o reducirse de forma independiente de otros servicios en otros contenedores

5.2.3. Organización

5.2.3.1. Características

5.2.3.1.1. » Implementación de contenedores y aplicaciones en contenedores

5.2.3.1.2. » Monitorización de servicios para acciones operativas y automáticas (por ejemplo, reiniciar un contenedor que ha fallado, eliminar contenedores, reproducir contenedores en nuevos hosts) Ampliación de las implementaciones de contenedores a medida que cambia la carga de la aplicación

5.2.3.1.3. » Gestión de las actualizaciones de los contenedores

5.3. Características

5.3.1. Escalabilidad Al desacoplar los servicios y colocarlos en contenedores, consiguen una gran ventaja en escalabilidad. Gracias a ello, puedes usar implementaciones a gran escala mientras ajustas dinámicamente la aplicación a los servicios del tamaño adecuado basados en implementaciones de cliente únicas, cambios en la red y uso de datos con el tiempo

5.3.2. Resistencia Los microservicios también ofrecen un nivel innato de fiabilidad porque cada servicio se mantiene de forma independiente. Por ejemplo, quizá existe un problema con un nodo que ofrece el servicio de eventos y necesita reiniciarse por algún motivo

5.3.3. Modularidad Como decía, la arquitectura de microservicios suele hacer uso de los contenedores, lo que significa que el software de servicios es muy modular. Cada servicio puede usar una pila de software que es específica y está optimizada para los requisitos de ese servicio en particular

5.3.4. Uso de las API A menudo se habla de las API desde una perspectiva de automatización de la gestión. Dicho de otro modo, las API públicas pueden usarse para automatizar el flujo de gestión. Pero en este caso, hablo del mecanismo interno de una aplicación con API privadas

5.3.5. Generaciones de nube He empezado este capítulo hablando de la evolución de la nube, desde el hardware en el entorno local hasta las máquinas virtuales y, finalmente, la nube. En la figura 3-4 se muestra la progresión continuada de la nube hacia generaciones de arquitectura más nuevas

5.3.6. La arquitectura de datos en la nube En nuestro mundo hiperconectado, cada acción, transacción e interacción se convierte en datos. Las empresas intentan conseguir una mayor integración de la tecnología y flujos de trabajo, por lo que los datos se convierten a menudo en el activo diferenciador frente a la competencia. Por este motivo, todo lo que esté relacionado con los datos es relevante para las arquitecturas, aplicaciones y servicios en la nube modernos

6. Beneficios de la virtualización y consejos para su implementación

6.1. • Principales cliente para virtualizar

6.1.1. • VMWare, VMware Remote Console proporciona acceso a máquinas virtuales desde clientes remotos y realiza operaciones de dispositivos tales como la configuración de las estaciones del sistema operativo y el monitoreo de la consola de la máquina virtual para VMware vSphere. VMware Remote Console también puede modificar las posiciones de la máquina virtual como RAM, CPU núcleos y discos.

6.1.2. • Xen El hipervisor de Xen Project es un hipervisor open-source de tipo 1 o baremetal, que hace posible ejecutar muchas instancias de un sistema operativo o incluso diferentes sistemas operativos en paralelo en una sola máquina

6.1.3. • Citrix XenApp y XenDesktop le permiten implementar y administrar aplicaciones y escritorios virtuales desde una única plataforma, con herramientas integradas de monitoreo que le mantienen informado y una gran experiencia de usuario final que maximiza la productividad

6.1.4. • VirtualBox Es un potente producto de virtualización x86 y AMD64 / Intel64 para uso empresarial y doméstico. VirtualBox no solo es un producto de gran rendimiento para clientes empresariales, sino que también es una solución profesional disponible gratuitamente como software de código abierto bajo los términos de la Licencia Pública General GNU (GPL)

6.2. Virtualizan

6.2.1. • servidores

6.2.2. • Estaciones de trabajo

6.2.3. • Redes y aplicaciones

6.3. • Permite

6.3.1. - Preconfiguración de equipos

6.3.2. - Compatibilidad

6.3.3. - Microsegmentación

6.4.  Protocolos de internet más usados

6.4.1. HTTP

6.4.2. SOAP

6.4.3. XML

7. Herramientas para la nube

7.1. BIG DATA

7.1.1. Conceptos

7.1.1.1. Actualmente, para no invertir en BD han optado las empresas en computación a través de internet

7.1.2. Que es

7.1.2.1. El big data su traducción literal sería grandes datos, es una palabra tecnológica evolutiva que se refiere o describe una gran cantidad de volumen de datos ya sean estructurados, semiestructurados y no estructurados, y que tienen el potencial de ser extraídos y manipulados para obtener información estratégica

7.1.3. Características

7.1.3.1. Procesa los datos para saber que servicios ofrecerles más asertivos a los clientes

7.1.3.1.1. • Volumen extremo de datos

7.1.3.1.2. Variedad de tipos de datos

7.1.3.1.3. • Velocidad de procesamiento de datos

7.1.3.1.4. Veracidad de los datos

7.1.4. Ventajas del Big Data

7.1.4.1. • Mejores decisiones • • Soluciones diferentes • • Nuevas oportunidades de negocio • • Ahorro de costos • • Visualización más dinámica de los datos • Mejores Decisiones • Soluciones diferentes • Ahorro de costos

7.1.5. Visualización dinámica de datos

7.1.5.1. Para ello se requieren herramientas de visualización de datos, que presenten los datos en gráficas, tablas y presentaciones intuitivas para los usuarios. Estas aplicaciones deben permitir a los mismos hacer búsquedas y acceder a la información rápidamente, en algunos casos incluso en tiempo real

7.1.6. • Aplicaciones del Big Data

7.1.6.1. Turismo

7.1.6.2. Salud

7.1.6.3. Publicidad

7.1.6.4. Financiero

7.1.6.5. Tecnología

7.1.6.6. Científico

7.2. Herramientas del Big Data

7.2.1. Bases de datos

7.2.1.1. Las BD pueden albergar tanto información estructurada como no estructurada. Actualmente por su forma de estructurar la información y el lenguaje que utilicen, se clasifican a grandes rasgos en bases de datos SQL y NoSQL

7.2.2. Procesa datos

7.2.2.1. Manufactura

7.2.2.2. Para el procesamiento de datos se usan herramientas tipo frameworks de código abierto (Open Source) tipo Hadoop, Apache Spark, Storm o Kafka

7.2.3. Analizar datos

7.2.4. Visualizar datos

7.2.4.1. Hay herramientas de visualización de datos asequibles tanto para desarrolladores o diseñadores como para personal menos técnico. La mayoría ofrece gráficos optimizados para su uso en redes sociales. Entre las más populares estarían Tableau, Weave, Datawrappper, Gephi, Infogram, Many Eyes, Piktochart, NodeXL, Chartblocks, d3, Thinglink, Axiis, QuickView y Google Fusion Tables

7.2.4.1.1. Para un buen análisis de datos son necesarios conocimientos matemáticos, estadísticos y analíticos avanzados que incluyan formación en Machine Learning o Aprendizaje automático (redes neuronales, ensembles, SVMs, Deep Learning), reconocimiento de patrones, modelos predictivos, técnicas de clustering, Minería de datos(minería de textos, de imágenes), Procesamiento del Lenguaje Natural, Sentiment Analysis

7.3. . Importancia del Big

7.3.1. Data Ayuda a las organizaciones a aprovechar sus datos y utilizarlos para identificar nuevas oportunidades de negocio

8. El ecosistema de la nube

8.1. » Coste: en relación con el coste de almacenamiento, el coste diario por GB se ha reducido gracias a las economías de escala

8.2. » Operaciones y escalabilidad: la nube alivió también el aspecto operacional de la gestión de los macrodatos, que, en contra de la opinión popular, es difícil

8.3. » Flexibilidad: la nube también permite que las canalizaciones de datos (los flujos de datos a través de una aplicación) y las pilas de software cambien con gran flexibilidad y agilidad.

8.4. Comprender la canalización de datos

8.4.1. En la práctica, una canalización de datos es el mecanismo arquitectónico para recoger, transportar, procesar, transformar, almacenar, recuperar y presentar los datos. Estas etapas son pasos funcionales para lograr el objetivo final de una aplicación de datos. Para crear una canalización de datos, los ingenieros usan a menudo el término pila para definir los sistemas de software y herramientas que se usan

8.4.2. Recogida La etapa de la recogida de datos comprende el modo de capturar los datos al comienzo del flujo de datos de una aplicación. En un entorno de redes, los datos los pueden recoger la infraestructura de la red (puntos de acceso, conmutadores, puertas de enlace), los dispositivos o aplicaciones del cliente, motores de recogida o herramientas creadas especialmente para ello, como los analizadores

8.4.3. Transporte En una canalización de datos, una vez que estos se han recogido, deben empaquetarse y transportarse a la infraestructura de back-end para su ingestión. El transporte debe usar el ancho de banda de la red de forma eficiente, manejar grandes volúmenes de datos y hacerlo con seguridad y fiabilidad.

8.5. ETL

8.5.1. ETL (extracción, transformación y carga) es un proceso mediante el cual un sistema recupera datos de una base de datos o cola (extracción), los manipula para crear formatos diferentes (transformación) y, a continuación, los instala en otra base de datos (carga)

8.5.2. Procesamiento El procesamiento y el ETL son etapas parecidas en la canalización de los datos, pero los he separado en esta discusión por motivos de claridad. El ETL se relaciona normalmente con dar forma a los datos para que puedan utilizarlos otros procesos

8.6. Tipos de almacenes de datos

8.6.1. » Los data lakes (o lagos de datos) son bases de datos en las que se almacenan grandes volúmenes de datos brutos sin estructurar que no están listos para su consulta, lo que es normalmente más económico que guardar datos procesados que sí están listos para consulta.

8.6.2. » Los almacenes de datos son parecidos a los lagos de datos, pero son volúmenes de datos que se han procesado e indexado para que puedan consultarse.

8.6.3. » Los data marts hacen referencia a los almacenes de datos que tienen subconjuntos de datos específicos que pueden interesar solamente a una empresa que necesite datos de un ámbito concreto.

8.6.4. » Los flujos de datos (o ríos) hacen referencia a datos que se envían en forma de telemetría continuada, lo que implica la intención de procesar los datos en un flujo continuo. Un flujo de datos se usa para analíticas o eventos en tiempo real, en lugar de almacenar muchos datos en bruto para un procesamiento o análisis posterior

8.7. Consulta y API

8.7.1. Cada tipo de base de datos tiene un formato de consulta específico para extraer los datos, pero las aplicaciones utilizan a menudo una lógica que facilita la consulta a través de API. Una API (interfaz de programación de aplicaciones) es una interfaz que sirve para que exista una interacción entre el software y los puntos de conexión

8.8. Ciencia de datos y aprendizaje automático

8.8.1. La ciencia de datos es la disciplina tecnológica que combina las matemáticas y la estadística con la informática, con el objetivo de obtener valor de los datos. Como se muestra en la figura 4-3, la ciencia de datos es un campo amplio que también abarca los subcampos del aprendizaje automático y el aprendizaje profundo

8.9. Modelado de datos

8.9.1. » Los modelos basados en reglas

8.9.2. » Los modelos estadísticos

8.9.3. » El AA

8.9.3.1. Tipos de AA

8.9.3.1.1. En el AA, hay muchos tipos diferentes de algoritmos que pueden usarse para modelar y extraer información de los datos. Como se muestra en la figura 4-4, el AA se clasifica por lo general en tres tipos.