Que es la Hiperconectividad

¿Que es la Hiperconectividad?

En este articulo te vamos a explicar lo que es la hiperconectividad, para que puedas tener un visión claro de sus aplicaciones y de la importancia que está destinado a tener en la tecnología en los próximos años.

Introducción Que es la Hiperconectividad

El término hiperconectividad fue utilizado por primera vez por Barry Wellman y Anabel Quan-Haase para describir el estado evolutivo de las comunicaciones en la sociedad y a partir de sus estudios sobre la comunicación de persona a persona en las organizaciones y sociedades en red.

Muchas empresas tecnológicas han adoptado el paradigma de la hiperconectividad para definir sus sistemas de comunicación de persona a persona, de persona a máquina y de máquina a máquina.

El término se refiere al uso de múltiples medios de comunicación, como el correo electrónico, la mensajería instantánea, el teléfono, el contacto cara a cara y los servicios de información de la web 3.0.

La hiperconectividad es también una tendencia en las redes informáticas en la que todas las cosas que pueden o deben comunicarse a través de la red se comunicarán a través de la red.

La hiperconectividad también puede verse como un estado de las comunicaciones unificadas (UC) en el que la capacidad de gestión del tráfico y el ancho de banda de una red siempre superan la demanda.
El número de vías y nodos de comunicación es mucho mayor que el número de abonados.

Todos los dispositivos que podrían beneficiarse de estar conectados a una red están de hecho conectados.

Que es la Hiperconectividad
Que es la Hiperconectividad – Photo by fauxels on Pexels.com

En la infraestructura hiperconectada definitiva, los dispositivos electrónicos e informáticos de todo tipo pueden comunicarse entre sí en la medida que cada usuario individual desee. Estos dispositivos pueden incluir:

Ordenadores personales, teléfonos inteligentes, dispositivos del Internet de las Cosas, electrodomésticos, dispositivos médicos, maquinaria agrícola e industrial, y muchos otros.

La hiperconectividad abarca la comunicación de persona a persona, de persona a máquina y de máquina a máquina.

Esta tendencia está impulsando grandes aumentos en la demanda de ancho de banda y cambios en las comunicaciones debido a la complejidad y diversidad e integración de nuevas aplicaciones y dispositivos que utilizan la red.

La hiperconectividad ha sido reconocida como una condición de mercado omnipresente y creciente que está en el centro de su estrategia empresarial.

Muchas empresas tecnológicas han sido citadas ampliamente en la prensa refiriéndose a la era de la hiperconectividad.

La habilitación de todos los dispositivos mediante IP es una limitación fundamental de la versión cuatro de IP y la seis es la tecnología que permite soportar explosiones masivas de direcciones.

En nuestra vida cotidiana tenemos ejemplos de hiperconectividad, como poder controlar desde el móvil, la televisión, el aire acondicionado o la lavadora.

Todo indica que, en un futuro no muy lejano, esta hiperconectividad irá en aumento, tanto en nuestro entorno personal como en la empresa.

Con el avance de las tecnologías, se están desarrollando nuevas formas de comunicarse, trabajar y disfrutar del tiempo libre.

Los avances en los teléfonos móviles, los navegadores, los asistentes de voz o el IoT (internet de las cosas) son algunos de los ejemplos relacionados con la hiperconectividad.

Además, las ciudades están cada vez más interconectadas y así aparece el término smart city.

En España, por ejemplo, ya existen modelos de ciudades inteligentes que, a través de la hiperconectividad, pueden ahorrar agua o implementar soluciones de aparcamiento inteligente.

Hiperconectividad en la industria

Del mismo modo, en el sector industrial, los sistemas y dispositivos que utilizamos en nuestro día a día están siendo utilizados para aumentar la productividad e incorporar herramientas de mejora continua.

Podemos incluir la hiperconectividad, también, en el concepto de Industria 4.0 del que tanto se habla.

Es necesario que las empresas implementen un mayor nivel de conectividad entre sus procesos, tanto los que se realizan dentro como fuera de la empresa.

De este modo, los medios de producción podrán interactuar, dentro de la fábrica, pero también a lo largo de la cadena de valor del producto: clientes, proveedores, etc.

Además de la cadena de producción y el sector productivo, la hiperconectividad también cambia la forma de trabajar de las empresas.

La computación en nube es un ejemplo de trabajo más flexible, dinámico y conectado.

También es importante recordar que es necesario dotar de seguridad a todos estos procesos hiperconectados, lo que se conoce como ciberseguridad, permite que estos procesos relacionados con las tecnologías de la información y la conectividad se realicen de forma segura.

¿Cuáles son los beneficios de implementar la hiperconectividad en una empresa?

La hiperconectividad aportará muchos beneficios a las industrias y a los procesos de producción. Sobre todo, servirá para conocer mejor al cliente.

Permitirá al cliente “acompañar” productos completamente adaptados a sus necesidades en el proceso de producción. La hiperconectividad no es un fin en sí mismo, sino un medio para ganar competitividad. He aquí algunos de estos beneficios:

La interconexión de toda la cadena de valor de un producto aumentará la confianza que se transmite a los clientes y también a los empleados y proveedores.

Permite conocer los datos del proceso en todo momento, significa que los procesos de la planta se conocen en tiempo real.

Cuantos más datos se conozcan, más posibilidades hay de tomar decisiones y detectar oportunidades de mejora.

Estar conectados también nos permite detectar cambios, en la oferta y la demanda, y nos ayuda a decidir, por ejemplo, cuándo es el mejor momento para sacar un nuevo producto al mercado.

Como se puede ver, pronto tendremos un mundo hiperconectado, ya que no sólo las cosas están conectadas entre sí, sino que también lo están los ciudadanos, las empresas e incluso las ciudades.

Las personas ya están acostumbradas a estar siempre conectadas y se espera que las empresas lo estén pronto.

Video ¿que es la hiperconectividad?

Que es la hiperconectividad youtube
Ciencia de datos vs Análisis de datos - Diagrama de Venn

Ciencia de datos vs Análisis de datos vs Aprendizaje automático

Cuando pensamos sobre Ciencia de datos vs Análisis de datos vs Aprendizaje automático, existe todavia mucha confusion sobre cada una de las disciplinas y los limites de cada uma de ellas. La ciencia de los datos, la analítica de datos y el aprendizaje automático están creciendo a un ritmo vertiginoso, y las empresas buscan cada vez más profesionales que puedan ayudarlas a sacar el máximo beneficio de la mina de oro que son en la actualidad los datos, pada poder tomar las mejores decisiones empresariales de uma forma rápida e eficiente.

IBM prevee que para 2022 el número de puestos de trabajo para los profesionales de los datos en todo el mundo sobrepase los 3.500.000 empleos, muchos de los cuales se quedarán sin cubrir.

Para saber más sobre por qué la ciencia de los datos, la analítica de datos y el aprendizaje automático es un campo tan apasionante y las habilidades que ayudarán a los profesionales a obtener una base sólida en este campo de rápido crecimiento, vamos a intentar responder a algunaa de las principales preguntas que se podrian hacer las personas interesadas en entrar en este mundo.

Indice Ciencia de datos vs Análisis de datos

¿Qué es la ciencia de los datos?


Hace más de una década que se intenta definir la ciencia de los datos, y la mejor manera de responder a esa pregunta es con un diagrama de Venn -creado por Hugh Conway en 2010, está formado por tres círculos: matemáticas y estadística, experiencia en la materia (conocimiento de las áreas de abstracción y computación) y habilidades de hacking. Se compone de tres círculos. Básicamente, si puedes hacer estas tres cosas, ya tienes un alto nivel de experiencia en el campo de la ciencia de los datos.

La ciencia de los datos es un concepto para trabajar con big data e incluye la limpieza, la preparación y el análisis de los datos. Un científico de datos recopila datos de múltiples fuentes y aplica el aprendizaje automático, el análisis predictivo y el análisis de sentimientos para extraer información clave de los conjuntos de datos recopilados. Los científicos de datos entienden los datos desde una perspectiva de negocio, proporcionando predicciones precisas y conocimientos que pueden ser utilizados para tomar decisiones de negocio importantes.

Ciencia de datos vs Análisis de datos - Diagrama de Venn
Ciencia de datos vs Análisis de datos – Diagrama de venn

¿Qué habilidades son necesarias para convertirse en un científico de datos?


Si quieres construir una sólida carrera en este campo, tendrás que desarrollar habilidades clave en tres áreas fundamentales: análisis, programación y conocimiento del dominio.

Para dar un paso adelante y hacerse un hueco como científico de datos, necesitarás las siguientes habilidades

  • Sólidos conocimientos de Python, SAS, R y Scala
  • Experiencia práctica en la codificación de bases de datos SQL
  • Capacidad para trabajar con datos no estructurados procedentes de diversas fuentes, incluidos los vídeos y las redes sociales
  • Comprensión de múltiples funciones analíticas
  • Conocimientos de aprendizaje automático
stock exchange board
Ciencia de datos vs Análisis de datos – Photo by Pixabay on Pexels.com

¿Qué es el análisis de datos?


Un analista de datos suele ser alguien que puede realizar estadísticas descriptivas básicas, visualizar datos y comunicar puntos de datos para obtener conclusiones. Requiere una comprensión básica de la estadística, un perfecto sentido de las bases de datos, la capacidad de crear nuevas ideas y la perspicacia para visualizar los datos. El análisis de datos puede describirse como un nivel necesario de la ciencia de datos.

Habilidades necesarias para convertirse en analista de datos

Un analista de datos debe ser capaz de tomar un asunto o tema específico, discutir lo que los datos dicen al respecto y presentar esos datos a las partes interesadas internas. Para ser un analista de datos con éxito, deberá tener las siguientes cuatro habilidades:

  • Conocimientos de estadística matemática
  • Fluidez en R y Python
  • Conocimientos de procesamiento de datos
  • Conocimiento de PIG/HIVE
  • ¿Qué habilidades necesito para convertirme en analista de datos?

La diferencia entre ciencia de datos y análisis de datos
La ciencia de los datos es un término general que engloba la analítica de datos, la minería de datos, el aprendizaje automático y otras disciplinas relacionadas. Se espera que un científico de datos prediga el futuro basándose en patrones pasados, mientras que un analista de datos extrae ideas significativas de una variedad de fuentes de datos. El científico de datos crea preguntas, mientras que el analista de datos encuentra respuestas a las preguntas existentes.

photo of pen on top of notebook
Ciencia de datos vs Análisis de datos Photo by fauxels on Pexels.com

¿Qué es el aprendizaje automático?

El aprendizaje automático puede definirse como la práctica de utilizar algoritmos para extraer datos, aprender de ellos y predecir tendencias futuras sobre un tema. El software de aprendizaje automático tradicional es un análisis estadístico o predictivo, utilizado para descubrir patrones y captar ideas ocultas basadas en los datos que reconoce.

Ciencia de datos vs Análisis de datos – Que es el aprendizaje Automatico

Un buen ejemplo de aplicación del aprendizaje automático es Facebook: los algoritmos de aprendizaje automático de Facebook recogen información sobre el comportamiento de cada usuario en la plataforma social. Basándose en el comportamiento anterior de la persona, el algoritmo predice sus intereses y recomienda artículos y notificaciones para su feed de noticias. Del mismo modo, cuando Amazon recomienda productos o Netflix recomienda películas basándose en comportamientos anteriores, el aprendizaje automático está en marcha.

¿Qué habilidades se necesitan para convertirse en un especialista de aprendizaje automático?

El aprendizaje automático no es más que una perspectiva diferente de la estadística. A continuación se exponen algunas habilidades clave que le ayudarán a iniciar su carrera en este campo de rápido crecimiento.

  • Conocimientos básicos de informática
  • Conocimientos profundos de programación
  • Conocimientos de probabilidad y estadística
  • Capacidades de modelización y evaluación de datos
  • Ciencia de los datos y aprendizaje automático
  • Como la ciencia de los datos es un término amplio que se refiere a varias disciplinas, el aprendizaje automático se sitúa dentro de la ciencia de los datos. El aprendizaje automático utiliza diversas técnicas, como la regresión y la agrupación supervisada. Los “datos” en la ciencia de los datos, por otro lado, pueden o no evolucionar a partir de máquinas o procesos mecánicos. La principal diferencia entre ambas es que la ciencia de los datos en un sentido más amplio no sólo se centra en los algoritmos y la estadística, sino que también se ocupa de la metodología general del procesamiento de datos.
Ciencia de datos vs Análisis de datos
La ciencia de los datos es interdisciplinaria

La ciencia de los datos puede considerarse como la integración de varias disciplinas básicas, como el análisis de datos, la ingeniería de software, la ingeniería de datos, el aprendizaje automático, el análisis predictivo y la analítica de datos. Implica la investigación, recopilación, captura y transformación de grandes cantidades de datos, conocidos colectivamente como Big Data.

Ciencia de datos vs Análisis de datos – Que es el Data Science

La ciencia de los datos se encarga de dar estructura a los big data, buscar patrones convincentes y asesorar a los responsables de la toma de decisiones sobre cómo realizar cambios efectivos para satisfacer las necesidades del negocio. El análisis de datos y el aprendizaje automático son dos de las muchas herramientas y procesos que utilizan los científicos de datos.

La ciencia de los datos, la analítica de datos y el aprendizaje automático son algunas de las áreas más solicitadas en la industria actual.

Si se combinan las aptitudes adecuadas con la experiencia en el mundo real, es posible asegurarse una sólida carrera en estos campos de tendencia.

Aprende los fundamentos de TensorFlow y Deep Learning con Python

Aprende los fundamentos de TensorFlow y Deep Learning con Python

un curso interesante que te permitirá aprender los fundamentos de TensorFlow y del deep learning a través de Python. El curso está en inglés, pero como el subtitulado es fácil para gente que no domine la lengua inglesa de poder seguir.

Aprende los fundamentos de TensorFlow y Deep Learning con Python Parte I

¿Listo para aprender los fundamentos de TensorFlow y el aprendizaje profundo con Python? Bueno, has venido al lugar correcto.

Después de esta introducción en dos partes, habrás escrito cientos de líneas de código TensorFlow y tendrás experiencia práctica con dos problemas importantes en el aprendizaje automático: regresión (predecir un número) y clasificación (predecir si algo es una cosa u otra).

Abre una ventana de Google Colab (si no estás seguro de lo que es, pronto lo sabrás) y prepárate para codificar.


Consigue todo el código/materiales en GitHub – https://www.github.com/mrdbourke/tens…
Haz una pregunta – https://github.com/mrdbourke/tensorfl…
Ver parte 2 – https://youtu.be/ZUKz4125WNI
Documentación de TensorFlow Python – https://www.tensorflow.org/api_docs/p…

Marcas de tiempo:
0:00 – Introducción/hola/cómo enfocar este vídeo
1:50 – INICIO DEL MÓDULO 0 (fundamentos de TensorFlow/aprendizaje profundo)
1:53 – [Keynote] 1. ¿Qué es el aprendizaje profundo?
6:31 – [Keynote] 2. ¿Por qué utilizar el aprendizaje profundo?
16:10 – [Keynote] 3. ¿Qué son las redes neuronales?
26:33 – [Keynote] 4. ¿Para qué se utiliza realmente el aprendizaje profundo?
35:10 – [Keynote] 5. ¿Qué es y por qué usar TensorFlow?
43:05 – [Keynote] 6. ¿Qué es un tensor?
46:40 – [Keynote] 7. Qué vamos a cubrir
51:12 – [Keynote] 8. Cómo enfocar este curso
56:45 – 9. Creando nuestros primeros tensores con TensorFlow
1:15:32 – 10. Creación de tensores con tf Variable
1:22:40 – 11. Creación de tensores aleatorios
1:32:20 – 12. Barajar el orden de los tensores
1:42:00 – 13. Creación de tensores a partir de matrices NumPy
1:53:57 – 14. 14. Obtención de información de nuestros tensores
2:05:52 – 15. Indexación y expansión de tensores
2:18:27 – 16. Manipulación de tensores con operaciones básicas
2:24:00 – 17. Multiplicación de matrices parte 1
2:35:55 – 18. Multiplicación de matrices parte 2
2:49:25 – 19. Multiplicación de matrices parte 3
2:59:27 – 20. Cambio del tipo de datos de los tensores
3:06:24 – 21. 21. Agregación de tensores
3:16:14 – 22. Solución de problemas con tensores
3:22:27 – 23. Encontrar el mínimo y el máximo posicional de un tensor
3:31:56 – 24. 24. Exprimir un tensor
3:34:57 – 25. 25. Codificación de tensores en caliente
3:40:44 – 26. Probando más operaciones matemáticas con tensores
3:45:31 – 27. 27. Uso de TensorFlow con NumPy
3:51:14 – INICIO DEL MÓDULO 1 (regresión de redes neuronales)
3:51:25 – [Keynote] 28. Introducción a la regresión de redes neuronales con TensorFlow
3:58:57 – [Keynote] 29. Entradas y salidas de un modelo de regresión
4:07:55 – [Keynote] 30. Arquitectura de un modelo de regresión de red neuronal
4:15:51 – 31. Creación de datos de regresión de muestra
4:28:39 – 32. Pasos en la modelización con TensorFlow
4:48:53 – 33. Pasos para mejorar un modelo parte 1
4:54:56 – 34. Pasos para mejorar un modelo parte 2
5:04:22 – 35. Pasos para mejorar un modelo, parte 3
5:16:55 – 36. Evaluación de un modelo parte 1 (“visualizar, visualizar, visualizar”)
5:24:20 – 37. Evaluación de un modelo parte 2 (los 3 conjuntos de datos)
5:35:22 – 38. Evaluación de un modelo parte 3 (resumen del modelo)
5:52:39 – 39. Evaluación de un modelo parte 4 (visualización de las capas)
5:59:56 – 40. Evaluación de un modelo parte 5 (visualización de predicciones)
6:09:11 – 41. Evaluación de un modelo parte 6 (métricas de evaluación de la regresión)
6:17:19 – 42. Evaluación de un modelo de regresión parte 7 (MAE)
6:23:10 – 43. Evaluación de un modelo de regresión parte 8 (MSE)
6:26:29 – 44. Experimentos de modelización parte 1 (empezar con un modelo sencillo)
6:40:19 – 45. Experimentos de modelización parte 2 (aumento de la complejidad)
6:51:49 – 46. Comparación y seguimiento de experimentos
7:02:08 – 47. Guardar un modelo
7:11:32 – 48. Cargar un modelo guardado
7:21:49 – 49. Guardar y descargar archivos de Google Colab
7:28:07 – 50. 50. Reunir lo que hemos aprendido 1 (preparar un conjunto de datos)
7:41:38 – 51. Reunir lo que hemos aprendido 2 (construir un modelo de regresión)
7:55:01 – 52. 52. Reunir lo que hemos aprendido 3 (mejorar nuestro modelo de regresión)
8:10:45 – [Código] 53. Preprocesamiento de datos 1 (conceptos)
8:20:21 – [Código] 54. Preprocesamiento de datos 2 (normalización de datos)
8:31:17 – [Código] 55. Preprocesamiento de datos 3 (ajuste de un modelo en los datos normalizados)
8:38:57 – INICIO DEL MÓDULO 2 (clasificación con redes neuronales)
8:39:07 – [Keynote] 56. Introducción a la clasificación de redes neuronales con TensorFlow
8:47:31 – [Keynote] 57. Entradas y salidas de la clasificación
8:54:08 – [Keynote] 58. Formas del tensor de entrada y salida de la clasificación
9:00:31 – [Keynote] 59. Arquitectura típica de un modelo de clasificación
9:10:08 – 60. Creación y visualización de datos de clasificación para el modelo
9:21:39 – 61. Comprobación de las formas de entrada y salida de nuestros datos de clasificación
9:26:17 – 62. Construyendo un modelo de clasificación no muy bueno
9:38:28 – 63. 63. Intentando mejorar nuestro modelo de clasificación no muy bueno
9:47:42 – 64. Creación de una función para visualizar las predicciones no tan buenas de nuestro modelo
10:02:50 – 65. Haciendo que nuestro pobre modelo de clasificación funcione para un conjunto de datos de regresión

Aprende los fundamentos de TensorFlow y Deep Learning con Python Parte II

Has llegado a la segunda parte de la serie de vídeos más larga de aprendizaje profundo y TensorFlow en YouTube.

Esta parte continúa justo donde lo dejó la primera, así que abre la ventana de Google Colab y prepárate para escribir mucho más código TensorFlow.


Consigue todo el código/materiales en GitHub – https://www.github.com/mrdbourke/tens…
Haz una pregunta – https://github.com/mrdbourke/tensorfl…
Ver parte 1 – https://youtu.be/tpCFfeUEGs8
Documentación de TensorFlow Python – https://www.tensorflow.org/api_docs/p…

Marcas de tiempo:
0:00 – Introducción/hola/¿Has visto la parte 1? Si no, deberías
0:55 – 66. No linealidad parte 1 (líneas rectas y no rectas)
10:33 – 67. No linealidad parte 2 (construir nuestra primera red neuronal con una función de activación no lineal)
16:21 – 68. No linealidad parte 3 (mejorando nuestro modelo no lineal con más capas)
26:40 – 69. No linealidad parte 4 (modelando nuestros datos no lineales)
35:18 – 70. No linealidad parte 5 (reproduciendo nuestras funciones no lineales desde cero)
49:45 – 71. Conseguir grandes resultados en menos tiempo ajustando la tasa de aprendizaje
1:04:32 – 72. Uso del objeto histórico para trazar las curvas de pérdida de un modelo
1:10:43 – 73. Utilizar las devoluciones de llamada para encontrar la tasa de aprendizaje ideal de un modelo
1:28:16 – 74. Entrenamiento y evaluación de un modelo con una tasa de aprendizaje ideal
1:37:37 – [Nota clave] 75. Introducción de más métodos de clasificación
1:43:41 – 76. 76. Encontrar la precisión de nuestro modelo
1:47:59 – 77. 77. Creación de nuestra primera matriz de confusión
1:56:27 – 78. Hacer más bonita nuestra matriz de confusión
2:10:28 – 79. Clasificación multiclase parte 1 (preparación de los datos)
2:21:04 – 80. Clasificación multiclase, parte 2 (hacerse uno con los datos)
2:28:13 – 81. Clasificación multiclase, parte 3 (creación de un modelo multiclase)
2:43:52 – 82. Clasificación multiclase, parte 4 (mejorar nuestro modelo multiclase)
2:56:35 – 83. Clasificación multiclase, parte 5 (normalizada y no normalizada)
3:00:48 – 84. Clasificación multiclase parte 6 (encontrar la tasa de aprendizaje ideal)
3:11:27 – 85. Clasificación multiclase, parte 7 (evaluación de nuestro modelo)
3:25:34 – 86. Clasificación multiclase, parte 8 (creación de una matriz de confusión)
3:30:00 – 87. Clasificación multiclase, parte 9 (visualización de muestras aleatorias)
3:40:42 – 88. ¿Qué patrones está aprendiendo nuestro modelo?

Traducción realizada con la versión gratuita del traductor www.DeepL.com/Translator

Los 7 mejores libros de ciencia de datos para principiantes

Los 7 mejores libros de ciencia de datos para principiantes


.

Los 7 mejores libros de ciencia de datos para llevarte desde principiante a master

En pleno auge del video sobre cualquier otro formato, muchos aspirantes a alguna profesión de futuro, se olvidan que entre tutoriales de youtube, webinars, cursos de udemy o de coursera, hay una herramienta de aprendizaje fenomenal que funcional desde hace siglos, que no necesita internet, ni electricidad, que es 100 movil y que se adapta al ritmo de cada uno.

EL LIBRO.

Los 7 mejores libros de ciencia de datos para principiantes
Photo by Pixabay on Pexels.com

Es cierto que no todos los libros y todos los autores son capaces de hacer del aprendizaje una experiencia fácil y divertida. En este listado os propongo 7 libros de 7 autores que merecen la pena leer para llevaros desde un simples principiante de la ciencia de datos a dominar el tema y poder aplicarla sin cualquier tipo de problemas.

1. The Python Data Science Handbook, de Jake VanderPlas, publicado por O’Reilly.

Los 7 mejores libros de ciencia de datos para principiantes

Este libro es ideal para aquellos que se están iniciando en el análisis de datos y la ciencia de los datos y necesitan un libro que haga referencia a todas las técnicas y características de la biblioteca y amplíe Python para la ciencia de los datos. El libro cubre una variedad de temas en detalle y en profundidad, incluyendo la manipulación de datos con IPython (Python Interactivo), Numpy y Pandas, la visualización con matplotlib, y los algoritmos de aprendizaje automático supervisado y no supervisado con scikit-learn La cantidad y la profundidad del contenido sobre estos temas es impresionante. La cantidad y la calidad de los contenidos sobre estos temas contribuirán en gran medida a proporcionar habilidades para iniciarse en el ciclo de proyectos de ciencia de datos.

2. Practical Statistics for Data Scientists, de Peter Bruce, Andrew Bruce y Peter Gedek, publicado por O’Reilly.

Los 7 mejores libros de ciencia de datos para principiantes

La segunda edición de este libro ya ha salido, pero personalmente creo que es beneficioso leer este libro incluso si estás empezando o eres un profesional. Porque las estadísticas son la base de la ciencia de datos, y es fácil olvidarla, este libro te permitirá adquirir muchas habilidades si no las tienes todavia, pero también permitirá refrescar algunas de las que no se han vuelto a utilizar desde que se ha aprendido..

Estos temas se incluyen en este libro. Este libro incluye temas como EDA, datos y distribuciones de muestreo, experimentos estadísticos y pruebas de significación, regresión, clasificación, ML estadístico y aprendizaje no supervisado. Si eres un principiante, lee primero el primer libro y luego salta a este libro para aprender un montón de nuevas habilidades en la ciencia de los datos.

3. Introducing Data Science, de Davy Cielen et.al, publicado por Manning.

Los 7 mejores libros de ciencia de datos para principiantes

Me gusta este libro porque no sólo cubre los temas omnipresentes de la ciencia de los datos, sino también otros aspectos del campo de la ciencia de los datos, como {bases de datos NoSQL, minería de textos, análisis de textos y cómo iniciarse en el Big Data, especialmente el manejo de grandes cantidades de datos en un solo ordenador el manejo de grandes cantidades de datos en un solo ordenador}. Entender y trabajar con la integración de bases de datos en proyectos de ciencia de datos es una habilidad realmente útil y demandada. Te recomiendo que leas este artículo y aprendas las habilidades mencionadas.

4. The Art of Statistics: Learning Statistics from Data, de David Spiegelhalter, Pelican Publications, Inc.

Los 7 mejores libros de ciencia de datos para principiantes

Este libro era la recomendación de un curso de Ciencia de Datos Aplicada en Coursera en la Universidad de Michigan. Este libro hace un importante enfoque en la importancia de la capacidad de visualización (o, más concretamente, del arte). Es un libro muy recomendable a cualquiera que quiera comprender la profundidad de la visualización de datos y aprender el arte de la visualización de datos.

5. Data Science from Scratch de Joel Grus (publicado por O’Reilly)

Los 7 mejores libros de ciencia de datos para principiantes

Ya en su segunda edición, este libro ha ganado popularidad porque combina una variedad de fundamentos en un solo libro. Comienza con un curso intensivo de Python y luego pasa a la visualización de datos, el álgebra lineal y la estadística, la probabilidad, las hipótesis y la inferencia, la adquisición y el uso de datos, y el aprendizaje automático, las redes neuronales y los sistemas de recomendación, el análisis de redes y muchos otros temas relacionados con los datos. Es una gran lectura, y esperamos que la disfrute.

6.R for Data Science por Hadley Wickham & Garrett Gromund, publicado por O’ Reilly

Los 7 mejores libros de ciencia de datos para principiantes

R es todavia uno de los lenguajes de programación más utilizados para ciencia de datos. Algo que podría no parecer el caso por las recomendaciones hasta el momento.

Este libro es para las personas que quieren conocer el lenguaje, y todas la infinidad de librerías disponibles, para que puedan probarlo Cualquiera que esté pensando en hacer algo divertido o nuevo en ciencia de datos, como aprender un nuevo lenguaje para una tarea de ciencia de datos, debería leer definitivamente este libro. En este libro lo aprenderá todo. Definitivamente, merece la pena echarle un vistazo.

7.Think Stats de Allen B. Downey, publicado por O’ Reilley

Los 7 mejores libros de ciencia de datos para principiantes

Think Stats es un prólogo a la Probabilidad y la Estadística para los desarrolladores de software y científicos de datos de Python (si no estás ya familiarizado con estos temas).

Think Stats le muestra métodos sencillos para explorar conjuntos de datos del mundo real y responder a preguntas interesantes. El libro presenta un análisis contextual utilizando datos de los Institutos Nacionales de Salud.

Si tiene los conocimientos básicos de Python, puede utilizarlo para aprender a pensar en la probabilidad y la estadística.Think Stats se basa en la biblioteca de distribuciones de probabilidad de Python. También incluye muchos ejercicios que permiten realizar diversos experimentos con programas cortos para profundizar en su comprensión.

Aunque muchos libros no cubren la estadística bayesiana, Think Stats destaca el potencial de las técnicas bayesianas como algo muy importante; mediante el uso de PMF y la biblioteca CDF (utilizada para las distribuciones de probabilidad), incluso los aficionados pueden familiarizarse con las ideas y abordar los problemas de pruebas posibles.

Business Analytics

¿Que es y que no es Business Analytics?

En este articulo analizaremos brevemente lo que se entiende por business analytics o Analitica de datos/negocios e intentaremos aportar una visión sobre el valor que puede añadir a las pequeñas empresas por el hecho que no es necesario utilizar herramientas millonarias para implementar el proceso y sacarle provecho desde el primer dia.

¿Que és Business Analytics?

Business Intelligence, Business Analytics, Data Science, Data Mining, Big Data, Machine Learning …

Seguramente habrás oído centenas de veces estos términos en version anglicanismo.

También te habrás preguntado que son, o en que consisten.

Habrás buscado en internet y de habrá salido este tipo de respuesta …

Business Analytics o su acepción en español, Analítica Empresarial, consiste en llevar a cabo una serie de soluciones empresariales para satisfacer las necesidades de un negocio, lograr metas y alcanzar objetivos. En otras palabras, la analítica empresarial se centra en recopilar datos, enriquecerlos, gestionarlos y analizarlos para extraer la información relevante para la toma de decisiones de un negocio.

¿Contento?

Business Analytics
Business Analytics – Photo by Timur Saglambilek on Pexels.com

¿No? Entonces continua viendo esta introducción.

Las empresas viven en un ecosistema competitivo cada vez más complicado.

Para sobrevivir necesitan observar y comprender adecuadamente cómo cambia ese ecosistema, para poder evitar peligros, anticiparse a cambios, escuchar sus clientes, vigilar sus competidores, en muchas otras funciones.

Como se observa? Midiendo como el ecosistema cambia desde diversos enfoques y puntos de vista.

La definición de dato, según la estadística es la cuantificación de una medida. Por lo cuando observamos estamos midiendo diferentes cambios del ecosistema, generando a través de ellos datos. Si no observamos desde un punto de vista correcta o un elemento del ecosistema, no tendremos datos sobre el mismo y se nos escapará.

Los datos pueden ser procesados en información a través de la asociación de contextos referentes a lo que se observa y a través de la agregación de diferentes tipos de datos para completar el valor añadido que pueden aportar.

Si hablamos de 55, 45, 35 estamos hablando de datos sueltos sin valor añadido. Sin contextualizamos y agregames información y a estos datos aportamos precio y competidor principal, entonces tenemos una información valiosa sobre que el principal competidor de la empresa está bajando sus precios.

Con información, podemos seguir adelante en un proceso de aprendizaje y generación de conocimiento e experiencia.

Con conocimiento y experiencia es posible tomar decisiones sobre la actividad de la empresa y cómo esta interactúa de vuelta sobre su ecosistema, manipulando determinados procesos de actividad que van a su vez influenciar los datos que se están observando en el mismo.

Y el proceso vuelve a empezar.

Donde encaja Business Analytics ? En los tres puntos de recolección de datos, generación de información y toma de decisiones.

¿Y cual de ellos es más importante?

Analizemos la primera definición vista.

La analítica empresarial se centra en recopilar datos, enriquecerlos, gestionarlos y analizarlos para extraer la información relevante para la toma de decisiones de un negocio.

La definición se centra en la recopilación de datos y moverlos hacia arriba en la hierarquia de la empresa.

Esto es incorrecto.

Para entender el ecosistema, es necesario tener una vision del ecosistema y de cómo la empresa puede sobrevivir en ello. Este conocimiento solamente existente en la alta dirección de una empresa.

Por lo que el Business Analytics es un proceso que debe empezar desde comité de dirección y navegar por la organización hacia bajo. La cuestion numero 1, es: ¿Cómo puedo sobrevivir y crecer en mi ecosistema?

Esa pregunta puede después derivar en otras cada vez más detalladas que se van a traducir en que información y datos son necesarios para responder a esas preguntas y/o solucionar los problemas al que la empresa se enfrenta.

El ultimo paso, es entonces que solucion empresarial se puede utilizar para conseguir recolectar todos los datos necesarios que se han identificado en el proceso de Business Analytics.

De no hacerse asi, se transforma, en que puede mi empresa hacer con el software millonario que nos han vendido, que no sabemos utilizar, que no se adapta a nuestras necesidades, y que generalmente generar un valor 0.

Una vez establecido este planteamiento y recolectados los datos, es cuando podemos utilizar las técnicas y tecnologías disponibles para poder realizar proyecciones a futuro, analisis predictivo, o tener una lista de acciones concretas a realizar, Analisis prescriptiva.

Business Analytics
Big Data – Photo by Christina Morillo on Pexels.com

Big data, Data Science e Inteligencia Artificial

Con esta definición de Business Analytics, es tambien fácil integrar big data o data science dado que son herramientas a que se pueden utilizar para aumentar la capacidad de proceso de datos y sintetización de nuevas informaciones encaminadas a la respuesta de preguntas estratégicas para la empresa. De la misma forma, la inteligencia artificial es un proceso de reconocimiento automático de patrones en datos que permiten generar relaciones en causa-efecto, que desde un enfoque de Business Analytics puede multiplicar la capacidad de busca de datos e información para la generación de las preguntas de negocio.

Otro aspecto de esta vision a través del big data, es que este ultimo, no es relativo solamente a cantidad de datos, pero también tipos de datos y fuente de generación de datos, por lo que permite a la empresa contar con diferentes sistemas de referencia que pueden complementar y calibrar la percepción y la vision del ecosistema a través de la empresa, o de las personas que trabajan en ella, y puede estar sesgado.

Relación con la Transformación Digital.

La transformación digital es la integración de tecnologías de la información de forma masiva en todos los procesos de la empresa. Si la empresa tiene claro sus objetivos y como la gestión de la información es un elemento estratégico vital para la empresa, entonces la transformación digital es un complemento del proceso de Business Analytics, que además generará todavía mas datos e información sobre procesos internos que de otra forma no podrían generar una medida eficiente de su actividad o de su rendimiento.

¿En Conclusión, que es Business Analytics?

Es un proceso continuo de medición de la capacidad de la empresa de sobrevivir y crecer en su mercado, a través la búsqueda continua de respuestas a las principales cuestiones o problemas de la misma.

Las últimas noticias sobre ciencia, tecnología y cultura digital

Transformers en Deep Learning

 

      Interesante explicación de los transformers en Deep Learning

 

Esto un tema que creo que es importante que los profesionales lo entiendan porque representa un cambio real en el procesamiento del lenguaje natural, como si tuviera 12 meses, pero es una de esas cosas que es increíblemente significativa en el campo, y es el avance que los Transformadores introducen en el campo del reconocimiento de lenguaje natural.

Leo Dirac (@leopd) habla de cómo los modelos LSTM para el Procesamiento del Lenguaje Natural (PNL) han sido prácticamente reemplazados por modelos basados en transformadores. Conocimientos básicos sobre PNL, y una breve historia de las técnicas de aprendizaje supervisado de documentos, desde la bolsa de palabras, a través de RNNs de vainilla y LSTM. Luego hay una inmersión técnica profunda en cómo funcionan los transformadores con auto-atención de múltiples cabezas, y codificación posicional. Incluye código de muestra para aplicar estas ideas a proyectos del mundo real.

 

Que es el Robotic Process Automation (RPA) o automatización robótica de procesos?

ROBOTIC PROCESS AUTOMATION (RPA) una nueva INNOVACIÓN PARA LAS EMPRESAS

 

ROBOTIC PROCESS AUTOMATION (RPA) una nueva INNOVACIÓN PARA LAS EMPRESAS

 

Cada vez más empresas están recurriendo a una práctica tecnológica emergente llamada automatización de procesos robóticos (RPA) para racionalizar las operaciones de la empresa y reducir los costos. Con el RPA, las empresas pueden automatizar procesos empresariales mundanos basados en reglas, permitiendo a los usuarios empresariales dedicar más tiempo a servir a los clientes o a otros trabajos de mayor valor. Otros consideran que el RPA es una solución provisional en el camino hacia la automatización inteligente (AI) mediante herramientas de aprendizaje automático (ML) y de inteligencia artificial (AI), que se pueden entrenar para hacer juicios sobre los resultados futuros.

¿Qué es la automatización de procesos robóticos?

El Robotic Process Automation  es una aplicación de la tecnología, regida por la lógica empresarial y las entradas estructuradas, destinada a automatizar los procesos empresariales. Mediante las herramientas RPA, una empresa puede configurar un software, o un “robot”, para capturar e interpretar las aplicaciones para procesar una transacción, manipular datos, desencadenar respuestas y comunicarse con otros sistemas digitales. Los escenarios de RPA van desde algo tan simple como generar una respuesta automática a un correo electrónico hasta desplegar miles de bots, cada uno programado para automatizar trabajos en un sistema ERP.

Las operaciones de empresas de servicios financieros estuvieron a la vanguardia de la adopción de RPA, descubriendo formas de utilizar el software para facilitar los procesos empresariales sin aumentar el número de empleados o los costes.

¿Cuáles son los beneficios de RPA?

El RPA proporciona a las organizaciones la capacidad de reducir los costes de personal y minimizar los errores humanos. Por ejemplo, algunos bancos consiguieron con la implementación del RPA con varios bots para ejecutar diversos procesos, manejando 2 millones de solicitudes por año. Con ello, se añadió una capacidad equivalente a más de varias centenas de empleados a tiempo completo a con una fracción del coste y con la capacidad infalible de las máquinas para revisar detalles sin equivocación.

Los bots son típicamente de bajo costo y fáciles de implementar, no requiriendo ningún software personalizado o una profunda integración de sistemas. Estas características son cruciales para que las organizaciones puedan crecer sin añadir gastos significativos o fricciones entre los trabajadores.

Las empresas también pueden maximizar sus esfuerzos de automatización mezclando RPA con tecnologías cognitivas como el Machine Learning, el reconocimiento de voz  y
procesamiento del lenguaje natural, automatizando tareas de alto valor añadido que en el pasado requerían las capacidades perceptivas y de juicio que solamente los humanos teníamos hasta hace poco.