Tecnologías de nube aplicadas a la empresa

Tecnologías de nube aplicadas a la empresa

En este artículo, exploramos cómo las empresas están utilizando las tecnologías de nube para mejorar la eficiencia, reducir costes, escalar sus operaciones y mejorar la seguridad de sus datos. Descubre cómo la nube está cambiando la forma en que las empresas gestionan y utilizan sus recursos informáticos, y cómo está revolucionando la forma en que desarrollan y entregan aplicaciones y servicios.

Tecnologías de nube aplicadas a la empresa

I. Introducción a las tecnologías de nube y su impacto en las empresas

¿Qué es la nube?

Para empezar, es importante tener en cuenta que la nube es simplemente un término que se utiliza para referirse a la informática en la que se utilizan recursos informáticos remotos a través de internet. Esto significa que en lugar de utilizar su propio hardware y software para almacenar y procesar datos, las empresas pueden acceder a estos recursos a través de la nube.

Ventajas de la nube para las empresas (reducción de costes, escalabilidad, disponibilidad y seguridad)

Hay muchas ventajas de utilizar la nube para las empresas. Una de las principales es la reducción de costes. En lugar de tener que adquirir y mantener hardware y software caro, las empresas pueden utilizar servicios de nube a un precio mensual. Esto les permite reducir el gasto en infraestructuras y personal técnico, y enfocarse en lo que realmente importa: su negocio.

Otra ventaja importante de la nube es su escalabilidad. Esto significa que las empresas pueden aumentar o disminuir el uso de servicios de nube según sus necesidades, sin tener que preocuparse por el espacio de almacenamiento o la potencia de procesamiento. Esto es especialmente útil para las empresas que experimentan altos picos de actividad o que tienen necesidades informáticas cambiantes.

Además, la nube también ofrece una alta disponibilidad y seguridad. Los proveedores de servicios de nube suelen ofrecer una alta disponibilidad de sus servicios, lo que significa que las empresas pueden acceder a sus datos y aplicaciones en todo momento. Además, la nube también ofrece una seguridad mejorada, ya que los datos se almacenan en servidores seguros y protegidos por medidas de seguridad avanzadas.

Tecnologias de nube aplicadas a la empresa - Hombre relajandose por la aplicación de tecnologias de nube a la empresa
Tecnologías de nube aplicadas a la empresa – Photo by cottonbro studio on Pexels.com

Tipos de nube (pública, privada, híbrida)

Existen diferentes tipos de tecnologías de nube, cada una de las cuales se adapta a diferentes necesidades de las empresas. Por ejemplo, la nube pública es un tipo de nube que está disponible para cualquier persona y se ofrece a través de proveedores de servicios de nube como Amazon Web Services o Microsoft Azure. La nube privada, por otro lado, es una nube que solo está disponible para una empresa específica y se ejecuta en servidores propiedad de la empresa. La nube híbrida, por último, combina elementos de la nube pública y privada y permite a las empresas elegir qué datos y a aplicaciones se almacenan en la nube pública y cuáles se almacenan en la nube privada.

En resumen, las tecnologías de nube han revolucionado la forma en que las empresas gestionan y utilizan sus recursos informáticos. Ofreciendo una mayor eficiencia, reducción de costes, escalabilidad y seguridad, la nube es una opción atractiva para cualquier empresa que busque mejorar su productividad y competitividad. En los siguientes puntos de nuestro artículo, profundizaremos en cómo las empresas están utilizando la nube para el almacenamiento y la gestión de datos, la colaboración y la comunicación, y el desarrollo de aplicaciones y servicios.

Las tecnologías de nube han revolucionado la forma en que las empresas gestionan y utilizan sus recursos informáticos. Al permitir el acceso a aplicaciones y datos desde cualquier lugar y dispositivo, la nube ha cambiado la forma en que las empresas trabajan y colaboran.

Una de las principales ventajas de la nube es su capacidad para reducir los costes informáticos de una empresa. En lugar de adquirir y mantener hardware y software caro, las empresas pueden utilizar servicios de nube a un precio mensual. Esto les permite reducir el gasto en infraestructuras y personal técnico, y enfocarse en lo que realmente importa: su negocio.

Además, las tecnologías de nube son muy escalables. Esto significa que las empresas pueden aumentar o disminuir el uso de servicios de nube según sus necesidades, sin tener que preocuparse por el espacio de almacenamiento o la potencia de procesamiento. Esto es especialmente útil para las empresas que experimentan altos picos de actividad o que tienen necesidades informáticas cambiantes.

Otra ventaja importante de la nube es su alta disponibilidad y seguridad. Los proveedores de servicios de nube suelen ofrecer una alta disponibilidad de sus servicios, lo que significa que las empresas pueden acceder a sus datos y aplicaciones en todo momento. Además, la nube también ofrece una seguridad mejorada, ya que los datos se almacenan en servidores seguros y protegidos por medidas de seguridad avanzadas.

Existen diferentes tipos de tecnologías de nube, cada una de las cuales se adapta a diferentes necesidades de las empresas. Por ejemplo, la nube pública es un tipo de nube que está disponible para cualquier persona y se ofrece a través de proveedores de servicios de nube como Amazon Web Services o Microsoft Azure. La nube privada, por otro lado, es una nube que solo está disponible para una empresa específica y se ejecuta en servidores propiedad de la empresa. La nube híbrida, por último, combina elementos de la nube pública y privada y permite a las empresas elegir qué datos y aplicaciones se almacenan en la nube pública y cuáles se almacenan en la nube privada.

II. Almacenamiento y gestión de datos en la nube

Ventajas de almacenar datos en la nube (espacio de almacenamiento ilimitado, acceso rápido y sencillo, seguridad mejorada)

Uno de los usos más comunes de la nube en las empresas es el almacenamiento y la gestión de datos. La nube permite a las empresas almacenar y acceder a grandes cantidades de datos de manera rápida y sencilla, sin tener que preocuparse por el espacio de almacenamiento o la seguridad de los datos. Además, muchos servicios de nube ofrecen herramientas de análisis y visualización de datos que permiten a las empresas obtener una visión más clara de su negocio y tomar decisiones más informadas.

Por ejemplo, Google Drive es un servicio de nube que permite a las empresas almacenar y compartir documentos, hojas de cálculo y presentaciones en línea. También ofrece herramientas de colaboración en tiempo real que permiten a varias personas trabajar en el mismo documento al mismo tiempo. Microsoft OneDrive es otro servicio de nube popular que ofrece funcionalidades similares.

Otro ejemplo de cómo las empresas están utilizando la nube para el almacenamiento y la gestión de datos es el uso de plataformas de análisis y visualización de datos como Tableau o Power BI. Estas herramientas permiten a las empresas transformar grandes cantidades de datos en gráficos y tablas fáciles de entender, lo que les ayuda a obtener una visión más clara de su negocio y tomar decisiones informadas.

En resumen, el almacenamiento y la gestión de datos en la nube son una parte fundamental de muchas empresas modernas. La nube ofrece una solución sencilla y eficiente para almacenar y acceder a grandes cantidades de datos, y las herramientas de análisis y visualización de datos disponibles en la nube permiten a las empresas obtener una visión más clara de su negocio y tomar decisiones informadas.

Herramientas de análisis y visualización de datos disponibles en la nube

Hay muchas herramientas de análisis y visualización de datos disponibles en la nube que pueden ser útiles para las empresas. Algunas de las más populares son:

  1. Tableau: Es una plataforma de análisis y visualización de datos en la nube que permite a las empresas transformar grandes cantidades de datos en gráficos y tablas fáciles de entender. Ofrece una gran variedad de gráficos y tablas que se pueden personalizar según las necesidades de la empresa.
  2. Power BI: Es una plataforma de análisis y visualización de datos de Microsoft que permite a las empresas transformar grandes cantidades de datos en informes visuales y tablas. Ofrece una gran variedad de gráficos y tablas que se pueden personalizar y compartir fácilmente con otros.
  3. Google Analytics: Es una plataforma de análisis y seguimiento de datos de Google que permite a las empresas analizar el tráfico y el rendimiento de su sitio web. Ofrece una gran cantidad de informes y métricas que pueden ayudar a las empresas a entender el funcionamiento de sus webs.
  4. Looker: Es una plataforma de análisis y visualización de datos en la nube que permite a las empresas acceder a grandes cantidades de datos y transformarlos en informes y gráficos personalizables. También ofrece integraciones con otras plataformas de negocios, como Salesforce o Google Analytics.
  5. Datadog: Es una plataforma de monitoreo y análisis de datos en la nube que permite a las empresas monitorear y analizar el rendimiento de sus aplicaciones, servicios y sistemas. Ofrece una gran cantidad de métricas y alertas que pueden ayudar a las empresas a identificar problemas y tomar decisiones informadas.

En resumen, hay muchas herramientas de análisis y visualización de datos disponibles en la nube que pueden ser útiles para las empresas. Cada una de ellas ofrece una variedad de gráficos y tablas personalizables y puede integrarse con otras plataformas de negocios. Al utilizar estas herramientas, las empresas pueden obtener una visión más clara de sus datos y tomar decisiones informadas.

Ejemplos de servicios de nube para el almacenamiento y la gestión de datos (Google Drive, Microsoft OneDrive)

Aquí hay algunos ejemplos de cómo las empresas están utilizando la nube para mejorar la colaboración y la comunicación:

  1. Una empresa de tecnología está utilizando Google Drive para compartir y colaborar en documentos y proyectos en tiempo real. Esto les permite a los empleados trabajar juntos de manera más efectiva, incluso si están en diferentes ubicaciones o trabajando de forma remota.
  2. Una empresa de consultoría está utilizando Zoom para realizar reuniones virtuales con clientes y empleados de diferentes ubicaciones. Esto les permite ahorrar tiempo y dinero en viajes y aumentar la eficiencia de sus reuniones.
  3. Una empresa de marketing está utilizando Slack para comunicarse y colaborar de manera más eficiente. Los empleados pueden crear canales temáticos y utilizar la función de búsqueda para encontrar mensajes y documentos relevantes de manera rápida.
  4. Una empresa de construcción está utilizando Microsoft OneDrive para almacenar y compartir planos y documentos relacionados con proyectos en curso. Esto les permite a los empleados acceder a los documentos necesarios de manera rápida y sencilla, incluso si están en el sitio de trabajo.

En resumen, hay muchas maneras en las que las empresas pueden utilizar la nube para mejorar la colaboración y la comunicación. Al utilizar servicios como Google Drive, Zoom y Slack, las empresas pueden aumentar la eficiencia de sus procesos de trabajo y mejorar la colaboración y la comunicación con sus empleados y clientes.

Otra aplicación común de la nube en las empresas es la colaboración y la comunicación. Muchas empresas utilizan servicios de nube como Google Drive o Microsoft OneDrive para compartir y colaborar en documentos en tiempo real. Además, la nube también ofrece soluciones de videoconferencia y chat que permiten a las empresas comunicarse y colaborar de manera efectiva, incluso si sus empleados trabajan de forma remota o están en diferentes ubicaciones.

La nube también se está utilizando cada vez más en el desarrollo de aplicaciones y servicios. Muchas empresas utilizan plataformas en la nube como Amazon Web Services o Microsoft Azure para crear y alojar aplicaciones y servicios personalizados. Esto les permite aprovechar el poder de procesamiento y almacenamiento de la nube y entregar servicios de alta calidad a sus clientes.

Tecnologías de nube aplicadas a la empresa
Tecnologías de nube aplicadas a la empresa – Colaboración – Photo by fauxels on Pexels.com

III. Colaboración y comunicación en la nube

Cómo la nube facilita la colaboración y la comunicación en tiempo real

La nube también se está convirtiendo en una herramienta fundamental para la colaboración y la comunicación en las empresas. Muchas empresas utilizan servicios de nube como Google Drive o Microsoft OneDrive para compartir y colaborar en documentos en tiempo real. Esto les permite a los empleados trabajar juntos de manera más efectiva, incluso si están en diferentes ubicaciones o trabajando de forma remota.

Servicios de videoconferencia y chat disponibles en la nube (Zoom, Slack)

Además, la nube también ofrece soluciones de videoconferencia y chat que permiten a las empresas comunicarse y colaborar de manera efectiva. Por ejemplo, Zoom es un servicio de videoconferencia en la nube que permite a las empresas realizar reuniones virtuales con varias personas de manera sencilla. Slack, por otro lado, es un servicio de chat en la nube que permite a las empresas comunicarse y colaborar de manera más eficiente.

En resumen, la nube es una herramienta clave para la colaboración y la comunicación en las empresas. Los servicios de nube como Google Drive y Microsoft OneDrive permiten a las empresas compartir y colaborar en documentos en tiempo real,

IV. Desarrollo de aplicaciones y servicios en la nube

  • Ventajas de utilizar la nube para el desarrollo de aplicaciones y servicios (acceso a recursos de procesamiento y almacenamiento ilimitados, rapidez y eficiencia)
  • Plataformas en la nube para el desarrollo de aplicaciones y servicios (Amazon Web Services, Microsoft Azure)
  • Ejemplos de cómo las empresas están utilizando la nube para desarrollar aplicaciones y servicios personalizados

V. Conclusiones: ¿Por qué la nube es una opción atractiva para las empresas?

Las tecnologías de nube han revolucionado la forma en que las empresas gestionan y utilizan sus recursos informáticos. Ofreciendo una mayor eficiencia, reducción de costes, escalabilidad y seguridad, la nube es una opción atractiva para cualquier empresa que busque mejorar su productividad y competitividad. A medida que la nube sigue evolucionando y ofreciendo nuevas soluciones, es probable que veamos aún más empresas adoptando esta tecnología en el futuro.

¿Que te parece este articulo? Deja tus comentarios y quieres leer mas articulos interesantes no olvides subscribirte a nuestro blog

inteligencia artificial explicable

¿Que es La inteligencia artificial explicable?

La inteligencia artificial (IA) está presente en muchos aspectos de nuestra vida cotidiana, como los asistentes digitales de los teléfonos inteligentes y los electrodomésticos, e incluso los coches autoconducidos.

Aunque la IA puede ser beneficiosa para mejorar la eficiencia y la precisión en sistemas profesionales como la planificación y la previsión, la complejidad de estos sistemas puede dificultar que los humanos entiendan y confíen en los resultados y las recomendaciones.

Esta falta de transparencia puede llevar a una falta de confianza en el sistema, haciendo que los humanos pasen por alto o ignoren las recomendaciones de la IA. La IA explicable pretende abordar este problema proporcionando herramientas y técnicas que ayuden a los humanos a entender e interpretar las recomendaciones realizadas por el modelo de IA, aumentando la transparencia general del sistema y conduciendo a una mayor confianza en el mismo.

inteligencia artificial explicable
inteligencia artificial explicable

La inteligencia artificial explicable es un subcampo de la inteligencia artificial que se centra en proporcionar interpretación y explicación del funcionamiento de los sistemas de inteligencia artificial. Esto puede mejorar la confianza y la transparencia de estos sistemas y aumentar su efectividad al permitir a los usuarios comprender cómo funcionan y cómo llegan a sus conclusiones.

Aunque aún no hay un consenso sobre lo que significa exactamente la inteligencia artificial explicable, hay algunas consideraciones generales. Por un lado, depende de quién está pidiendo la explicación y cuál es su intención.

Por ejemplo, si un experto en inteligencia artificial está tratando de desarrollar un modelo, podría estar interesado en comprender el funcionamiento del modelo y cómo mejorarlo. Por otro lado, si un regulador o una persona sin conocimientos técnicos está examinando un modelo, podría estar interesado en comprender cómo el modelo llega a sus predicciones y cómo están relacionadas con las entradas.

Además, hay un trade-off entre la complejidad y la interpretabilidad de las explicaciones. Por un lado, se pueden proporcionar explicaciones muy completas y precisas

Pero también pueden ser difíciles de entender para los usuarios no técnicos. Por otro lado, se pueden proporcionar explicaciones muy fáciles de entender pero que no proporcionan suficiente información sobre el funcionamiento del modelo. Por lo tanto, es importante encontrar un equilibrio entre la complejidad y la interpretabilidad al proporcionar explicaciones.

Inteligencia artificial explicable Tabla de Contenidos

I. Introducción

  • Definición de inteligencia artificial explicable,

La inteligencia artificial explicable es una rama de la inteligencia artificial que se centra en proporcionar herramientas y técnicas para interpretar y comprender el funcionamiento y las decisiones de los sistemas de inteligencia artificial. El objetivo de la inteligencia artificial explicable es aumentar la transparencia de estos sistemas y mejorar la confianza en ellos al permitir a los usuarios comprender cómo se llegó a ciertas conclusiones y recomendaciones. De esta manera, la inteligencia artificial explicable permite evitar el fenómeno de la “caja negra”, en el que los usuarios no tienen acceso a la información sobre el funcionamiento interno del sistema y, por lo tanto, no confían en él.

  • Contextualización de su origen y su importancia en la actualidad

La inteligencia artificial explicable tiene sus raíces en la preocupación por la transparencia y la confianza en los sistemas de inteligencia artificial, que se han vuelto cada vez más presentes en nuestras vidas a medida que la tecnología ha avanzado. A medida que los sistemas de inteligencia artificial se han vuelto más complejos y han comenzado a tomar decisiones importantes en diversos campos, ha habido una creciente necesidad de comprender cómo funcionan y cómo llegan a sus conclusiones. Esto ha llevado al desarrollo de la inteligencia artificial explicable como una forma de proporcionar transparencia y confianza en estos sistemas.

En la actualidad, la inteligencia artificial explicable es de gran importancia debido a la amplia presencia de sistemas de inteligencia artificial en nuestras vidas. Desde asistentes digitales en nuestros teléfonos móviles y electrodomésticos hasta sistemas de planificación y toma de decisiones en el lugar de trabajo, la inteligencia artificial está cada vez más presente en nuestra vida cotidiana. La confianza en estos sistemas es esencial para aprovechar plenamente sus beneficios y minimizar los riesgos de tomar decisiones incorrectas o sesgadas. La inteligencia artificial explicable proporciona una forma de lograr esta confianza al permitir a los usuarios comprender el funcionamiento interno de estos sistemas.

inteligencia artificial explicable
inteligencia artificial explicable

II. Por qué se utiliza la inteligencia artificial explicable

  • Mejora en la confianza y la transparencia de los sistemas de inteligencia artificial

La confianza y la transparencia son importantes aspectos a considerar en el desarrollo y uso de sistemas de inteligencia artificial (IA). La confianza en un sistema de IA se refiere a la confianza que tienen los usuarios y otros stakeholders en su precisión, integridad y fiabilidad. La transparencia, por otro lado, se refiere a la claridad y comprensión de cómo funciona un sistema de IA y cómo toma sus decisiones.

Hay varias maneras de mejorar la confianza y la transparencia en los sistemas de IA. Algunas de ellas incluyen:

  1. Asegurarse de que el sistema de IA esté basado en datos de alta calidad y de que se haya realizado una evaluación adecuada de su precisión.
  2. Implementar medidas de seguridad y protección de datos para evitar el uso indebido o el acceso no autorizado a los datos utilizados para entrenar al sistema de IA.
  3. Garantizar la diversidad y la inclusión en el proceso de desarrollo del sistema de IA, para evitar sesgos y discriminación.
  4. Proporcionar documentación detallada y accesible sobre cómo funciona el sistema de IA y cómo toma sus decisiones, para que los usuarios puedan entender su funcionamiento y cómo se aplican a sus situaciones específicas.
  5. Ofrecer opciones de explicación y justificación de decisiones, para que los usuarios puedan entender por qué el sistema de IA tomó una determinada decisión y cómo afecta a ellos.
  6. Establecer un marco de ética y responsabilidad en el desarrollo y uso de sistemas de IA, para asegurar que se cumplan los valores y principios éticos en su uso.
  • Evita la “caja negra” en la toma de decisiones basadas en AI

La inteligencia artificial explicable (XAI, por sus siglas en inglés) se utiliza para evitar la “caja negra” en la toma de decisiones basadas en AI, ya que permite comprender y explicar cómo y por qué un sistema de IA toma una determinada decisión. Los sistemas de IA pueden ser considerados como “cajas negras” cuando sus decisiones son opacas e inaccesibles para los usuarios y otros stake holders, lo que puede generar falta de confianza y desconfianza en su uso.

La XAI busca proporcionar una visión más clara y comprensible de cómo funcionan los sistemas de IA y cómo toman sus decisiones, lo que puede ayudar a mejorar la confianza y la transparencia en su uso. Además, la XAI puede ser útil en situaciones en las que es importante entender y justificar las decisiones tomadas por un sistema de IA, como en el ámbito jurídico o en el sector de servicios financieros.

En resumen, la XAI se utiliza para evitar la “caja negra” en la toma de decisiones basadas en AI ya que permite comprender y explicar el funcionamiento y las decisiones de un sistema de IA, mejorando la confianza y la transparencia en su uso y permitiendo justificar y entender las decisiones tomadas por el sistema en diferentes contextos.

III. Aplicación de la inteligencia artificial explicable

  • Ejemplos de su uso en diversos campos y industrias

La inteligencia artificial explicable tiene aplicaciones en una amplia variedad de campos y industrias. Algunos ejemplos de su uso incluyen:

  • Salud: Los sistemas de inteligencia artificial explicable pueden utilizarse para interpretar y explicar decisiones médicas basadas en AI, como el diagnóstico y el tratamiento de enfermedades. Esto puede ayudar a los médicos a comprender el funcionamiento del sistema y a confiar en sus recomendaciones.
  • Finanzas: Los sistemas de inteligencia artificial explicable pueden utilizarse para interpretar y explicar decisiones financieras basadas en AI, como la asignación de inversiones y la gestión del riesgo. Esto puede ayudar a los inversores a comprender el funcionamiento del sistema y a confiar en sus recomendaciones.
  • Transporte: Los sistemas de inteligencia artificial explicable pueden utilizarse para interpretar y explicar decisiones de transporte basadas en AI, como el planeamiento de rutas y la asignación de vehículos. Esto puede ayudar a los usuarios a comprender el funcionamiento del sistema y a confiar en sus recomendaciones.
  • Recursos humanos: Los sistemas de inteligencia artificial explicable pueden utilizarse para interpretar y explicar decisiones de contratación y promoción basadas en AI. Esto puede ayudar a los empleadores a comprender el funcionamiento del sistema y a confiar en sus recomendaciones.

En general, la inteligencia artificial explicable tiene aplicaciones en cualquier ámbito en el que se utilicen sistemas de inteligencia artificial para tomar decisiones importantes. Su uso puede mejorar la confianza en estos sistemas y aumentar su efectividad al permitir a los usuarios comprender cómo funcionan y cómo llegan a sus conclusiones.

  • Ventajas y beneficios de su implementación

La implementación de la inteligencia artificial explicable tiene varias ventajas y beneficios, algunos de los cuales incluyen:

  • Aumento de la confianza: Al permitir a los usuarios comprender el funcionamiento interno del sistema y cómo se llega a ciertas conclusiones y recomendaciones, la inteligencia artificial explicable puede aumentar la confianza en el sistema y evitar el fenómeno de la “caja negra”. Esto puede mejorar la aceptación y la adopción de los sistemas de inteligencia artificial.
  • Mayor efectividad: Al aumentar la confianza en el sistema, la inteligencia artificial explicable puede mejorar la efectividad de los sistemas de inteligencia artificial al hacer que los usuarios confíen más en sus recomendaciones y tomen decisiones basadas en ellas.
  • Mayor transparencia: La inteligencia artificial explicable proporciona una mayor transparencia en el funcionamiento de los sistemas de inteligencia artificial, lo que puede mejorar la confianza y la efectividad de estos sistemas al permitir a los usuarios comprender cómo funcionan y cómo llegan a sus conclusiones.
  • Mejora en la toma de decisiones: Al permitir a los usuarios comprender y interpretar las decisiones basadas en AI, la inteligencia artificial explicable puede ayudar a los usuarios a tomar decisiones más informadas y a evitar decisiones sesgadas o incorrectas.

En general, la implementación de la inteligencia artificial explicable puede mejorar la confianza, la efectividad y la transparencia de los sistemas de inteligencia artificial, lo que puede tener beneficios en diversos campos y industrias.

IV. Tecnologías utilizadas para desarrollar la inteligencia artificial explicable

  • Herramientas y técnicas disponibles

Hay varias tecnologías y herramientas disponibles para desarrollar la inteligencia artificial explicable, como algoritmos de explicación, técnicas de interpretación, técnicas de análisis de sensibilidad y técnicas de aprendizaje de máquina interpretables. Estas herramientas pueden utilizarse para proporcionar interpretación y explicación del funcionamiento de los sistemas de inteligencia artificial y mejorar la confianza y la transparencia de estos sistemas.

Algunas de las más comunes incluyen:

  • Algoritmos de explicación: Estos son algoritmos diseñados específicamente para generar explicaciones del funcionamiento de un sistema de inteligencia artificial. Estos algoritmos pueden proporcionar información sobre cómo se llegó a ciertas conclusiones y recomendaciones y pueden utilizarse para generar visualizaciones de las decisiones del sistema.
  • Técnicas de interpretación: Estas son técnicas utilizadas para interpretar y comprender el funcionamiento interno de un sistema de inteligencia artificial. Esto puede incluir técnicas como la visualización de características importantes y el análisis de reglas de decisión.
  • Técnicas de análisis de sensibilidad: Estas son técnicas utilizadas para evaluar cómo cambiaría el funcionamiento del sistema si se modificaran ciertas entradas o variables. Esto puede proporcionar información sobre la importancia de diferentes factores en el funcionamiento del sistema.
  • Técnicas de aprendizaje de máquina interpretables: Estas son técnicas de aprendizaje de máquina diseñadas específicamente para ser interpretables y explicables por los humanos. Esto puede incluir técnicas como el árbol de decisión y el regresión lineal.

En general, estas herramientas y técnicas pueden utilizarse para proporcionar interpretación y explicación del funcionamiento de un sistema de inteligencia artificial y mejorar la confianza y la transparencia de estos sistemas.

  • Métodos de interpretación y explicación de resultados de AI

Existen varios métodos y técnicas que se pueden utilizar para interpretar y explicar los resultados de los sistemas de inteligencia artificial. Algunos de estos métodos incluyen:

  1. Algoritmos de explicación: Estos son algoritmos diseñados específicamente para proporcionar explicaciones del funcionamiento de un sistema de inteligencia artificial. Estos algoritmos pueden proporcionar información sobre cómo se llegó a ciertas conclusiones y recomendaciones y pueden utilizarse para generar visualizaciones de las decisiones del sistema.
  2. Técnicas de interpretación: Estas son técnicas utilizadas para interpretar y comprender el funcionamiento interno de un sistema de inteligencia artificial. Esto puede incluir técnicas como la visualización de características importantes y el análisis de reglas de decisión.
  3. Técnicas de análisis de sensibilidad: Estas son técnicas utilizadas para evaluar cómo cambiaría el funcionamiento del sistema si se modificaran ciertas entradas o variables. Esto puede proporcionar información sobre la importancia de diferentes factores en el funcionamiento del sistema.
  4. Técnicas de aprendizaje de máquina interpretables: Estas son técnicas de aprendizaje de máquina diseñadas específicamente para ser interpretables y explicables por los humanos. Esto puede incluir técnicas como el árbol de decisión y la regresión lineal.

En general, estos métodos y técnicas se pueden utilizar para proporcionar interpretación y explicación del funcionamiento de un sistema de inteligencia artificial y mejorar la confianza y la transparencia de estos sistemas.

V. Retos y obstáculos en el desarrollo de la inteligencia artificial explicable

Sin embargo, también hay desafíos y obstáculos en el desarrollo de la inteligencia artificial explicable. Uno de los principales desafíos es encontrar el equilibrio adecuado entre la complejidad y la interpretabilidad al proporcionar explicaciones. Además, a veces puede ser difícil proporcionar explicaciones para modelos altamente complejos o basados en técnicas de aprendizaje profundo. También puede haber preocupaciones de privacidad al proporcionar explicaciones detalladas sobre cómo funciona un modelo, ya que esto podría revelar información sensible sobre los datos utilizados para entrenar el modelo. Por último, también puede haber desafíos técnicos y de diseño al desarrollar sistemas de inteligencia artificial explicables, como la necesidad de proporcionar explicaciones que sean fáciles de visualizar y comprender para los usuarios no técnicos.

  • Desafíos técnicos y regulativos en su implementación

Existen algunos desafíos y obstáculos que pueden surgir al tratar de implementar la inteligencia artificial explicable. Algunos de estos retos incluyen:

  1. Equilibrio entre complejidad y interpretabilidad: Como se mencionó anteriormente, puede ser difícil encontrar el equilibrio adecuado entre la complejidad y la interpretabilidad al proporcionar explicaciones. Por un lado, se pueden proporcionar explicaciones muy completas y precisas pero que son difíciles de entender para los usuarios no técnicos. Por otro lado, se pueden proporcionar explicaciones muy fáciles de entender pero que no proporcionan suficiente información sobre el funcionamiento del modelo.
  2. Modelos complejos o basados en técnicas de aprendizaje profundo: A veces puede ser difícil proporcionar explicaciones para modelos altamente complejos o basados en técnicas de aprendizaje profundo, como las redes neuronales. Estos modelos pueden ser difíciles de interpretar y pueden requerir técnicas especializadas para proporcionar explicaciones.
  3. Preocupaciones de privacidad: Proporcionar explicaciones detalladas sobre cómo funciona un modelo puede revelar información sensible sobre los datos utilizados para entrenar el modelo. Esto puede plantear preocupaciones de privacidad y puede requerir medidas adicionales para proteger la privacidad de los usuarios.
  4. Desafíos técnicos y de diseño: Desarrollar sistemas de inteligencia artificial explicables puede plantear desafíos técnicos y de diseño, como la necesidad de proporcionar explicaciones que sean fáciles de visualizar y comprender para los usuarios no técnicos.
  5. Desafíos regulativos: La regulación de la inteligencia artificial explicable puede ser un desafío. Algunos reguladores pueden requerir que se proporcionen explicaciones para ciertos tipos de modelos o en ciertos contextos,
  • Necesidad de equilibrio entre transparencia y privacidad

Uno de los principales retos y obstáculos al implementar la inteligencia artificial explicable es encontrar el equilibrio adecuado entre la transparencia y la privacidad. Proporcionar explicaciones detalladas sobre cómo funciona un modelo puede ayudar a mejorar la confianza y la transparencia del sistema, pero también puede revelar información sensible sobre los datos utilizados para entrenar el modelo. Esto puede plantear preocupaciones de privacidad y requerir medidas adicionales para proteger la privacidad de los usuarios.

Para abordar este desafío, es importante encontrar el equilibrio adecuado entre proporcionar suficiente información para mejorar la confianza y la transparencia del sistema, pero sin revelar información sensible que pueda comprometer la privacidad de los usuarios. Esto puede incluir la implementación de medidas de privacidad, como la eliminación de datos identificables o la utilización de técnicas de anonimización, para proteger la privacidad de los usuarios mientras se proporciona explicación del funcionamiento del sist

VI. Recomendaciones y conclusiones

En resumen, la inteligencia artificial explicable es un campo en crecimiento y en constante evolución que tiene el potencial de mejorar la confianza, la efectividad y la transparencia de los sistemas de inteligencia artificial. Aunque hay desafíos y obstáculos en su desarrollo, existen varias herramientas y técnicas disponibles para proporcionar interpretación y explicación del funcionamiento de los sistemas de inteligencia artificial y mejorar la confianza y la transparencia de estos sistemas.

  • Importancia de la consideración de la explicabilidad en el desarrollo de AI
  • Potencial de la inteligencia artificial explicable para mejorar la confianza y la efectividad en la toma de decisiones basadas en AI
  • Perspectivas futuras y posibles desarrollos en el campo de la inteligencia artificial explicable

Referencias

video Youtube ¿Que es La inteligencia artificial explicable?

¿Que es La inteligencia artificial explicable?
Que es la Hiperconectividad

¿Que es la Hiperconectividad?

En este articulo te vamos a explicar lo que es la hiperconectividad, para que puedas tener un visión claro de sus aplicaciones y de la importancia que está destinado a tener en la tecnología en los próximos años.

Introducción Que es la Hiperconectividad

El término hiperconectividad fue utilizado por primera vez por Barry Wellman y Anabel Quan-Haase para describir el estado evolutivo de las comunicaciones en la sociedad y a partir de sus estudios sobre la comunicación de persona a persona en las organizaciones y sociedades en red.

Muchas empresas tecnológicas han adoptado el paradigma de la hiperconectividad para definir sus sistemas de comunicación de persona a persona, de persona a máquina y de máquina a máquina.

El término se refiere al uso de múltiples medios de comunicación, como el correo electrónico, la mensajería instantánea, el teléfono, el contacto cara a cara y los servicios de información de la web 3.0.

La hiperconectividad es también una tendencia en las redes informáticas en la que todas las cosas que pueden o deben comunicarse a través de la red se comunicarán a través de la red.

La hiperconectividad también puede verse como un estado de las comunicaciones unificadas (UC) en el que la capacidad de gestión del tráfico y el ancho de banda de una red siempre superan la demanda.
El número de vías y nodos de comunicación es mucho mayor que el número de abonados.

Todos los dispositivos que podrían beneficiarse de estar conectados a una red están de hecho conectados.

Que es la Hiperconectividad
Que es la Hiperconectividad – Photo by fauxels on Pexels.com

En la infraestructura hiperconectada definitiva, los dispositivos electrónicos e informáticos de todo tipo pueden comunicarse entre sí en la medida que cada usuario individual desee. Estos dispositivos pueden incluir:

Ordenadores personales, teléfonos inteligentes, dispositivos del Internet de las Cosas, electrodomésticos, dispositivos médicos, maquinaria agrícola e industrial, y muchos otros.

La hiperconectividad abarca la comunicación de persona a persona, de persona a máquina y de máquina a máquina.

Esta tendencia está impulsando grandes aumentos en la demanda de ancho de banda y cambios en las comunicaciones debido a la complejidad y diversidad e integración de nuevas aplicaciones y dispositivos que utilizan la red.

La hiperconectividad ha sido reconocida como una condición de mercado omnipresente y creciente que está en el centro de su estrategia empresarial.

Muchas empresas tecnológicas han sido citadas ampliamente en la prensa refiriéndose a la era de la hiperconectividad.

La habilitación de todos los dispositivos mediante IP es una limitación fundamental de la versión cuatro de IP y la seis es la tecnología que permite soportar explosiones masivas de direcciones.

En nuestra vida cotidiana tenemos ejemplos de hiperconectividad, como poder controlar desde el móvil, la televisión, el aire acondicionado o la lavadora.

Que es la Hiperconectividad - Cocina moderna con Hiperconectividad
Que es la Hiperconectividad – Cocina moderna con Hiperconectividad

Todo indica que, en un futuro no muy lejano, esta hiperconectividad irá en aumento, tanto en nuestro entorno personal como en la empresa.

Con el avance de las tecnologías, se están desarrollando nuevas formas de comunicarse, trabajar y disfrutar del tiempo libre.

Los avances en los teléfonos móviles, los navegadores, los asistentes de voz o el IoT (internet de las cosas) son algunos de los ejemplos relacionados con la hiperconectividad.

Además, las ciudades están cada vez más interconectadas y así aparece el término smart city.

En España, por ejemplo, ya existen modelos de ciudades inteligentes que, a través de la hiperconectividad, pueden ahorrar agua o implementar soluciones de aparcamiento inteligente.

Hiperconectividad en la industria

Del mismo modo, en el sector industrial, los sistemas y dispositivos que utilizamos en nuestro día a día están siendo utilizados para aumentar la productividad e incorporar herramientas de mejora continua.

Podemos incluir la hiperconectividad, también, en el concepto de Industria 4.0 del que tanto se habla.

Es necesario que las empresas implementen un mayor nivel de conectividad entre sus procesos, tanto los que se realizan dentro como fuera de la empresa.

De este modo, los medios de producción podrán interactuar, dentro de la fábrica, pero también a lo largo de la cadena de valor del producto: clientes, proveedores, etc.

Además de la cadena de producción y el sector productivo, la hiperconectividad también cambia la forma de trabajar de las empresas.

La computación en nube es un ejemplo de trabajo más flexible, dinámico y conectado.

También es importante recordar que es necesario dotar de seguridad a todos estos procesos hiperconectados, lo que se conoce como ciberseguridad, permite que estos procesos relacionados con las tecnologías de la información y la conectividad se realicen de forma segura.

¿Cuáles son los beneficios de implementar la hiperconectividad en una empresa?

La hiperconectividad aportará muchos beneficios a las industrias y a los procesos de producción. Sobre todo, servirá para conocer mejor al cliente.

Permitirá al cliente “acompañar” productos completamente adaptados a sus necesidades en el proceso de producción. La hiperconectividad no es un fin en sí mismo, sino un medio para ganar competitividad. He aquí algunos de estos beneficios:

La interconexión de toda la cadena de valor de un producto aumentará la confianza que se transmite a los clientes y también a los empleados y proveedores.

Permite conocer los datos del proceso en todo momento, significa que los procesos de la planta se conocen en tiempo real.

Cuantos más datos se conozcan, más posibilidades hay de tomar decisiones y detectar oportunidades de mejora.

Estar conectados también nos permite detectar cambios, en la oferta y la demanda, y nos ayuda a decidir, por ejemplo, cuándo es el mejor momento para sacar un nuevo producto al mercado.

Como se puede ver, pronto tendremos un mundo hiperconectado, ya que no sólo las cosas están conectadas entre sí, sino que también lo están los ciudadanos, las empresas e incluso las ciudades.

Las personas ya están acostumbradas a estar siempre conectadas y se espera que las empresas lo estén pronto.

Al estar hiperconectada, la tecnología puede hacer y está haciendo cosas increíbles en todos los sectores:

  • Energía – Predecir y eliminar los cortes de energía, duplicar la capacidad de consumo sin añadir un solo vatio de uso de energía, exprimir 2.000 millones de dólares más de los activos existentes de una empresa simplemente redirigiendo de forma inteligente la energía en el momento adecuado a los lugares adecuados.
  • Transporte y logística – Al poner sensores en la cinta transportadora, se puede detener el robo de iDevices, al tiempo que se eliminan pasos en la cadena de suministro
  • Sanidad – La monitorización remota y en tiempo real de los pacientes mediante monitores de muñeca conectados a los médicos y a las máquinas y aplicaciones permite reaccionar en tiempo real y, en última instancia, salvar vidas.
  • Hostelería: las máquinas tragaperras de los casinos están conectadas a ordenadores que están conectados a personas que están conectadas a aplicaciones que pueden predecir cuándo vas a estar descontento incluso antes de que lo estés y ofrecerte algo para evitarlo.
  • Comercio minorista: ofertas móviles en tiempo real antes de que el cliente abandone el pasillo (no seis meses después de que salga de la tienda), terminal de punto de venta conectado a todo lo demás, incluso a la cadena de suministro para obtener una única versión de la verdad.
  • Telecomunicaciones – Capacidad para controlar las llamadas caídas, detectar patrones y hacer ofertas en tiempo real a través de mensajes SMS gratuitos antes de que el cliente piense siquiera en romper el contrato

Video ¿que es la hiperconectividad?

Que es la hiperconectividad youtube
Ciencia de datos vs Análisis de datos - Diagrama de Venn

Ciencia de datos vs Análisis de datos vs Aprendizaje automático

Cuando pensamos sobre Ciencia de datos vs Análisis de datos vs Aprendizaje automático, existe todavia mucha confusion sobre cada una de las disciplinas y los limites de cada uma de ellas. La ciencia de los datos, la analítica de datos y el aprendizaje automático están creciendo a un ritmo vertiginoso, y las empresas buscan cada vez más profesionales que puedan ayudarlas a sacar el máximo beneficio de la mina de oro que son en la actualidad los datos, pada poder tomar las mejores decisiones empresariales de uma forma rápida e eficiente.

IBM prevee que para 2022 el número de puestos de trabajo para los profesionales de los datos en todo el mundo sobrepase los 3.500.000 empleos, muchos de los cuales se quedarán sin cubrir.

Para saber más sobre por qué la ciencia de los datos, la analítica de datos y el aprendizaje automático es un campo tan apasionante y las habilidades que ayudarán a los profesionales a obtener una base sólida en este campo de rápido crecimiento, vamos a intentar responder a algunaa de las principales preguntas que se podrian hacer las personas interesadas en entrar en este mundo.

Indice Ciencia de datos vs Análisis de datos

¿Qué es la ciencia de los datos?


Hace más de una década que se intenta definir la ciencia de los datos, y la mejor manera de responder a esa pregunta es con un diagrama de Venn -creado por Hugh Conway en 2010, está formado por tres círculos: matemáticas y estadística, experiencia en la materia (conocimiento de las áreas de abstracción y computación) y habilidades de hacking. Se compone de tres círculos. Básicamente, si puedes hacer estas tres cosas, ya tienes un alto nivel de experiencia en el campo de la ciencia de los datos.

La ciencia de los datos es un concepto para trabajar con big data e incluye la limpieza, la preparación y el análisis de los datos. Un científico de datos recopila datos de múltiples fuentes y aplica el aprendizaje automático, el análisis predictivo y el análisis de sentimientos para extraer información clave de los conjuntos de datos recopilados. Los científicos de datos entienden los datos desde una perspectiva de negocio, proporcionando predicciones precisas y conocimientos que pueden ser utilizados para tomar decisiones de negocio importantes.

Ciencia de datos vs Análisis de datos - Diagrama de Venn
Ciencia de datos vs Análisis de datos – Diagrama de venn

¿Qué habilidades son necesarias para convertirse en un científico de datos?


Si quieres construir una sólida carrera en este campo, tendrás que desarrollar habilidades clave en tres áreas fundamentales: análisis, programación y conocimiento del dominio.

Para dar un paso adelante y hacerse un hueco como científico de datos, necesitarás las siguientes habilidades

  • Sólidos conocimientos de Python, SAS, R y Scala
  • Experiencia práctica en la codificación de bases de datos SQL
  • Capacidad para trabajar con datos no estructurados procedentes de diversas fuentes, incluidos los vídeos y las redes sociales
  • Comprensión de múltiples funciones analíticas
  • Conocimientos de aprendizaje automático
stock exchange board
Ciencia de datos vs Análisis de datos – Photo by Pixabay on Pexels.com

¿Qué es el análisis de datos?


Un analista de datos suele ser alguien que puede realizar estadísticas descriptivas básicas, visualizar datos y comunicar puntos de datos para obtener conclusiones. Requiere una comprensión básica de la estadística, un perfecto sentido de las bases de datos, la capacidad de crear nuevas ideas y la perspicacia para visualizar los datos. El análisis de datos puede describirse como un nivel necesario de la ciencia de datos.

Habilidades necesarias para convertirse en analista de datos

Un analista de datos debe ser capaz de tomar un asunto o tema específico, discutir lo que los datos dicen al respecto y presentar esos datos a las partes interesadas internas. Para ser un analista de datos con éxito, deberá tener las siguientes cuatro habilidades:

  • Conocimientos de estadística matemática
  • Fluidez en R y Python
  • Conocimientos de procesamiento de datos
  • Conocimiento de PIG/HIVE
  • ¿Qué habilidades necesito para convertirme en analista de datos?

La diferencia entre ciencia de datos y análisis de datos
La ciencia de los datos es un término general que engloba la analítica de datos, la minería de datos, el aprendizaje automático y otras disciplinas relacionadas. Se espera que un científico de datos prediga el futuro basándose en patrones pasados, mientras que un analista de datos extrae ideas significativas de una variedad de fuentes de datos. El científico de datos crea preguntas, mientras que el analista de datos encuentra respuestas a las preguntas existentes.

photo of pen on top of notebook
Ciencia de datos vs Análisis de datos Photo by fauxels on Pexels.com

¿Qué es el aprendizaje automático?

El aprendizaje automático puede definirse como la práctica de utilizar algoritmos para extraer datos, aprender de ellos y predecir tendencias futuras sobre un tema. El software de aprendizaje automático tradicional es un análisis estadístico o predictivo, utilizado para descubrir patrones y captar ideas ocultas basadas en los datos que reconoce.

Ciencia de datos vs Análisis de datos – Que es el aprendizaje Automatico

Un buen ejemplo de aplicación del aprendizaje automático es Facebook: los algoritmos de aprendizaje automático de Facebook recogen información sobre el comportamiento de cada usuario en la plataforma social. Basándose en el comportamiento anterior de la persona, el algoritmo predice sus intereses y recomienda artículos y notificaciones para su feed de noticias. Del mismo modo, cuando Amazon recomienda productos o Netflix recomienda películas basándose en comportamientos anteriores, el aprendizaje automático está en marcha.

¿Qué habilidades se necesitan para convertirse en un especialista de aprendizaje automático?

El aprendizaje automático no es más que una perspectiva diferente de la estadística. A continuación se exponen algunas habilidades clave que le ayudarán a iniciar su carrera en este campo de rápido crecimiento.

  • Conocimientos básicos de informática
  • Conocimientos profundos de programación
  • Conocimientos de probabilidad y estadística
  • Capacidades de modelización y evaluación de datos
  • Ciencia de los datos y aprendizaje automático
  • Como la ciencia de los datos es un término amplio que se refiere a varias disciplinas, el aprendizaje automático se sitúa dentro de la ciencia de los datos. El aprendizaje automático utiliza diversas técnicas, como la regresión y la agrupación supervisada. Los “datos” en la ciencia de los datos, por otro lado, pueden o no evolucionar a partir de máquinas o procesos mecánicos. La principal diferencia entre ambas es que la ciencia de los datos en un sentido más amplio no sólo se centra en los algoritmos y la estadística, sino que también se ocupa de la metodología general del procesamiento de datos.
Ciencia de datos vs Análisis de datos
La ciencia de los datos es interdisciplinaria

La ciencia de los datos puede considerarse como la integración de varias disciplinas básicas, como el análisis de datos, la ingeniería de software, la ingeniería de datos, el aprendizaje automático, el análisis predictivo y la analítica de datos. Implica la investigación, recopilación, captura y transformación de grandes cantidades de datos, conocidos colectivamente como Big Data.

Ciencia de datos vs Análisis de datos – Que es el Data Science

La ciencia de los datos se encarga de dar estructura a los big data, buscar patrones convincentes y asesorar a los responsables de la toma de decisiones sobre cómo realizar cambios efectivos para satisfacer las necesidades del negocio. El análisis de datos y el aprendizaje automático son dos de las muchas herramientas y procesos que utilizan los científicos de datos.

La ciencia de los datos, la analítica de datos y el aprendizaje automático son algunas de las áreas más solicitadas en la industria actual.

Si se combinan las aptitudes adecuadas con la experiencia en el mundo real, es posible asegurarse una sólida carrera en estos campos de tendencia.

Aprende los fundamentos de TensorFlow y Deep Learning con Python

Aprende los fundamentos de TensorFlow y Deep Learning con Python

un curso interesante que te permitirá aprender los fundamentos de TensorFlow y del deep learning a través de Python. El curso está en inglés, pero como el subtitulado es fácil para gente que no domine la lengua inglesa de poder seguir.

Aprende los fundamentos de TensorFlow y Deep Learning con Python Parte I

¿Listo para aprender los fundamentos de TensorFlow y el aprendizaje profundo con Python? Bueno, has venido al lugar correcto.

Después de esta introducción en dos partes, habrás escrito cientos de líneas de código TensorFlow y tendrás experiencia práctica con dos problemas importantes en el aprendizaje automático: regresión (predecir un número) y clasificación (predecir si algo es una cosa u otra).

Abre una ventana de Google Colab (si no estás seguro de lo que es, pronto lo sabrás) y prepárate para codificar.


Consigue todo el código/materiales en GitHub – https://www.github.com/mrdbourke/tens…
Haz una pregunta – https://github.com/mrdbourke/tensorfl…
Ver parte 2 – https://youtu.be/ZUKz4125WNI
Documentación de TensorFlow Python – https://www.tensorflow.org/api_docs/p…

Marcas de tiempo:
0:00 – Introducción/hola/cómo enfocar este vídeo
1:50 – INICIO DEL MÓDULO 0 (fundamentos de TensorFlow/aprendizaje profundo)
1:53 – [Keynote] 1. ¿Qué es el aprendizaje profundo?
6:31 – [Keynote] 2. ¿Por qué utilizar el aprendizaje profundo?
16:10 – [Keynote] 3. ¿Qué son las redes neuronales?
26:33 – [Keynote] 4. ¿Para qué se utiliza realmente el aprendizaje profundo?
35:10 – [Keynote] 5. ¿Qué es y por qué usar TensorFlow?
43:05 – [Keynote] 6. ¿Qué es un tensor?
46:40 – [Keynote] 7. Qué vamos a cubrir
51:12 – [Keynote] 8. Cómo enfocar este curso
56:45 – 9. Creando nuestros primeros tensores con TensorFlow
1:15:32 – 10. Creación de tensores con tf Variable
1:22:40 – 11. Creación de tensores aleatorios
1:32:20 – 12. Barajar el orden de los tensores
1:42:00 – 13. Creación de tensores a partir de matrices NumPy
1:53:57 – 14. 14. Obtención de información de nuestros tensores
2:05:52 – 15. Indexación y expansión de tensores
2:18:27 – 16. Manipulación de tensores con operaciones básicas
2:24:00 – 17. Multiplicación de matrices parte 1
2:35:55 – 18. Multiplicación de matrices parte 2
2:49:25 – 19. Multiplicación de matrices parte 3
2:59:27 – 20. Cambio del tipo de datos de los tensores
3:06:24 – 21. 21. Agregación de tensores
3:16:14 – 22. Solución de problemas con tensores
3:22:27 – 23. Encontrar el mínimo y el máximo posicional de un tensor
3:31:56 – 24. 24. Exprimir un tensor
3:34:57 – 25. 25. Codificación de tensores en caliente
3:40:44 – 26. Probando más operaciones matemáticas con tensores
3:45:31 – 27. 27. Uso de TensorFlow con NumPy
3:51:14 – INICIO DEL MÓDULO 1 (regresión de redes neuronales)
3:51:25 – [Keynote] 28. Introducción a la regresión de redes neuronales con TensorFlow
3:58:57 – [Keynote] 29. Entradas y salidas de un modelo de regresión
4:07:55 – [Keynote] 30. Arquitectura de un modelo de regresión de red neuronal
4:15:51 – 31. Creación de datos de regresión de muestra
4:28:39 – 32. Pasos en la modelización con TensorFlow
4:48:53 – 33. Pasos para mejorar un modelo parte 1
4:54:56 – 34. Pasos para mejorar un modelo parte 2
5:04:22 – 35. Pasos para mejorar un modelo, parte 3
5:16:55 – 36. Evaluación de un modelo parte 1 (“visualizar, visualizar, visualizar”)
5:24:20 – 37. Evaluación de un modelo parte 2 (los 3 conjuntos de datos)
5:35:22 – 38. Evaluación de un modelo parte 3 (resumen del modelo)
5:52:39 – 39. Evaluación de un modelo parte 4 (visualización de las capas)
5:59:56 – 40. Evaluación de un modelo parte 5 (visualización de predicciones)
6:09:11 – 41. Evaluación de un modelo parte 6 (métricas de evaluación de la regresión)
6:17:19 – 42. Evaluación de un modelo de regresión parte 7 (MAE)
6:23:10 – 43. Evaluación de un modelo de regresión parte 8 (MSE)
6:26:29 – 44. Experimentos de modelización parte 1 (empezar con un modelo sencillo)
6:40:19 – 45. Experimentos de modelización parte 2 (aumento de la complejidad)
6:51:49 – 46. Comparación y seguimiento de experimentos
7:02:08 – 47. Guardar un modelo
7:11:32 – 48. Cargar un modelo guardado
7:21:49 – 49. Guardar y descargar archivos de Google Colab
7:28:07 – 50. 50. Reunir lo que hemos aprendido 1 (preparar un conjunto de datos)
7:41:38 – 51. Reunir lo que hemos aprendido 2 (construir un modelo de regresión)
7:55:01 – 52. 52. Reunir lo que hemos aprendido 3 (mejorar nuestro modelo de regresión)
8:10:45 – [Código] 53. Preprocesamiento de datos 1 (conceptos)
8:20:21 – [Código] 54. Preprocesamiento de datos 2 (normalización de datos)
8:31:17 – [Código] 55. Preprocesamiento de datos 3 (ajuste de un modelo en los datos normalizados)
8:38:57 – INICIO DEL MÓDULO 2 (clasificación con redes neuronales)
8:39:07 – [Keynote] 56. Introducción a la clasificación de redes neuronales con TensorFlow
8:47:31 – [Keynote] 57. Entradas y salidas de la clasificación
8:54:08 – [Keynote] 58. Formas del tensor de entrada y salida de la clasificación
9:00:31 – [Keynote] 59. Arquitectura típica de un modelo de clasificación
9:10:08 – 60. Creación y visualización de datos de clasificación para el modelo
9:21:39 – 61. Comprobación de las formas de entrada y salida de nuestros datos de clasificación
9:26:17 – 62. Construyendo un modelo de clasificación no muy bueno
9:38:28 – 63. 63. Intentando mejorar nuestro modelo de clasificación no muy bueno
9:47:42 – 64. Creación de una función para visualizar las predicciones no tan buenas de nuestro modelo
10:02:50 – 65. Haciendo que nuestro pobre modelo de clasificación funcione para un conjunto de datos de regresión

Aprende los fundamentos de TensorFlow y Deep Learning con Python Parte II

Has llegado a la segunda parte de la serie de vídeos más larga de aprendizaje profundo y TensorFlow en YouTube.

Esta parte continúa justo donde lo dejó la primera, así que abre la ventana de Google Colab y prepárate para escribir mucho más código TensorFlow.


Consigue todo el código/materiales en GitHub – https://www.github.com/mrdbourke/tens…
Haz una pregunta – https://github.com/mrdbourke/tensorfl…
Ver parte 1 – https://youtu.be/tpCFfeUEGs8
Documentación de TensorFlow Python – https://www.tensorflow.org/api_docs/p…

Marcas de tiempo:
0:00 – Introducción/hola/¿Has visto la parte 1? Si no, deberías
0:55 – 66. No linealidad parte 1 (líneas rectas y no rectas)
10:33 – 67. No linealidad parte 2 (construir nuestra primera red neuronal con una función de activación no lineal)
16:21 – 68. No linealidad parte 3 (mejorando nuestro modelo no lineal con más capas)
26:40 – 69. No linealidad parte 4 (modelando nuestros datos no lineales)
35:18 – 70. No linealidad parte 5 (reproduciendo nuestras funciones no lineales desde cero)
49:45 – 71. Conseguir grandes resultados en menos tiempo ajustando la tasa de aprendizaje
1:04:32 – 72. Uso del objeto histórico para trazar las curvas de pérdida de un modelo
1:10:43 – 73. Utilizar las devoluciones de llamada para encontrar la tasa de aprendizaje ideal de un modelo
1:28:16 – 74. Entrenamiento y evaluación de un modelo con una tasa de aprendizaje ideal
1:37:37 – [Nota clave] 75. Introducción de más métodos de clasificación
1:43:41 – 76. 76. Encontrar la precisión de nuestro modelo
1:47:59 – 77. 77. Creación de nuestra primera matriz de confusión
1:56:27 – 78. Hacer más bonita nuestra matriz de confusión
2:10:28 – 79. Clasificación multiclase parte 1 (preparación de los datos)
2:21:04 – 80. Clasificación multiclase, parte 2 (hacerse uno con los datos)
2:28:13 – 81. Clasificación multiclase, parte 3 (creación de un modelo multiclase)
2:43:52 – 82. Clasificación multiclase, parte 4 (mejorar nuestro modelo multiclase)
2:56:35 – 83. Clasificación multiclase, parte 5 (normalizada y no normalizada)
3:00:48 – 84. Clasificación multiclase parte 6 (encontrar la tasa de aprendizaje ideal)
3:11:27 – 85. Clasificación multiclase, parte 7 (evaluación de nuestro modelo)
3:25:34 – 86. Clasificación multiclase, parte 8 (creación de una matriz de confusión)
3:30:00 – 87. Clasificación multiclase, parte 9 (visualización de muestras aleatorias)
3:40:42 – 88. ¿Qué patrones está aprendiendo nuestro modelo?

Traducción realizada con la versión gratuita del traductor www.DeepL.com/Translator

Los 7 mejores libros de ciencia de datos para principiantes

Los 7 mejores libros de ciencia de datos para principiantes


.

Los 7 mejores libros de ciencia de datos para llevarte desde principiante a master

En pleno auge del video sobre cualquier otro formato, muchos aspirantes a alguna profesión de futuro, se olvidan que entre tutoriales de youtube, webinars, cursos de udemy o de coursera, hay una herramienta de aprendizaje fenomenal que funcional desde hace siglos, que no necesita internet, ni electricidad, que es 100 movil y que se adapta al ritmo de cada uno.

EL LIBRO.

Los 7 mejores libros de ciencia de datos para principiantes
Photo by Pixabay on Pexels.com

Es cierto que no todos los libros y todos los autores son capaces de hacer del aprendizaje una experiencia fácil y divertida. En este listado os propongo 7 libros de 7 autores que merecen la pena leer para llevaros desde un simples principiante de la ciencia de datos a dominar el tema y poder aplicarla sin cualquier tipo de problemas.

1. The Python Data Science Handbook, de Jake VanderPlas, publicado por O’Reilly.

Los 7 mejores libros de ciencia de datos para principiantes

Este libro es ideal para aquellos que se están iniciando en el análisis de datos y la ciencia de los datos y necesitan un libro que haga referencia a todas las técnicas y características de la biblioteca y amplíe Python para la ciencia de los datos. El libro cubre una variedad de temas en detalle y en profundidad, incluyendo la manipulación de datos con IPython (Python Interactivo), Numpy y Pandas, la visualización con matplotlib, y los algoritmos de aprendizaje automático supervisado y no supervisado con scikit-learn La cantidad y la profundidad del contenido sobre estos temas es impresionante. La cantidad y la calidad de los contenidos sobre estos temas contribuirán en gran medida a proporcionar habilidades para iniciarse en el ciclo de proyectos de ciencia de datos.

2. Practical Statistics for Data Scientists, de Peter Bruce, Andrew Bruce y Peter Gedek, publicado por O’Reilly.

Los 7 mejores libros de ciencia de datos para principiantes

La segunda edición de este libro ya ha salido, pero personalmente creo que es beneficioso leer este libro incluso si estás empezando o eres un profesional. Porque las estadísticas son la base de la ciencia de datos, y es fácil olvidarla, este libro te permitirá adquirir muchas habilidades si no las tienes todavia, pero también permitirá refrescar algunas de las que no se han vuelto a utilizar desde que se ha aprendido..

Estos temas se incluyen en este libro. Este libro incluye temas como EDA, datos y distribuciones de muestreo, experimentos estadísticos y pruebas de significación, regresión, clasificación, ML estadístico y aprendizaje no supervisado. Si eres un principiante, lee primero el primer libro y luego salta a este libro para aprender un montón de nuevas habilidades en la ciencia de los datos.

3. Introducing Data Science, de Davy Cielen et.al, publicado por Manning.

Los 7 mejores libros de ciencia de datos para principiantes

Me gusta este libro porque no sólo cubre los temas omnipresentes de la ciencia de los datos, sino también otros aspectos del campo de la ciencia de los datos, como {bases de datos NoSQL, minería de textos, análisis de textos y cómo iniciarse en el Big Data, especialmente el manejo de grandes cantidades de datos en un solo ordenador el manejo de grandes cantidades de datos en un solo ordenador}. Entender y trabajar con la integración de bases de datos en proyectos de ciencia de datos es una habilidad realmente útil y demandada. Te recomiendo que leas este artículo y aprendas las habilidades mencionadas.

4. The Art of Statistics: Learning Statistics from Data, de David Spiegelhalter, Pelican Publications, Inc.

Los 7 mejores libros de ciencia de datos para principiantes

Este libro era la recomendación de un curso de Ciencia de Datos Aplicada en Coursera en la Universidad de Michigan. Este libro hace un importante enfoque en la importancia de la capacidad de visualización (o, más concretamente, del arte). Es un libro muy recomendable a cualquiera que quiera comprender la profundidad de la visualización de datos y aprender el arte de la visualización de datos.

5. Data Science from Scratch de Joel Grus (publicado por O’Reilly)

Los 7 mejores libros de ciencia de datos para principiantes

Ya en su segunda edición, este libro ha ganado popularidad porque combina una variedad de fundamentos en un solo libro. Comienza con un curso intensivo de Python y luego pasa a la visualización de datos, el álgebra lineal y la estadística, la probabilidad, las hipótesis y la inferencia, la adquisición y el uso de datos, y el aprendizaje automático, las redes neuronales y los sistemas de recomendación, el análisis de redes y muchos otros temas relacionados con los datos. Es una gran lectura, y esperamos que la disfrute.

6.R for Data Science por Hadley Wickham & Garrett Gromund, publicado por O’ Reilly

Los 7 mejores libros de ciencia de datos para principiantes

R es todavia uno de los lenguajes de programación más utilizados para ciencia de datos. Algo que podría no parecer el caso por las recomendaciones hasta el momento.

Este libro es para las personas que quieren conocer el lenguaje, y todas la infinidad de librerías disponibles, para que puedan probarlo Cualquiera que esté pensando en hacer algo divertido o nuevo en ciencia de datos, como aprender un nuevo lenguaje para una tarea de ciencia de datos, debería leer definitivamente este libro. En este libro lo aprenderá todo. Definitivamente, merece la pena echarle un vistazo.

7.Think Stats de Allen B. Downey, publicado por O’ Reilley

Los 7 mejores libros de ciencia de datos para principiantes

Think Stats es un prólogo a la Probabilidad y la Estadística para los desarrolladores de software y científicos de datos de Python (si no estás ya familiarizado con estos temas).

Think Stats le muestra métodos sencillos para explorar conjuntos de datos del mundo real y responder a preguntas interesantes. El libro presenta un análisis contextual utilizando datos de los Institutos Nacionales de Salud.

Si tiene los conocimientos básicos de Python, puede utilizarlo para aprender a pensar en la probabilidad y la estadística.Think Stats se basa en la biblioteca de distribuciones de probabilidad de Python. También incluye muchos ejercicios que permiten realizar diversos experimentos con programas cortos para profundizar en su comprensión.

Aunque muchos libros no cubren la estadística bayesiana, Think Stats destaca el potencial de las técnicas bayesianas como algo muy importante; mediante el uso de PMF y la biblioteca CDF (utilizada para las distribuciones de probabilidad), incluso los aficionados pueden familiarizarse con las ideas y abordar los problemas de pruebas posibles.

Business Analytics

¿Que es y que no es Business Analytics?

En este articulo analizaremos brevemente lo que se entiende por business analytics o Analitica de datos/negocios e intentaremos aportar una visión sobre el valor que puede añadir a las pequeñas empresas por el hecho que no es necesario utilizar herramientas millonarias para implementar el proceso y sacarle provecho desde el primer dia.

¿Que és Business Analytics?

Business Intelligence, Business Analytics, Data Science, Data Mining, Big Data, Machine Learning …

Seguramente habrás oído centenas de veces estos términos en version anglicanismo.

También te habrás preguntado que son, o en que consisten.

Habrás buscado en internet y de habrá salido este tipo de respuesta …

Business Analytics o su acepción en español, Analítica Empresarial, consiste en llevar a cabo una serie de soluciones empresariales para satisfacer las necesidades de un negocio, lograr metas y alcanzar objetivos. En otras palabras, la analítica empresarial se centra en recopilar datos, enriquecerlos, gestionarlos y analizarlos para extraer la información relevante para la toma de decisiones de un negocio.

¿Contento?

Business Analytics
Business Analytics – Photo by Timur Saglambilek on Pexels.com

¿No? Entonces continua viendo esta introducción.

Las empresas viven en un ecosistema competitivo cada vez más complicado.

Para sobrevivir necesitan observar y comprender adecuadamente cómo cambia ese ecosistema, para poder evitar peligros, anticiparse a cambios, escuchar sus clientes, vigilar sus competidores, en muchas otras funciones.

Como se observa? Midiendo como el ecosistema cambia desde diversos enfoques y puntos de vista.

La definición de dato, según la estadística es la cuantificación de una medida. Por lo cuando observamos estamos midiendo diferentes cambios del ecosistema, generando a través de ellos datos. Si no observamos desde un punto de vista correcta o un elemento del ecosistema, no tendremos datos sobre el mismo y se nos escapará.

Los datos pueden ser procesados en información a través de la asociación de contextos referentes a lo que se observa y a través de la agregación de diferentes tipos de datos para completar el valor añadido que pueden aportar.

Si hablamos de 55, 45, 35 estamos hablando de datos sueltos sin valor añadido. Sin contextualizamos y agregames información y a estos datos aportamos precio y competidor principal, entonces tenemos una información valiosa sobre que el principal competidor de la empresa está bajando sus precios.

Con información, podemos seguir adelante en un proceso de aprendizaje y generación de conocimiento e experiencia.

Con conocimiento y experiencia es posible tomar decisiones sobre la actividad de la empresa y cómo esta interactúa de vuelta sobre su ecosistema, manipulando determinados procesos de actividad que van a su vez influenciar los datos que se están observando en el mismo.

Y el proceso vuelve a empezar.

Donde encaja Business Analytics ? En los tres puntos de recolección de datos, generación de información y toma de decisiones.

¿Y cual de ellos es más importante?

Analizemos la primera definición vista.

La analítica empresarial se centra en recopilar datos, enriquecerlos, gestionarlos y analizarlos para extraer la información relevante para la toma de decisiones de un negocio.

La definición se centra en la recopilación de datos y moverlos hacia arriba en la hierarquia de la empresa.

Esto es incorrecto.

Para entender el ecosistema, es necesario tener una vision del ecosistema y de cómo la empresa puede sobrevivir en ello. Este conocimiento solamente existente en la alta dirección de una empresa.

Por lo que el Business Analytics es un proceso que debe empezar desde comité de dirección y navegar por la organización hacia bajo. La cuestion numero 1, es: ¿Cómo puedo sobrevivir y crecer en mi ecosistema?

Esa pregunta puede después derivar en otras cada vez más detalladas que se van a traducir en que información y datos son necesarios para responder a esas preguntas y/o solucionar los problemas al que la empresa se enfrenta.

El ultimo paso, es entonces que solucion empresarial se puede utilizar para conseguir recolectar todos los datos necesarios que se han identificado en el proceso de Business Analytics.

De no hacerse asi, se transforma, en que puede mi empresa hacer con el software millonario que nos han vendido, que no sabemos utilizar, que no se adapta a nuestras necesidades, y que generalmente generar un valor 0.

Una vez establecido este planteamiento y recolectados los datos, es cuando podemos utilizar las técnicas y tecnologías disponibles para poder realizar proyecciones a futuro, analisis predictivo, o tener una lista de acciones concretas a realizar, Analisis prescriptiva.

Business Analytics
Big Data – Photo by Christina Morillo on Pexels.com

Big data, Data Science e Inteligencia Artificial

Con esta definición de Business Analytics, es tambien fácil integrar big data o data science dado que son herramientas a que se pueden utilizar para aumentar la capacidad de proceso de datos y sintetización de nuevas informaciones encaminadas a la respuesta de preguntas estratégicas para la empresa. De la misma forma, la inteligencia artificial es un proceso de reconocimiento automático de patrones en datos que permiten generar relaciones en causa-efecto, que desde un enfoque de Business Analytics puede multiplicar la capacidad de busca de datos e información para la generación de las preguntas de negocio.

Otro aspecto de esta vision a través del big data, es que este ultimo, no es relativo solamente a cantidad de datos, pero también tipos de datos y fuente de generación de datos, por lo que permite a la empresa contar con diferentes sistemas de referencia que pueden complementar y calibrar la percepción y la vision del ecosistema a través de la empresa, o de las personas que trabajan en ella, y puede estar sesgado.

Relación con la Transformación Digital.

La transformación digital es la integración de tecnologías de la información de forma masiva en todos los procesos de la empresa. Si la empresa tiene claro sus objetivos y como la gestión de la información es un elemento estratégico vital para la empresa, entonces la transformación digital es un complemento del proceso de Business Analytics, que además generará todavía mas datos e información sobre procesos internos que de otra forma no podrían generar una medida eficiente de su actividad o de su rendimiento.

¿En Conclusión, que es Business Analytics?

Es un proceso continuo de medición de la capacidad de la empresa de sobrevivir y crecer en su mercado, a través la búsqueda continua de respuestas a las principales cuestiones o problemas de la misma.

Las últimas noticias sobre ciencia, tecnología y cultura digital

Transformers en Deep Learning

 

      Interesante explicación de los transformers en Deep Learning

 

Esto un tema que creo que es importante que los profesionales lo entiendan porque representa un cambio real en el procesamiento del lenguaje natural, como si tuviera 12 meses, pero es una de esas cosas que es increíblemente significativa en el campo, y es el avance que los Transformadores introducen en el campo del reconocimiento de lenguaje natural.

Leo Dirac (@leopd) habla de cómo los modelos LSTM para el Procesamiento del Lenguaje Natural (PNL) han sido prácticamente reemplazados por modelos basados en transformadores. Conocimientos básicos sobre PNL, y una breve historia de las técnicas de aprendizaje supervisado de documentos, desde la bolsa de palabras, a través de RNNs de vainilla y LSTM. Luego hay una inmersión técnica profunda en cómo funcionan los transformadores con auto-atención de múltiples cabezas, y codificación posicional. Incluye código de muestra para aplicar estas ideas a proyectos del mundo real.

 

Data Scientist vs Data Engineer. ¿Cuál es la diferencia?

Cientifico de datos vs Arquitecto de datos ¿Cuál es la diferencia?

[ad_1]

 

Un articulo muy interesante que compara las diferencias que existente entre un data scientist (científico de datos) y un arquitecto de datos ( Arquitecto Big Data o Ingeniero de datos/Big Data ) o dato, y que bien podría resumir también las diferencias entre Data Science y Big Data, algo que confunde a mucha gente.
Esta confusión aumenta a menudo, cuando se quiere realizar algún tipo de formación, y todas terminologías convergen entre si, lo que agravado muchas veces por los vendedores de los programas, lleva la confusión hasta limites muy grandes.

Lo primero de todo…

Por mucho que se comenten como las tecnologías mas punteras, en realidad, nada de más lejano. Todas estas tecnologías de análisis de datos llevan decenas de años, y han ido evolucionando con una velocidad directamente proporcional a la capacidad de transmitir y procesar datos. La gran mayoría de las analíticas de datos están apoyados sobre métodos matemáticos, álgebra, estadística, etc…. que en algunos casos tienen mas algunos siglos de historia.

La proprio espirito de lo que es un cientifico de datos podría remontar unos 3 siglos a tras a una Londres todavía casi medieval, con una epidemia que estaba provocando la muerte de muchos londinenses, y cuya medicina de la época no conseguía encontrar una solución, hasta que un alguien se le ocurrió coger todos los datos de localización de la enfermedad y contrastarlo con mapas de otra características como por ejemplo el hidrográfico, e llegar a la conclusión que había una conexión entre enfermedad y pozos de aguas.

La única diferencia entre entonces y hoy, es que la digitalización de la economía ha permitido la existencia de datos prácticamente ilimitados que pueden ser intercambiados, distribuidos y procesados a una velocidad todavía no infinita.

Incluso con la evolución del poder de computación a la luz de la Ley de Moore, no fue hasta que cambios de modelos de computación generados por las nuevas empresas puntocom como Google, Twitter, Facebook y otras que realmente no se ha dispuesto de una capacidad realmente relevante de procesar los datos de una forma elevada.

Con estas dos visiones tenemos una primera aproximación de las diferencias:

– Encontrar respuestas a preguntas
– Encontrar formas de procesar los datos

Los científicos de datos, están para buscar las respuestas a las preguntas que le rodean. Estas preguntas pueden ser de muchos y diferentes tipos, pueden relacionadas con rentabilidad de negocios o inversiones, optimizaciones de producción, encontrar la cura del cáncer, saber lo que piensan nuestros usuarios, saber que van a comprar en el futuro nuestros consumidores, etc… Es fácil ver que dentro de las preguntas con vista al pasado, al presente y al futuro, dado que son realidades que se mezclan frecuentemente en el trabajo de un data scientist, porque para imaginar el futuro es necesario saber como se ha comportado el pasado, validarlo con el presente y finalmente proyectarse a ese futuro posible.

 

Data Science Hierarchy of needs

Source Hackernoon

Algo que es importante también tener en cuenta, es que la función dentro de los datos, depende mucho de la dimensión de la empresa, no es lo mismo ser un científico de datos en una pequeña suportar sin fondos para la contratación de equipos grandes, con una grande multinacional con muchos recursos y en que probablemente contara con equipos dedicados para cada función asociada al proceso de colectar,tratar y analizar los datos. Por lo lo mas probable es que en una empresa pequeña tanto un data scientist como un ingeniero de datos harán funciones muy parecidas, mientras que en las grandes empresas, su especializaran a muy bajo nivel.

Para realizar estas operaciones, son necesarios muchos datos, de muchos tipos, de muchas diferentes orígenes y con requisitos muy diferentes de proceso antes de que pueda ser utilizado en su análisis. Con estas tareas se preocupan los ingenieros de datos o arquitectos de big data, o muchos otros nombres.

Son los que son capaces de diseñar, montar y mantener todos los sistemas necesarios para conseguir encontrar los datos necesarios, recolectarlos en los sistemas donde se llevará a cabo su proceso, y garantizar que habrá la capacidad de computación suficiente como para que conseguirlo no lleve una eternidad, si no más bien sean realizada en el tiempo mas competitivo posible de tal forma que sumado a la labor del cientifico de datos, podamos conseguir ver la realidad de la temática que nos interesa antes de los demás.

Estos dos funciones no son exclusivas y complementarias entre si, y tienen muchos puntos en común, pero en el día a día, la principal diferencia estará en el enfoque mental que cualquier uno de ellos tiene sobre los datos y su utilización.

si comparásemos los dos roles a dos conductores que quieren ir de Madrid a Pamplona, el cientifico de datos miraría el GPS para intentar visualizar los posibles problemas del camino, mientras que el ingeniero de datos, miraría las características del trayecto como velocidades, tiempos de llegada, etc.. Claro que por lo menos ellos llevarían GPS y por lo cuanto pueden adaptarse con tiempo a lo que ocurre por delante de si. Una empresa sin datos, es como viajar sin GPS y estar al merced de lo que ocurre.

 

Diagrama de Venn del

Diagrama de Venn del «Científico de datos» (Fuente: Drew Conway)

 

Científico de datos

  • Enfoque en las preguntas utilizando los datos y su relación para estructurar hipótesis que pueden ser probados con la utilización de los modelos de análisis creados.
  • Ser capaz de contar historias con base en las análisis realizadas. el 80% del éxito es saber contar los resultados obtenidos.
  • Conocimiento especializado sobre el área de análisis
  • Conocimiento formal sobre matemáticas, álgebra, estadísticas, métodos numéricos, algoritmos
  • Conocimiento de programación y herramientas de proceso y análisis de datos.

Arquitecto o ingeniero de datos

  • Enfoque sobre la disponibilidad de los datos, su recolección, su almacenamiento
  • Enfoque sobre las arquitecturas de comunicación y computación
  • Enfoque sobre las herramientas de adquisición, proceso y almacenamiento de los datos.
  • Algún enfoque sobre el análisis

¿Como operan?

Lo primero de todo, el análisis de datos nunca debería empezar desde abajo de un departamento de tecnología y subir en dirección de la empresa. El enfoque debe ser desde las necesidades competitivas e estratégicas de la dirección, que sugieren preguntas de difícil solución, y que necesitan de diferentes fuentes y volúmenes de datos para permitir crear unos modelos capaces de simular la realidad e imaginar las posibles respuestas.

Empezar desde arriba va a dar la posibilidad de entender lo que se quiere hacer y que tiene la empresa para poder realizarlo, y en el caso de que no disponga de las posibilidades para hacerlo, entonces buscar especialistas o tecnologías para su implementación.

Empezar al revés, con una necesidad tecnológica es generalmente condenado a terminar con una solución propietaria cara y aislada, que tendrá a la organización rehén de la misma durante mucho tiempo.

Una vez, que la dirección de la organización tiene una idea clara de los retos existentes y de las preguntas a que debe enfrentarse para conseguir darle una respuesta, es cuando debe buscarse con la ayuda de un data scientist cual son las posibilidades que existen dentro o fuera de la organización para poder hacerlo. Hay muchas ocasiones en que no hay ni datos ni tecnologías disponibles y que por lo cuanto la vía debe ser de empezar a cambiar los modelos de operación para generar los datos que se necesite.

 

¿Que formación?

Que deben estudiar y cuales los perfiles más idóneos para poder estudiar, y una pregunta interesante, es necesario formación universitario complementaria de máster?

De forma general, el tipo de conocimiento de matematicas/estadisticas van a estar más fuertes en personas que hayan cursado formación de economia, matematicas, fisicas, estadisticas, quimica, geografia, etc… Están habituados a los datos como motor de inferencia de otras realidades y se les dá bien la abstracción que es necesaria tener para poder ver lo que los datos ocultan. Generalmente estos perfiles tienen cierta capacidad lógica por lo que poder llegar a tener una visión de alto nivel sobre programación no es demasiado complicado.

El tema de sistemas, comunicaciones y arquitecturas de computación les es más complicado entender, por lo que estarán generalmente mejor enfocados en programas de Data Science.

 

Por otro lado, ingenieros, informáticos y otras formaciones más técnicas estarán mejor enfocados en programas de Big Data donde tendrán más facilidades para entender la complejidad de los sistemas y sus interdependencias, algo que resulta mucho más complicado a los anteriores, y por lo cuanto un programa de Big Data les dará mejor provecho.

 

Estas divisiones no son atómicas y hay muchos ingenieros que son muy buenos con la relación de los datos, y vice versa.

 

Es necesario un máster o un programa universitario para poder formarse? La respuesta es complicada y depende de cada persona. Los principios formales y tecnológicos subyacentes a estas disciplinas se pueden aprender fácilmente con auto estudio, aplicarlos de forma correcta es más complejo, porque es necesario la capacidad de entender las especificidades del problema que se quiere responder, y es necesario la existencia de una dialogo constante que permita ir avanzando en el conocimiento del mismo para ir mejorando de forma gradual la concepción y abstracción de mismo. Sin esta relación real, es como intentar aprender a dibujar o programar sin hacer dibujos o sin programa. Se puede llegar a entender, pero no se conseguirá nunca saber aplicarlos.

 

 

 

 

Referencias

articulo  Pablo Avilés

Articulo Deusto

Formacion Recursos Humanos

[ad_2]

Que es el Robotic Process Automation (RPA) o automatización robótica de procesos?

ROBOTIC PROCESS AUTOMATION (RPA) una nueva INNOVACIÓN PARA LAS EMPRESAS

 

ROBOTIC PROCESS AUTOMATION (RPA) una nueva INNOVACIÓN PARA LAS EMPRESAS

 

Cada vez más empresas están recurriendo a una práctica tecnológica emergente llamada automatización de procesos robóticos (RPA) para racionalizar las operaciones de la empresa y reducir los costos. Con el RPA, las empresas pueden automatizar procesos empresariales mundanos basados en reglas, permitiendo a los usuarios empresariales dedicar más tiempo a servir a los clientes o a otros trabajos de mayor valor. Otros consideran que el RPA es una solución provisional en el camino hacia la automatización inteligente (AI) mediante herramientas de aprendizaje automático (ML) y de inteligencia artificial (AI), que se pueden entrenar para hacer juicios sobre los resultados futuros.

¿Qué es la automatización de procesos robóticos?

El Robotic Process Automation  es una aplicación de la tecnología, regida por la lógica empresarial y las entradas estructuradas, destinada a automatizar los procesos empresariales. Mediante las herramientas RPA, una empresa puede configurar un software, o un “robot”, para capturar e interpretar las aplicaciones para procesar una transacción, manipular datos, desencadenar respuestas y comunicarse con otros sistemas digitales. Los escenarios de RPA van desde algo tan simple como generar una respuesta automática a un correo electrónico hasta desplegar miles de bots, cada uno programado para automatizar trabajos en un sistema ERP.

Las operaciones de empresas de servicios financieros estuvieron a la vanguardia de la adopción de RPA, descubriendo formas de utilizar el software para facilitar los procesos empresariales sin aumentar el número de empleados o los costes.

¿Cuáles son los beneficios de RPA?

El RPA proporciona a las organizaciones la capacidad de reducir los costes de personal y minimizar los errores humanos. Por ejemplo, algunos bancos consiguieron con la implementación del RPA con varios bots para ejecutar diversos procesos, manejando 2 millones de solicitudes por año. Con ello, se añadió una capacidad equivalente a más de varias centenas de empleados a tiempo completo a con una fracción del coste y con la capacidad infalible de las máquinas para revisar detalles sin equivocación.

Los bots son típicamente de bajo costo y fáciles de implementar, no requiriendo ningún software personalizado o una profunda integración de sistemas. Estas características son cruciales para que las organizaciones puedan crecer sin añadir gastos significativos o fricciones entre los trabajadores.

Las empresas también pueden maximizar sus esfuerzos de automatización mezclando RPA con tecnologías cognitivas como el Machine Learning, el reconocimiento de voz  y
procesamiento del lenguaje natural, automatizando tareas de alto valor añadido que en el pasado requerían las capacidades perceptivas y de juicio que solamente los humanos teníamos hasta hace poco.