Analítica de Datos para Negocios Digitales Flashcards
Definición: Es un subcampo de la inteligencia artificial que se centra en desarrollar algoritmos y modelos que permiten a las computadoras aprender patrones y tomar decisiones sin ser programadas explícitamente.
Ejemplo: Algoritmos de clasificación, regresión y clustering que pueden aprender a reconocer patrones en datos y realizar tareas específicas.
Machine Learning (Aprendizaje Automático):
Definición: Se refiere a la creación de programas y sistemas capaces de realizar tareas que, tradicionalmente, requieren inteligencia humana. Incluye aspectos como el aprendizaje automático, el procesamiento del lenguaje natural y la percepción visual.
Ejemplo: Asistentes virtuales, sistemas de recomendación, reconocimiento facial.
Inteligencia Artificial (I.A.):
Definición: Es el proceso de descubrir patrones significativos, tendencias y conocimientos útiles a partir de grandes conjuntos de datos. Utiliza técnicas estadísticas, matemáticas y de inteligencia artificial.
Ejemplo: Identificación de patrones de compra en datos de transacciones comerciales, detección de anomalías en datos financieros.
Data Mining (Minería de Datos):
Definición: Se refiere al manejo y análisis de conjuntos de datos extremadamente grandes y complejos que superan las capacidades de las herramientas de procesamiento de datos tradicionales. Se caracteriza por las 3V: volumen, velocidad y variedad.
Ejemplo: Análisis de datos de redes sociales, procesamiento de datos en tiempo real de dispositivos IoT (Internet de las cosas).
Big Data:
Los 6 pasos (Etapas) fundamentales en el procesamiento de datos
1.- Recogida de datos
2. Preparación de datos
3. Introducción de datos
4. Procesamiento
5. Salida / Interpretación de datos
6. Almacenamiento de datos
1.- Recogida de datos
Es el primer paso del procesamiento. Los datos se extraen de
las fuentes disponibles, algunas son los datas lakes y los almacenes de datos, cabe
destacar que los almacenes de datos deben ser confiables y se hayan creado
correctamente para los datos recabados.
Encuesta
Entrevista
Prueba
Evaluaciones Fisiológicas
Observaciones
- Preparación de datos
Llamada también preprocedimento, etapa en la que los
datos se limpian en bruto y se organizan para la siguiente fase o etapa, durante su
preparación los datos se verifican para detectar errores.
- Introducción de datos
Ya limpios y listos los datos se introducen a su destino
(puede ser un almacen de datos) en el que se traducen a un lenguaje comprensible;
la introducción de datos es el primer paso en que los datos en bruto comienzan a
cobrar forma como información utilizable.
*Ausencia de valores
*Inconsistencia de datos
*Valores duplicados
*Outliers
- Procesamiento:
Durante esta fase los datos ingresados en el ordenador en la fase
anterior se procesan realmente para su interpretación. El procesamiento se efectúa
por medio de algoritmos de machine learning, si bien el proceso en sí puede variar
ligeramente según cuál sea la fuente de los datos que se esté procesando.
- Salida / Interpretación de datos:
Es la fase en la que los datos resultan finalmente
utilizables para los que no son científicos de datos. Están traducidos, son legibles y
muchas veces se presentan en forma de gráficos, vídeos, imágenes, texto simple,
etc. A partir de ese momento los miembros de una empresa o institución pueden
empezar a autogestionarse los datos para sus propios proyectos de analíticas de
datos.
- Almacenamiento de datos:
La última fase del procesamiento de datos es
el almacenamiento. Cuando todos los datos están procesados, se almacenan para
su futuro uso. Si bien hay alguna información que ya puede emplearse de inmediato,
gran parte tendrá utilidad a posterior.
¿Qué es Data WareHouse?
Viene del Inglés Data = datos y WareHouse = almacén, por eso, una
data warehouse es un almacén de datos.
ETL
Como su propio nombre indica (Extract,
Transform, Load), nos permitirá la extracción de datos de diferentes fuentes,
transformar dichos datos y cargarlos en diferentes destinos.
Spoon
Es la interfaz gráfica de usuario de Pentaho Data Integration, que permite diseñar y gestionar flujos de datos para la extracción, transformación y carga de datos en un almacén de datos o base de datos.
Es el proceso de descubrir patrones, relaciones y conocimientos útiles a partir de grandes conjuntos de datos. Este campo utiliza técnicas de estadísticas, inteligencia artificial y aprendizaje automático para analizar y extraer información valiosa de datos, que a menudo no sería evidente a simple vista
MINERÍA DE DATOS