images

Introducción al

Análisis Estadístico Multivariado Aplicado

Experiencia y casos en el Caribe colombiano

Introducción al

Análisis Estadístico Multivariado Aplicado

Experiencia y casos en el Caribe colombiano

Martín Díaz Rodríguez

Ángel León González Ariza

Alvin Henao Pérez

Martín Emilio Díaz Mora

Introducción al análisis estadístico multivariado aplicado / Martín Díaz Rodríguez … [et al.]. — Barranquilla : Editorial Universidad del Norte, 2013.

xii 266 p. : tablas ; 28 cm.

Incluye referencias bibliográficas (p. 263-265) e índice analítico.

ISBN 978-958-741-358-8

ISBN 978-958-741-927-6 (epub)

1. Análisis multivariante I. Díaz Rodríguez, Martín. II. González Ariza, Ángel León. III. Henao Pérez, Alvin. IV. Díaz Mora, Martín Emilio. V. Tít.

(519.535 I61 23 ed.) (CO-BrUNB)

image

www.uninorte.edu.co

Km 5 vía a Puerto Colombia, A.A. 1569,

Barranquilla (Colombia)

© 2013, Editorial Universidad del Norte

© 2013, Martín Díaz Rodríguez, Ángel León González Ariza, Alvin Henao Pérez y Martín Emilio Díaz Mora

Edición

Martín Díaz Rodríguez

Coordinación editorial

Zoila Sotomayor O.

Corrección de textos

Henry Stein

Diseño de portada

Andrés Racedo Llanos

Procesos técnicos

Munir Kharfan de los Reyes

Desarrollo ePub

Munir Kharfan de los Reyes

Lápiz Blanco S.A.S.

Made in Colombia

A mi querida madre, María La Paz Rodríguez España, que en paz descanse. A mi querida esposa, Candelaria Mora Pérez y a mis queridos hijos, Leslie Johanna, Martín Emilio y Paulo César Díaz Mora.

A mi esposa Rocío, por el apoyo incondicional a todos los proyectos que he emprendido y a mis hijos Ángel León y Legna Rocío, motor y luz de mi existencia.

Para Arelis, mi señora madre. Para mi querida esposa, Mónica. Para Sara y Erick, las extensiones de mi vida.

A mi querido hijo, Anthony José Díaz. A mis padres y hermanos.

Los autores

MARTÍN DÍAZ RODRÍGUEZ

Licenciado en Matemáticas y Física, Universidad del Atlántico (Colombia). Magister en Matemáticas, Universidad del Valle-Universidad del Norte (Colombia). Con más de 25 años de experiencia docente. Profesor de tiempo completo de la Universidad del Norte.

ÁNGEL LEÓN GONZÁLEZ ARIZA

Doctor en Ingeniería Industrial y Especialista en Gestión Industrial, Universidad Politécnica de Valencia (España). Máster en Administración de Empresa, Universidad del Norte (Colombia). Ingeniero Industrial, Universidad Industrial de Santander (Colombia). Autor de Manual de investigación de operaciones 1 y Métodos de compensación basados en competencias.

ALVIN HENAO PÉREZ

Ingeniero Químico, Universidad del Atlántico (Colombia). Especialista en Diseño y Evaluación de Proyectos y Magister en Ingeniería Industrial, Universidad del Norte (Colombia). Actualmente cursa estudios de Doctorado en Ingeniería Industrial en la Universidad del Norte. Profesor de tiempo completo de esta misma institución.

MARTÍN EMILIO DÍAZ MORA

Ingeniero de Sistemas, Universidad del Norte (Colombia). Actualmente cursa estudios de Maestría en Ciencias y Computación en esta misma institución.

Contenido

1 Conceptos preliminares

1.1 Introducción

1.2 Técnicas de interdependencia

1.3 Técnicas de dependencia

1.4 Conceptos básicos del álgebra lineal

1.5 Vectores en n

1.5.1 Traslación de un vector con punto inicial en el origen

1.5.2 Operaciones entre vectores

1.5.3 Ejercicios

1.5.4 Combinación e independencia lineal

1.5.5 Autovalores y autovectores

1.5.6 Teoremas sobre valores propios o matrices simétricas

1.5.7 Ejercicios

1.6 Conceptos básicos de estadística

2 Análisis de componentes principales

2.1 Introducción

2.2 Presentación del modelo

2.3 Propiedades de los componentes

2.4 Estimación de los parámetros

2.5 Cálculo de las componentes

2.6 Pruebas de hipótesis para los parámetros en componentes principales

2.6.1 Pruebas de hipótesis respecto a la independencia de las coordenadas del vector aleatorio y test de esfericidad de Bartlett

2.7 Ejemplos

2.8 Taller

2.9 Ejercicios

3 Análisis Factorial

3.1 Introducción

3.2 Presentación del modelo con variables latentes ortogonales

3.3 Supuestos del modelo

3.3.1 Rotación de los ejes factoriales

3.3.2 Número máximo de factores

3.4 Estimación del modelo

3.5 Prueba de independencia

3.6 Test de esfericidad de Bartlett

3.7 Presentación del modelo con variables latentes oblicuas

3.8 Ejemplo de aplicación

3.8.1 Detección de datos atípicos

3.8.2 Determinación del número de componentes principales

3.8.3 Agrupación de las variables en torno a cada componente

3.8.4 Creación de las nuevas variables para cada factor

3.9 Taller

3.10 Ejercicios

4 Análisis de correspondencia simple

4.1 Introducción

4.2 Presentación del modelo

4.2.1 Distancia entre filas y columnas de la matriz de datos

4.3 Contribuciones absolutas y relativas

4.4 Ejemplo

4.5 Taller

4.6 Ejercicios

5 Análisis de Regresión Lineal

5.1 Introducción

5.2 Presentación del modelo de regresión lineal simple

5.2.1 Interpretación de los parámetros en el modelo de regresión poblacional

5.2.2 Supuestos del modelo

5.2.3 Ecuación de regresión lineal simple estimada

5.2.4 Predicción para un valor particular de Y dado un valor de X

5.2.5 Intervalo de confianza de 100(1 − α)% para los parámetros estudiados

5.2.6 Pruebas de hipótesis

5.3 Ejemplo de aplicación del modelo de regresión lineal simple

5.4 Algunas transformaciones útiles para linealizar

5.5 Análisis de correlación

5.6 Análisis de regresión lineal múltiple

5.6.1 Introducción

5.6.2 Presentación del modelo

5.6.3 Interpretación de los coeficientes de regresión poblacional

5.6.4 Supuestos del modelo

5.6.5 Estimación de los parámetros en un modelo de regresión lineal múltiple

5.6.6 Intervalo de confianza de 100(1 − α)% para los parámetros estudiados

5.6.7 Pruebas de no colinealidad de las variables explicativas (independencia)

5.6.8 Pruebas de hipótesis sobre los parámetros del modelo lineal

5.6.9 Coeficiente de determinación

5.6.10 Estimación y valoración del ajuste global

5.7 Ejemplos

5.7.1 Validación de los supuestos

5.7.2 Desviaciones del modelo analizadas a través de residuales

5.8 Taller

5.9 Ejercicios

6 Análisis discriminante

6.1 Introducción

6.2 Función discriminante

6.2.1 Presentación del modelo para dos poblaciones

6.2.2 Máxima verosimilitud

6.2.3 Regla de Bayes

6.2.4 Costo esperado

6.2.5 Función discriminante lineal de Fisher

6.2.6 Distancia de Mahalanobis

6.2.7 Función discriminante canónica

6.2.8 Supuestos del modelo

6.2.9 Estimación y valoración del ajuste global

6.2.10 Validación de los resultados

6.2.11 Correlación canónica

6.2.12 Índice de significancia práctica

6.2.13 Matriz de estructura

6.2.14 Centroides de grupos

6.2.15 Clasificación con más de dos grupos

6.2.16 Funciones de clasificación

6.3 Modelo con matrices de varianzas-covarianzas distintas

6.4 Taller

6.5 Ejercicios

7 Introducción al análisis de regresión logística

7.1 Estimación de los parámetros

7.2 Ajuste del modelo

8 Análisis de Cluster

8.1 Introducción

8.2 Procedimientos de agrupación

8.3 Ejemplos

8.4 Taller

8.5 Ejercicios

Índice de tablas

2.9.1 Unidades experimentales

3.8.1 Definición de variables cuantitativas

3.8.2 Definición de variables cualitativas

3.8.3 Pruebas de normalidad: Kolmogorov-Smirnov

3.8.4 Matriz de correlaciones. Determinante = 0

3.8.5 Varianza total explicada

3.8.6 Intervalo de confianza para cada λi

3.8.7 Matriz de componentes

3.8.8 Matriz de componentes rotados

3.10.1 Datos del problema

3.10.2 Encuesta sobre preferencias de compra de vehículos

3.10.3 Definición de variables

3.10.4 Codificación de los bancos

3.10.5 Cuestionario y opciones de respuestas

4.4.1 Frecuencias absolutas

4.6.1 Resultados de las encuestas a las familias

4.6.2 Frecuencia absoluta

4.6.3 Resultados

4.6.4 Resultados de la entrevista

4.6.5 Matriz de SML vs. días que demora el pago

4.6.6 Comportamiento de los clientes de la banca

4.6.7 Programas vs. Título académico

4.6.8 Clasificación de las Empresas según activos

5.2.1 Cálculos del ejemplo 5.2.1

5.2.2 Datos para el ejemplo 5.2.2

5.3.1 Estadísticas descriptivas del modelo

5.3.2 Análisis de varianza

5.3.3 Coeficiente e intercepto

5.3.4 Estadísticas de la regresión (sin intercepto)

5.3.5 Anova (sin intercepto)

5.3.6 Coeficiente (modelo sin intercepto)

5.3.7 Cálculos para los primeros 10 residuales ordenados

5.3.8 Estadísticas descriptivas del modelo

5.3.9 Análisis de varianza

5.3.10 Coeficiente e intercepto

5.7.1 Anova de Y vs. X1 en un modelo de regresión lineal simple

5.7.2 Anova de Y vs. X2 en un modelo de regresión lineal simple

5.7.4 Anova de Y vs. X4 en un modelo de regresión lineal simple

5.7.3 Anova de Y vs. X3 en un modelo de regresión lineal simple

5.7.5 Anova de Y vs. X2, X1 en un modelo de regresión lineal múltiple

5.7.6 Anova de Y vs. X2, X3 en un modelo de regresión lineal múltiple

5.7.7 Anova de Y vs. X2, X4 en un modelo de regresión lineal múltiple

5.7.8 Anova de Y vs. X3, X2 en un modelo de regresión lineal múltiple

5.7.9 Anova de Y vs. X3, X2, X1 en un modelo de regresión lineal múltiple

5.7.10 Anova de Y vs. X3, X2, X4 en un modelo de regresión lineal múltiple

5.7.11 Variables incluidas y número de modelos

5.7.12 Valores de R2

5.7.13 Resultados utlizando el criterio

5.7.14 Resultados para los valores de Ct en cada submodelo

6.2.1 Puntaje de los clientes del banco

6.2.2 Pruebas de igualdad de medias de los grupos

6.2.3 Prueba de igualdad de matrices de varianzas-covarianzas

6.2.4 Variables no incluidas en el análisis

6.2.5 Coeficientes no estandarizados

6.2.6 Grupo pronosticado

6.2.7 Validación cruzada

6.2.8 Resultado de las primeras 30 observaciones

6.2.9 Vectores de medias

6.2.10 Resultados de la valoración

6.2.11 Resultado de la encuesta a clientes

6.2.12 Estadísticos descriptivos

6.2.13 Matrices de covarianzas

6.5.1 Intención de compra

6.5.2 Valoración de las nuevas observaciones

6.5.3 Base de datos

7.2.1 Número de salarios mínimos devengados

7.2.2 Probabilidades de los resultados de la tabla 7.2.1

7.2.3 Estadísticas de la regresión y Anova

7.2.4 Base de datos

7.2.5 Resumen del procesamiento de los casos

7.2.6 Codificaciones de variables categóricas

7.2.7 Resumen del modelo

7.2.8 Prueba de Hosmer-Lemeshow

7.2.9 Variables en la ecuación

8.3.1 Resultados de la evaluación del trabajo de campo

8.5.1 Lista de talleres utilizados

8.5.2 Lista de variables utilizadas

8.5.3 Resultados por asignatura

8.5.4 Número de hijos por vendedor

8.5.5 Clasificación de individuos

8.5.6 Definición de variables

8.5.7 Matriz de datos

Introducción

Este libro recoge, por una parte, las experiencias adquiridas en el desarrollo de estos temas por los autores como profesores en cursos avanzados en diferentes disciplinas, como son los postgrados en matemáticas, estadística aplicada, ingeniería, ciencias económicas, ciencias de la salud y psicología; así como también algunas bases de datos reales de los trabajos de tesis o de profundización dirigidos por los autores, en sus diferentes disciplinas, situación que permite el enriquecimiento tanto del enfoque como la selección de ejemplos y ejercicios de aplicación que se han incluido en este libro con la esperanza de hacer más comprensible el desarrollo de los temas tratados en él. Es así como los autores se propusieron unir esfuerzos para que cada uno y desde su competencia aportara lo mejor de sus conocimientos para el éxito de este proyecto.

Este libro nació por la inquietud de los autores de darles un enfoque práctico a algunas técnicas del análisis estadístico multivariado que se presentan en algunos cursos de postgrados de la Universidad del Norte; enfoque que permita a cualquier investigador leer, seleccionar y usar las técnicas estadísticas presentadas, con poca dificultad en el tratamiento de problemas de investigación que requieren grandes volúmenes de datos, o poder utilizar algunos paquetes estadísticos para analizar diversas alternativas de solución, que apoyen la toma de decisiones en cualquier campo del conocimiento, así como también permitir el aprendizaje de aquellas personas que inician su proceso en el uso de estas técnicas.

Hoy en día, la colaboración entre ciencias, matemática - estadística y TIC se ha convertido en una estrategia efectiva para abordar problemas de investigación en los que se requiere el manejo de grandes volúmenes de datos, cuyo tratamiento y análisis sería imposible o muy costoso si no se contara con técnicas multivariadas y el uso del computador para llevar a cabo las operaciones complejas propias del uso de dichas técnicas.

Las técnicas de análisis estadístico multivariado de datos se está convirtiendo en una estrategia útil en el procesamiento de grandes volúmenes de datos en el sector financiero e industrial, como apoyo en la toma de decisiones de diferente índole, como también en los centros de investigación universitarios. Estas técnicas muestran su mayor potencia en la administración pública, ya que son utilizadas para comprender mejor los complejos problemas a los que se enfrentan los administradores de lo público en su quehacer diario.

Las técnicas estadísticas multivariantes de análisis de datos permiten analizar los individuos u objetos mediante múltiples criterios o variables simultáneamente, así como también el análisis conjunto de varias variables, en la simplificación de estas o clasificación de individuos con base en subconjunto de ellas.

Este libro está conformado por ocho capítulos. En el capítulo 1 se presentan los conceptos básicos tanto del álgebra lineal como lo son los conceptos de vectores en n, el álgebra matricial, la combinación lineal, la independencia lineal entre vectores, los vectores propios y valores propios. De la estadística básica se presentan los conceptos de vector aleatorio, la media de un vector aleatorio, la matriz de varianzas-covarianzas de un vector aleatorio, la matriz de coeficientes de correlación, la varianza generalizada, la varianza total, el vector de medias muestrales y la matriz de varianzas- covarianzas muestrales.

En el capítulo 2 se presenta la técnica de componentes principales (CP) desde la presentación del modelo, pasando por sus propiedades y cálculo de sus componentes, estimación de parámetros, pruebas de hipótesis, aplicación del test de esfericidad de Bartlett y termina con un taller y ejercicios de aplicación.

En el capítulo 3 se presenta la técnica de análisis factorial (AF), los supuestos, los diferentes tipos de rotaciones de los ejes, estimación del modelo, pruebas de hipótesis, una presentación del modelo con variables latentes oblicuas y al final un taller y ejercicios de aplicación.

El capítulo 4 inicia con la presentación del modelo de análisis de correspondencia simple (AC), el concepto de distancias entre filas y columnas de la matriz de datos, contribuciones relativas y absolutas, un ejemplo desarrollado manualmente para un mejor entendimiento de la técnica y finaliza con un taller y ejercicios de consolidación. En este capítulo se presenta un programa escrito en MATLAB 6.5.1, que facilita el procesamiento de los datos en el cálculo de los vectores filas y columnas para las representaciones gráficas de los perfiles.

En el capítulo 5 se tratan los temas de regresión lineal simple y múltiple. En ambos se presenta el modelo, los supuestos, las estimaciones de los parámetros, pruebas de hipótesis para los parámetros en el modelo, ejemplos de aplicación y al final un taller y ejercicios de aplicación. Aunque este capítulo en la forma en que se presenta no es un tema de análisis multivariado, fue incluido debido a la importancia que tiene en los dos capítulos siguientes.

En el capítulo 6 se presenta la técnica de análisis discriminante, el modelo, los supuestos, las estimaciones y ajuste final, para posteriormente, mediante un ejemplo, mostrar el procedimiento de validación de los resultados. Para consolidar estos conceptos, el capítulo finaliza con un taller y ejercicios de aplicación.

En el capítulo 7 se hace una breve introducción a los modelos de regresión logística (MRL). Allí se inicia estimando los parámetros del modelo y posteriormente se hace el desarrollo sobre el ajuste del modelo y se plantea un ejemplo para comprender mejor los conceptos vistos en el capítulo.

El capítulo 8 cierra el contenido del libro presentando la técnica de análisis de cluster (AC). En él se presentan los métodos de clasificación jerárquico y no jerárquico, y ejemplos de aplicación. Al final del capítulo se incluyen un taller y ejercicios de aplicación.

En lo que a casos de estudio se refiere, cada capítulo del libro es complementado con un caso, que ha sido el resultado de la síntesis de una investigación en el marco de tesis de maestría en el que el uso de paquetes estadísticos o matemáticos han sido útiles para apoyar el enfoque aplicado del libro.

Para finalizar, los autores hacen hincapié en la importancia práctica de estas técnicas en las siguientes ramas del saber: ingeniería, estadística, economía, administración, salud, psicología, educación y comunicación, en las que han dirigido trabajos de tesis, o trabajos de profundización, o han asesorado trabajos de investigación. Además de los múltiples documentos que publican resultados de trabajos de investigación en los que estas técnicas han jugado un papel fundamental en las conclusiones o toma de decisiones en muchas situaciones.

Reconocimiento

Los autores expresan sus agradecimientos a todos aquellos estudiantes de las maestrías de Ingeniería Industrial, Estadística Aplicada y Minor de Ingeniería Industrial de la Universidad del Norte que permitieron el uso de sus bases de datos de sus trabajos de tesis o trabajos de profundización para realizar ejemplos o presentar ejercicios de problemas reales de aplicación en el desarrollo de este libro, especialmente con casos aplicados en diferentes sectores de la economía y la salud. Fueron muy útiles en la elaboración del libro los trabajos de José Vicente Barraza Angarita, Gina Galindo Pacheco y Blanca Rosa Romero, Sara Raquel Montero, Luis Enrique Peralta López, José de Jesús Vargas, Jesson Díaz Campo, Rubén Ponce E., Mireya Mendoza Lascano y Viviana Vargas Angulo. Igualmente, nuestros agradecimientos a los directivos del CDPATA, por facilitar información para la investigación sobre Vinculación Cooperativa Universidad-Sector Productivo-Gobierno, de la cual salió el caso sobre las PYMEs del sector de mantenimiento automotor que mediante análisis de cluster permitió hacer la clasificación de los talleres de este centro de desarrollo productivo.

CAPÍTULO 1

Conceptos preliminares

1.1 Introducción

El proceso de investigación en general supone un conjunto de etapas que comienzan con la indagación preliminar y la revisión del conocimiento existente sobre algún fenómeno objeto de la investigación (fase previa), para después concretar los objetivos y formular hipótesis de partida, delimitando el alcance y las características generales de la investigación.

Cuando se recurre a datos primarios, se diseña todo el proceso de trabajo de campo (entrevistas, características, muestras, etc.), para seguidamente pasar a la acción. Tras realizar toda esta planificación, ejecutarla y depurarla, lo siguiente es el análisis de los datos obtenidos.

Dada la gran variedad de opciones de análisis de datos, es necesario recurrir a algún criterio de clasificación que permita un mejor manejo de las diferentes posibilidades. Un criterio de clasificación muy utilizado es el que se centra en el número de variables.

Para establecer qué métodos multivariados se deben usar se suele recurrir a tres criterios:

1. La distinción o no entre las variables utilizadas en el análisis

Entre las técnicas de no distinción entre variables (técnicas de interdependencia) tenemos, entre otras, el análisis factorial y el análisis de cluster.

Entre las técnicas de distinción entre variables (se distingue entre variables explicativas (independientes) y variables explicadas (dependiente)) podemos mencionar, entre otras, el análisis de regresión y el análisis discriminante.

2. La escala de medidas de las variables

Algunas veces se requiere que las variables estén definidas en escala métrica, otras veces sean categóricas y otras de ambos tipo, tales como en el análisis de regresión, análisis de correspondencia y análisis de varianza, respectivamente.

3. Número de las variables que se analizan simultáneamente

En el caso de las técnicas de interdependencia, el número de variables estará determinado por los planteamientos teóricos de la investigación, mientras que en las técnicas de dependencia, el número de variables dependiente determinará el análisis estadístico que se deberá utilizar.

1.2 Técnicas de interdependencia

Son técnicas con un interés eminentemente descriptivo que permiten un mejor conocimiento de la realidad medida por estas variables. En este texto solo estudiaremos las siguientes:

1. Análisis de componentes principales

Análisis mediante el cual a partir de las variables originales métricas se busca generar nuevas variables no correlacionadas que recojan toda la variabilidad de las variables originales.

2. Análisis factorial

Análisis mediante el cual se busca generar a partir de las variables métricas del problema un número menor de variables (casos) métricas no correlacionadas (generalmente) que expresen la misma información o, por lo menos, en un alto porcentaje la información que expresan las variables originales.

3. Análisis de correspondencia

Como el anterior, trata de descubrir y describir dimensiones fundamentales de un fenómeno pero con la particularidad de trabajar con variables categóricas.

4. Análisis de cluster

Comprende diferentes técnicas en las que, dado un conjunto de variables, se obtienen subconjuntos ya sea de casos o de variables, intentando que cada subconjunto sea lo más homogéneo posible internamente y lo más diferente posible de los demás.

1.3 Técnicas de dependencia

Son técnicas de distinción de variables; en tal distinción se admite que una o unas variables independientes condicionen los valores de otra u otras variables dependientes. De las técnicas de dependencia estudiaremos, entre otras, las siguientes:

1. Análisis de varianza

La característica del modelo es: una variable o más variables métricas dependientes y una o más variables no métricas independentes.

2. Análisis de regresión

La característica del modelo es : una variable dependiente (explicada) métrica y una o más variables independientes (explicativas) también métrica. Mencionaremos solo el caso en el que la variable dependiente se expresa como una combinación lineal de las variables independientes.

3. Análisis discriminante

La característica del modelo es: una variable dependiente (explicada) no métrica y una o más variables independientes (explicativas) métrica.

La variable dependiente se expresa como una combinación lineal de las variables independientes. Esta técnica requiere del supuesto de normalidad multivariada del conjunto de variables independientes en cada uno de los grupos definidos por la variable dependiente.

4. Análisis de regresión logística

La característica del modelo es : una variable dependiente (explicada) no métrica y una o más variables independientes (explicativas) métrica.

Esta técnica no requiere del supuesto de normalidad multivariada del conjunto de variables indepenientes.

1.4 Conceptos básicos del álgebra lineal

Antes de entrar de lleno en materia es necesario tener claro algunos conceptos del álgebra lineal básicos para el buen desarrollo de este texto, tales como el concepto de vector en n, norma de un vector, producto escalar, proyección de un vector, ángulo entre dos vectores, vectores ortogonales, dependencia lineal entre vectores, matriz, matriz triangular, matriz simétrica, matriz ortogonal, sistemas de ecuaciones lineales, determinantes, vectores y valores propios de una matriz. Estos conceptos pueden ser leídos en el texto de introducción al álgebra lineal para las ciencias económicas de M. Díaz, V. Obeso y M. Navarro (2009). En este texto solo presentaremos los temas relacionados con vectores y valores propios de una matriz.

1.5 Vectores en n

Desde un punto de vista geométrico, un vector se puede definir por:

Definición 1.5.1. Un vector es un segmento de recta dirigido, con un punto inicial llamado origen y un punto final llamado extremo del vector.

Desde el punto de vista algebraico, un vector lo podemos definir así:

Definición 1.5.2. Vectores en 2

Un vector en 2 es un par ordenado (a, b) de números reales, donde 2 es el conjunto de todos los vectores ubicados en el espacio bidimensional. En forma análoga definimos vectores en 3 como ternas (a1, a2, a3) de números reales; y en términos generales, vectores en n, como n-uplas (a1, a2, ..., an) de números reales.

Denotamos los vectores con las letras del abecedario y con una flecha encima de ellas, así: image

Definición 1.5.3. Norma de un vector

Sea image = (a1, a2, ..., an) un vector en n, definimos la norma o magnitud de un vector image, denotado image así:

Si image = (1, 2, 3), entonces la norma del vector image es:

image

La norma de un vector image es siempre no negativa y representa la distancia que hay entre el origen y el extremo del vector.

Un vector se dice que es unitario si su norma es igual a 1.

Como ejercicio, puede demostrar que dado un vector no nulo image, el vector image es un vector unitario.

1.5.1 Traslación de un vector con punto inicial en el origen

Definiremos ahora vectores equivalentes.

Definición 1.5.4. Dos vectores image, en n son equivalentes si las diferencias de las coordenadas del punto final y del inicial de cada vector coinciden.

Ejemplo 1.5.1. El vector image, con punto inicial en (5,1) y su punto final en (7,2), y el vector image, que tiene su punto inicial en (7,3) y su punto final en (9,4), son equivalentes, ya que la diferencia (7,2)-(5,1)=(2,1) y la diferencia (9,4)-(7,3)=(2,1). Como podemos ver, las diferencias de las coordenadas del punto final y del inicial de cada vector coinciden.

En la gráfica se muestran los dos vectores del ejemplo anterior:

Figura 1.5.1. Vectores equivalentes

Ejemplo 1.5.2. El vector image, con punto inicial en (2,3,8) y su punto final en (4,1,6), y el vector image, que tiene su punto inicial en (5,6,5) y su punto final en (7,4,3), son equivalentes, ya que la diferencia (4,1,6)-(2,3,8)=(2,-2,-2) y la diferencia (7,4,3)-(5,6,5)=(2,-2,-2). Como podemos ver, las diferencias de las coordenadas del punto final y del inicial de cada vector coinciden.

Teorema 1.5.1. Dados dos puntos del espacio n-dimensional, punto inicial A=(a1, a2, ..., an) y punto final B=(b1, b2, ..., bn), entonces el vector que tiene su origen en el punto A y su extremo en el punto B, denotado image es equivalente al vector anclado (con punto inicial en el origen del sistema de coordenadas rectangulares): (b1 a1, b2 a2, ..., bn an).

Note que de acuerdo con lo anterior, todo vector no anclado en el origen del sistema de coordenadas rectangulares tiene un equivalente cuyo origen o punto inicial es el origen del sistema de coordenadas rectangulares.

Definición 1.5.5. Sean image = (u1, u2, ..., un) y image = (v1, v2, ..., vn) dos vectores en el espacio n-dimensional, se dice que los vectores image son iguales, y lo denotamos image si y solo si las componentes correspondientes de los dos vectores son iguales, es decir, u1 = v1, u2 = v2, u3 = v3,..., un = vn.

Ejemplo 1.5.3. Dados los vectores image = (5, 3, 6, 4), image = (10/2, 3, 36/6, 4) y image= (8, 0, 7, 3), note que los vectores image son iguales, mientras que el vector image no es igual ni a image

Ejemplo 1.5.4. Dados los vectores image = (5, a, 6, b) y image = (c, 3, d, 4), si image, ¿ cuáles son los valores de a, b, c, d ?

De acuerdo con la definición, a = 3, b = −4, c = 5 y d = 6.

1.5.2 Operaciones entre vectores

Definición 1.5.6. Sean image = (u1, u2, ..., un) y image = (v1, v2, ..., vn) dos vectores en el espacio n-dimensional, definimos el vector suma de los vectores image, denotado image como el vector que tiene como componentes la suma de las componentes correspondientes de los vectores image en notación:

image = (u1 + v1, u2 + v2, ..., un + vn).

Ejemplo 1.5.5. Dados los vectores

image = (5, 6, 3, 14), image = (6, 4, 3, 12) y image = (8, 15, 9, 21), entonces image = (1, 10, 6, 2) y image = (3, 21, 6, 35).

Definición 1.5.7. Multiplicación de un escalar por un vector
Se image a = (u1, u2, ..., un) un vector en el espacio n-dimensional, y sea k un número real (escalar), definimos el producto del escalar k por el vector image denotado image como el vector que tiene como componentes k veces las componentes correspondientes de image es decir image, = (ku1, ku2, ..., kun).

Ejemplo 1.5.6. Dados los vectores

image = (5, 6, 3, 4) y image = (16, 14, 13, 12),

entonces image = (15, 18, 9, 12) image = (64, 56, 52, 48).

Definiremos la sustracción de vectores así:

Definición 1.5.8. Sean image vectores en n, definimos image     image = image + ( image).

Ejemplo 1.5.7. Dados los vectores

image = (7, 1, 26, 63, 34) y

image = (7, 36, 44, 63, 22) , entonces

image = (14, 35, 18, 0, 12).

Definición 1.5.9. Sea image = (u1, u2, ..., un) y image = (v1, v2, ..., vn) dos vectores en el espacio n-dimensional, definimos el producto escalar de image por denotado image así:

image = u1.v1 + u2.v2 + ... + unvn

Ejemplo 1.5.8. Dados los vectores

image = (3, 4, 3, 4), image = (4, 3, 6, 2) image y = (4, 5, 9, 1), entonces image = 3(4)+4(3)+3(6)+4(2) = 10 image = 3(4)+4(5)+3(9)+4(1) = 15. ¿cuál es el resultado de image

El siguiente teorema es usado para hallar el ángulo entre dos vectores. La demostración se escribe para dos dimensiones sin perder la generalidad de las afirmaciones.

Teorema 1.5.2. Dados los vectores

image = (u1, u2, ..., un), image = (v1, v2, ..., vn), entonces

image = image = cos(α), siendo α el ángulo entre ellos.

Demostración 1. Se demostrará el teorema para el caso en dos dimensiones. Sin perder generalidad, tomemos el triángulo que se muestra a continuación, cuyos lados son los dos vectores image y α, el ángulo entre ellos.

Figura 1.5.2. Ángulo entre dos vectores

Aplicando el teorema del coseno en el triángulo anterior obtenemos:

image cos(θ); despejando image cos(θ) obtenemos:

Ejemplo 1.5.9. Halle el ángulo entre la diagonal de un cubo y una de sus caras.

Demostración 1. En la figura se presentan los datos necesarios para la solución del problema. Como image = (l, l, l) image y = (l, l, 0), entonces cos(θ) = image con

Figura 1.5.3. Ángulo entre la diagonal de un cubo y una de sus caras

lo cual encontramos que

cos(θ) = image = image = entonces el ángulo θ = 35.3.

Ejemplo 1.5.10. Halle el ángulo entre los vectores image = (2, 6, 1) y image = (5, 2, 9).

Demostración 2. Como cos(θ) = image encontramos que image entonces el ángulo θ = 62.5.

Si el ángulo entre dos vectores es de 90 grados, se dice que los vectores son ortogonales.

Teorema 1.5.3. Sean image dos vectores en n, entonces | image para todo image la igualdad se cumple cuando image para algún λ∈.

1.5.3 Ejercicios

1. Sean

image = (1, 3, 5)

image = (1, 12, 35)

image = (15, 33, 52)

image = (11, 23, 35)

image = (51, 33, 65)

image = (31, 83, 52)

halle:

image

2. Si el punto inicial de un vector

image es (1, 3, 2) y el punto final es (4, 6, 3), halle el vector:

a. image

b. image

1.5.4 Combinación e independencia lineal

Definición 1.5.10. Combinación lineal

Sean image vectores de n, se dice que el vector image es una combinación lineal de los vectores image si y solo si existen escalares c1, c2, ..., ck tal que

Definición 1.5.11. Independencia lineal

Sean image vectores de n, se dice que ellos son linealmente independientes si la combinación image implica que c1 = c2 = ··· = cn = 0.

Si los k vectores no son linealmente independientes, se dice que son linealmente dependientes.

El siguiente ejemplo ilustra el concepto de combinación lineal.

Ejemplo 1.5.11. Demostrar que el vector image = (24, 1) es combinación lineal de los vectores image = (3, 4) y image = (6, 3).

Demostración 3. Por definición, debemos encontrar escalares c1 y c2 tales que la expresión image sea verdadera, es decir, hallar c1 y c2 en la siguiente ecuación vectorial:

image esto genera el siguiente sistema de ecuaciones lineales:

3c1 + 6c2 = 24

4c1 3c2 = 1,

en el cual podemos aplicar el método de Gauss-Jordan y obtenemos la siguiente solución:

c1 = 2 y c2 = 3; note que 2(3, 4) + 3(6, 3) = (6, 8) + (18, 9) = (24, 1).

Ejemplo 1.5.12. Demostrar que el vector image = (14, 32, 33) es combinación lineal de los vectores image = (2, 4, 5) y image = (6, 3, 2).

Demostración 4. Por definición, debemos encontrar escalares c1 y c2 tales que la expresión image sea verdadera, es decir, hallar c1 y c2 en la siguiente ecuación vectorial:

(14, 32, 33) = c1(2, 4, 5) + c2(6, 3, 2); esto genera el siguiente sistema de ecuaciones:

2c1 6c2 = 14

4c1 +3c2 = 32

5c1 +2c2 = 33,

en el cual podemos aplicar el método de Gauss-Jordan y obtenemos la siguiente solución:

c1 = 5 y c2 = 4; note que 5(2, 4, 5) +4(6, 3, 2) = (10, 20, 25) +(24, 12, 8) = (14, 32, 33).

Ejemplo 1.5.13. Dados los vectores image = (2, 3, 5) image y = (3, 4, 1), mostraremos que image son linealmente independientes.

Tomemos la combinación lineal de esos vectores y la igualamos al vector cero, o sea, image

Entonces, obtenemos el siguiente sistema de ecuaciones lineales:

2c1 +3c2 = 0

3c1 +4c2 = 0

5c1 + c2 = 0

Aplicando Gauss-Jordan obtenemos que c1 = c2 = 0, lo cual implica que los vectores image