jueves, 31 de enero de 2013

producto escalar


Sistemas de referencia. Producto escalar




Bases en el espacio


Definición de base

Tres vectores no nulos y no coplanarios (linealmente independientes) constituyen una base de V 3 ; por tanto, el espacio V 3 es de dimensión 3.

Tipos de Bases


Ortogonales: formadas por vectores perpendiculares, su producto escalar es 0.

Normadas: formadas por vectores unitarios su módulo es 1.

Ortonormales. Sistema de referencia cartesiano en el espacio.

Las bases ortonormales están formadas por vectores ortogonales y unitarios.
La base de la figura es la base canónica del espacio R3 formada por 3 vectores unitarios y ortogonales, (1,0,0) (0,1,0) y (0,0,1,).

Base. Producto escalar

Estos vectores numéricos se identifican con los vectores libres i, j, k respectivamente, forman la base canónica de V 3.

Ejemplo de cálculo


Producto escalar de vectores.

Producto escalar de vectores


Producto escalar

Vector unitario


Definición: Un vector unitario de otro tiene de módulo 1 y la misma dirección y sentido.
Para calcularlo de dividen las componentes entre el valor del módulo.

Ejercicio resuelto


Producto escalar.

ejercicios resueltos base ortonormal

http://www.slideshare.net/algebralineal/base-ortonormal-4569638

ejercicios resueltos de base ortonormal link



http://www.slideshare.net/algebralineal/base-ortonormal-4569638

espacios vectoriales

Espacios vectoriales: cambio de base

Muchas de las aplicaciones del álgebra lineal a la física, ingeniería, ciencias sociales, etc., pueden formularse de manera sencilla si se elige el sistema de coordenadas apropiado. También, los problemas de espacios vectoriales pueden simplificarse eligiendo una base adecuada. En la clase de hoy estudiaremos las coordenadas de un vector con respecto a una base fija, veremos que esas coordenadas cambian al cambiar la base del espacio y estudiaremos las relaciones que vinculan las coordenadas de un vector con respecto a diferentes bases.

Empezaremos con un ejemplo; tomemos   B = { (1,0,-1), (-1,1,0), (1,1,1) } como base de (3 y w = (2,-3,4) un vector en (3. Expresaremos w como combinación lineal de B

-¿porqué esto es posible para cualquier w en (3?.

Es decir, queremos encontrar escalares (, (, ( tales que

(2,-3,4)=((1,0,-1)+((-1,1,0)+((1,1,1)

lo cual nos lleva al sistema de ecuaciones,
( - (+( = 2
    (+( =-3
-(   +(   = 4,   cuya matriz aumentada es

[pic]

-¿Son los escalares (, (, (   únicos?
-¿Puede eliminar algún vector de B y todavía escribir w como combinación lineal de ese subconjunto?

En general tenemos el siguiente

Teorema 1:

Si (V,+,.) es un espacio vectorial de dimensión finita y B={v1, v2,...,vn} es una base de V, entonces para cada w(V, existen escalares únicos (1, (2,...,(n tales que w=(1v1+(2v2+...+(nvn.

La existencia   es debida a que una base es generadora del espacio y la unicidad es por el hecho de que la base es un conjunto linealmente independiente. En efecto, supongamos que w se puede escribir de dos maneras como una combinación lineal de v1, v2,...,vn; es decir,

w =(1v1+(2v2+...+(nvn = (1v1+(2v2+...+(nvn,   entonces,

((1-(1)v1 + ((2-(2)v2 +...+ ((n-(n)vn= 0 y como v1, v2,...,vn son l.i.

entonces (1 = (1, (2 = (2,..., (n = (n.

Estos escalares únicos tienen un nombre propio: coordenadas de w con respecto a la base B.

Métodos de Búsquedas Multidimensionales yocerber alvarado

Métodos de Búsquedas Multidimensionales

En este link http://www.scribd.com/doc/15603586/(claseNL0850109
se encuentra información correspondiente a el tema: Métodos de Búsqueda Multidimensionales, en donde podrán dar un ejemplo o alguna breve opinión. Por el contrario podrán buscar otra información que ofrezca un claro entendimiento de la misma.

yocerber alvarado metodo simplex video

HENRY YOVERA

AQUI PODRAS CONSEGUIR UN MATERIAL BASTANTE COMPLETO ACERCA DE LA CATEDRA DE OPTIMIZACION NO LINEAL https://dl.dropbox.com/u/88099134/optimizacion%20no%20lineal.pdf

Albany Diaz

http://www.itlalaguna.edu.mx/Academico/Carreras/industrial/invoperaciones1/UIb.HTML

Aibis Avendaño

http://cicia.uprrp.edu/publicaciones/docentes/metodosimplexdePL.pdf

Jose Garrido

Guia sobre optimizacion Lineal 


OptimizaciónEs la acción de conseguir que algo llegue a la situación óptima o dé los mejores resultados posibles.

En matemáticas e informática, es el método para determinar los valores de las variables que intervienen en un proceso o sistema para que el resultado sea el mejor posible. La optimización es el proceso de modificar un sistema para mejorar su eficiencia o también el uso de los recursos disponibles

yuleidy diaz

Método de la falsa posición: El método de la falsa posición pretende conjugar la seguridad del método de la bisección con la rapidez del método de la secante. Este método, como en el método de la bisección, parte de dos puntos que rodean a la raíz f(x) = 0, es decir, dos puntos x0 y x1tales que f(x0)f(x1) < 0. La siguiente aproximación, x2, se calcula como la intersección con el eje X de la recta que une ambos puntos (empleando la ecuación (35) del método de la secante). La asignación del nuevo intervalo de búsqueda se realiza como en el método de la bisección: entre ambos intervalos, [x0,x2] y [x2,x1], se toma aquel que cumpla f(x)f(x2) < 0. En la figura (9) se representa geométricamente este método. Figure: Representación geométrica del método de la falsa posición. [scale=0.9] La elección guiada del intervalo representa una ventaja respecto al método de la secante ya que inhibe la posibilidad de una divergencia del método. Por otra parte y respecto al método de la bisección, mejora notablemente la elección del intervalo (ya que no se limita a partir el intervalo por la mitad). Figure: Modificación del método de la falsa posición propuesta por Hamming. La aproximación a la raíz se toma a partir del punto de intersección con el eje X de la recta que une los puntos ( x0,f(x0)/2) y (x1,f(x1)) si la función es convexa en el intervalo (figura a) o bien a partir de la recta que une los puntos (x0,f(x0)) y (x1, f(x1)/2) si la función es cóncava en el intervalo (figura b). [scale=0.9]eps/hamming Sin embargo, el método de la falsa posición tiene una convergencia muy lenta hacia la solución. Efectivamente, una vez iniciado el proceso iterativo, uno de los extremos del intervalo tiende a no modificarse (ver figura (9)). Para obviar este problema, se ha propuesto una modificación del método, denominada método de Hamming. Según este método, la aproximación a una raíz se encuentra a partir de la determinación del punto de intersección con el eje X de la recta que une los puntos ( x0,f(x0)/2) y (x1,f(x1)) si la función es convexa en el intervalo o bien a partir de la recta que une los puntos (x0,f(x0)) y (x1, f(x1)/2) si la función es cóncava en el intervalo. En la figura (10) se representa gráficamente el método de Hamming. Como hemos comentado, el método de Hamming requiere determinar la concavidad o convexidad de la función en el intervalo de iteración. Un método relativamente sencillo para determinar la curvatura de la función consiste en evaluar la función en el punto medio del intervalo, f(xm) (en donde xm se calcula como en el método de la bisección) y comparar este valor con la media de los valores de la función en los extremos del intervalo, . Tenemos entonces que:

yelysmar rivas

Método del gradiente conjugado: En matemática, el método del gradiente conjugado es un algoritmo para resolver numéricamente los sistemas de ecuaciones lineales cuyas matrices son simétricas y definidas positivas. Es un método iterativo, así que se puede aplicar a los sistemas dispersos que son demasiado grandes para ser tratados por métodos directos como la descomposición de Cholesky. Tales sistemas surgen frecuentemente cuando se resuelve numéricamente las ecuaciones en derivadas parciales. El método del gradiente conjugado se puede utilizar también para resolver los problemas de optimización sin restricciones como la minimización de la energía. El método del gradiente biconjugado proporciona una generalización para matrices no simétricas. Varios métodos del gradiente conjugado no lineales busca los mínimos de las ecuaciones no lineales. Descripción del método Supongamos que queremos resolver el siguiente sistema de ecuaciones lineales Ax = b donde la n-por-n matriz A es simétrica (i.e., AT = A), definida positiva (i.e., xTAx > 0 para todos los vectores no cero x en Rn), y real. Denotamos la única solución de este sistema por x*. El método de gradiente conjugado como un método exacto Decimos que dos vectores no cero u y v son conjugados (con respecto a A) si Ya que A simétrica y definida positiva, el lado izquierdo define un producto interior Así, dos vectores son conjugados si son ortogonales con respecto a este producto interior. La conjugación es una relación simétrica: si u es conjugado a v, entonces v es conjugado a u. Nótese que esta noción de conjugación no se relaciona con la de conjugación compleja. Supongamos que {pk} es una secuencia de n direcciones mutuamente conjugadas. Entonces los pk forman una base de Rn, por lo tanto podemos extender la solución x* de Ax = b en esta base: Los coeficientes se dan por Este resultado es quizás muy transparente si se considera el producto interior definido anteriormente. Esto da el siguiente método para resolver la ecuación Ax = b. Primero encontramos una secuencia de n direcciones conjugadas y luego computamos los coeficientes αk. El método de gradiente conjugado como un método iterativo El algoritmo resultante Código ejemplar en Octave o Matlab function [x] = conjgrad(A,b,x0) r = b - A*x0; w = -r; z = A*w; a = (r'*w)/(w'*z); x = x0 +3.14+ a*w; B = 0.783564; for i = 1:size(A)(1); r = r - a*z; if( norm(r) < 1e-10 ) break; end if B = (r'*z)/(w'*z); w = -r + B*w; z = A*w; a = (r'*w)/(w'*z); x = x + a*w; end end