viernes, 6 de abril de 2018

UNIDAD 1




INDICE
1.-Introducción
2.-Definición de métodos numéricos
     2.1.- Aproximación y errores
     2.2.- Exactitud
     2.3.-Precisión
     2.4.- Incertidumbre
      2.4.1.- Sesgo
    2.5.-Errores humanos
    2.6.- Serie de Taylor
3-. Conceptos básicos
    3.1.- Algoritmos
    3.2.- Aproximaciones
4.- Tipos de errores
    4.1.- Error absoluto
    4.2.- Error relativo
    4.3.- Error porcentual
    4.4.- Errores de redondeo
    4.5.- Error de truncamiento
5.- convergencia
6.- programas computacionales
7.- conclusión
8.- bibliografía



1.INTRODUCCIÓN
Los métodos numéricos son procedimientos lógicos que se realizan a partir de los problemas planteados matemáticamente y de manera aritmética.
Son herramientas poderosas que se usan en la formulación de problemas complejos que requieren un conocimiento básico en matemáticas e ingeniería.
A medida que avanzamos a un nivel profesional encontramos las matemáticas más complejas desde una perspectiva real, es decir los problemas que se plantean en la vida cotidiana, sobre todo en ingeniería que abarca como un plano principal del contenido matemático y aritmético para la solución de problemas planteados.
Nosotros como futuros ingenieros tenemos que encontrar una solución a los problemas la cual tiene que ser eficiente, aplicando teoría y práctica aprendida.
En el trabajo a continuación, se plantea de manera sencilla los conceptos básicos para comprender más el curso de métodos numéricos y lograr resolver problemas que se nos presenten de manera práctica.

OBJETIVO
Investigar los conceptos básicos de los métodos numéricos, el significado de la teoría del error, su tipología y su valoración. Además, determinar y manejar los conceptos de precisión, exactitud y cifras significativas.




2. Definición de métodos numéricos
Los métodos numéricos son técnicas mediante las cuales es posible formular problemas matemáticos de tal forma que puedan resolverse usando operaciones aritméticas.
Los métodos numéricos nos vuelven aptos para entender esquemas numéricos a fin de resolver problemas matemáticos, de ingeniería y científicos en una computadora, reducir esquemas numéricos básicos, escribir programas y resolverlos en una computadora y usar correctamente el software existente para dichos métodos y no solo aumenta nuestra habilidad para el uso de computadoras, sino que también amplia la pericia matemática y la comprensión de los principios científicos básicos.
La importancia de los métodos numéricos no radica en buscar la solución exacta de un problema, sino la aproximada, pero con la precisión requerida, o sea, con un error lo suficientemente pequeño y próximo a cero, de ahí la utilidad de los métodos numéricos
Los métodos numéricos pueden ser aplicados para resolver procedimientos matemáticos en:
·         Cálculo de derivadas
·         Integrales
·         Ecuaciones diferenciales
·         Operaciones con matrices
·         Interpolaciones
·         Ajuste de curvas
·         Polinomios



Los métodos numéricos son adecuados para la solución de problemas comunes de ingeniería, ciencias y administración, utilizando computadoras electrónicas.

2.1  Aproximación y errores
·         Aproximación es el proceso y la consecuencia de aproximar: avecinar, arrimar o acercar.
·         Error es algo equivocado o desacertado. Puede ser una acción, un concepto o una cosa que no se realizó de manera correcta.


2.2 Exactitud
Exactitud es la cualidad de ajustarse a la cercanía que los resultados medidos tienen con respecto al valor de referencia, denominada valor real.






2.3 Precisión
La precisión se define como el grado de coincidencia existente entre los resultados independientes de una medición, obtenidos en condiciones estipuladas, ya sea de repetitividad, de reproducibilidad o intermedias.






2.4 Incertidumbre
Se refiere al grado de alejamiento entre sí, a las diversas aproximaciones a un valor verdadero. La incertidumbre puede derivarse de una falta de información o incluso por que exista desacuerdo sobre lo que se sabe o lo que podría saberse. Puede tener varios tipos de origen, desde errores cuantificables en los datos hasta terminología definida de forma ambigua o previsiones inciertas del comportamiento humano. La incertidumbre puede, por lo tanto, ser representada por medidas cuantitativas (por ejemplo, un rango de valores calculados según distintos modelos) o por afirmaciones cualitativas (por ejemplo, al reflejar el juicio de un grupo de expertos).





2.4.1 Sesgo
Es un alejamiento sistemático del valor verdadero a calcular. Así como el error, de acuerdo con las formas por las cuales se produce, puede minimizarse, la ocurrencia de sesgo también puede ser neutralizada o controlada. En ocasiones, sin embargo, es imposible controlar el sesgo y por cierto el error. En tales circunstancias conviene al menos estar en antecedente y tener conciencia de su existencia.

2.5 Errores humanos
Son los errores por negligencia o equivocación. Las computadoras pueden dar números erróneos por su funcionamiento. Actualmente las computadoras son muy exactas y el error es atribuido a los hombres. Se pueden evitar con un buen conocimiento de los principios fundamentales y con la posesión de métodos y el diseño de la solución del problema. Los errores humanos por negligencia son prácticamente inevitables, pero se pueden minimizar.

Tipos de errores humanos:
• Lectura
• Transmisión
• Transcripción
• Programación

2.6 Serie de Taylor
La serie de Taylor es una serie funcional y surge de una ecuación en la cual se puede encontrar una solución aproximada a una función. El valor práctico de las series de Taylor radica en el uso de un número finito de términos que darán una aproximación lo suficientemente cercana a la solución verdadera para propósitos prácticos.
Pueden resolver por aproximación: Funciones trigonométricas, exponenciales, logarítmicas etc.

La serie de Taylor se basa en ir haciendo operaciones según una ecuación general y mientras más operaciones tenga la serie más exacto será el resultado que se está buscando. Dicha ecuación es la siguiente:


3. Conceptos básicos

3.1 Algoritmos
Se denomina algoritmo a un grupo finito de operaciones organizadas de manera lógica y ordenada que permite solucionar un determinado problema. Se trata de una serie de instrucciones o reglas establecidas que, por medio de una sucesión de pasos, permiten arribar a un resultado o solución.


3.2 Aproximaciones
Representaciones inexactas de algo que es suficientemente cercana para resultar de utilidad.





4. Tipos de errores
Un error es una incertidumbre en el resultado de una medida. Se define como la diferencia entre el valor real Vr y una aproximación a este valor Va:
E = Vr – Va
Existen diferentes tipos errores, cada uno se puede expresar en forma absoluta o en forma relativa.


4.1 Error absoluto
Es la diferencia entre el valor exacto (un número determinado, por ejemplo) y su valor calculado o redondeado:
Error absoluto = [exacto - calculado]

Debido a que la definición se dio en términos del valor absoluto, el error absoluto no es negativo. Así pues, una colección (suma) de errores siempre se incrementan juntos, sin reducirse. Este es un hecho muy pesimista, dado que el redondeo y otros errores rara vez están en la misma dirección, es posible que una suma ("algebraica") de errores sea cero, con aproximadamente la mitad de los errores positiva y la otra mitad negativa. Pero también es demasiado optimista esperar que errores con signo sumen cero a menudo. Un enfoque realista es suponer que los errores, en especial el redondeo, están estadísticamente distribuidos.


4.2 Error relativo
Es el error absoluto dividido entre un número positivo adecuado. Generalmente, el divisor es una de tres elecciones: la magnitud del valor exacto, la magnitud del valor calculado (o redondeado) o el promedio de estas dos cantidades. La mayor parte de las veces utilizaremos
Error relativo= [exacto - calculado]/[exacto]

El error relativo es una mejor medida del error que el error absoluto, en especial cuando se utilizan sistemas numéricos de punto flotante. Puesto que los elementos de un sistema de punto flotante no están distribuidos de manera uniforme, la cantidad de redondeos posibles depende de la magnitud de los números que se redondean. El denominador de la ecuación de arriba compensa este efecto.

4.3 error porcentual
El error porcentual es la manifestación de un error relativo en términos porcentuales. En otras palabras, es un error numérico expresado por el valor que arroja un error relativo, posteriormente multiplicado por 100

ERP   =   ER   x  100


4.4 Errores de redondeo
Error de redondeo:
Se originan al realizar los cálculos que todo método numérico o analítico requieren y son debidos a la imposibilidad de tomar todas las cifras que resultan de operaciones aritméticas como los productos y los cocientes, teniendo que retener en cada operación el número de cifras que permita el instrumento de cálculo que se este utilizando.
Existen dos tipos de errores de redondeo:
* Error de redondeo inferior: se desprecian los dígitos que no se pueden conservar dentro de la memoria correspondiente.
* Error de redondeo superior: este caso tiene dos alternativas según el signo del número en particular:
para números positivos, el último dígito que se puede conservar en la localización de memoria incrementa en una unidad si el primer dígito despreciado es mayor o igual a 5.
para números negativos, el último dígito que se puede conservar en la localización de la memoria se reduce en una unidad si el primer dígito despreciado es mayor o igual a 5.






4.5 Error de truncamiento

Existen muchos procesos que requieren la ejecución de un número infinito de instrucciones para hallar la solución exacta de un determinado problema. Puesto que es totalmente imposible realizar infinitas instrucciones, el proceso debe truncarse. En consecuencia, no se halla la solución exacta que se pretendía encontrar, sino una aproximación a la misma. Al error producido por la finalización prematura de un proceso se le denomina error de truncamiento. Un ejemplo del error generado por este tipo de acciones es el desarrollo en serie de Taylor. Este es independiente de la manera de realizar los cálculos. Solo depende del método numérico empleado.


5. Convergencia

Se entiende por convergencia de un método numérico la garantía de que, al realizar un buen número de repeticiones (iteraciones), las aproximaciones obtenidas terminan por acercarse cada vez más al verdadero valor buscado.
En la medida en la que un método numérico requiera de un menor número de iteracciones que otro, para acercarse al valor numérico deseado, se dice que tiene una mayor rapidez de convergencia.
Se entiende por estabilidad de un método numérico el nivel de garantía de convergencia, y es que algunos métodos numéricos no siempre convergen y, por el contrario divergen; es decir, se alejan cada vez más y más del resultado deseado.

6. Programas computacionales

Los métodos numéricos son técnicas algorítmicas basadas en operaciones aritméticas simples para la solución de problemas matemáticos . podríamos decir en general que.

Métodos numéricos = matemáticas + computación

Por esta razón se han desarrollado varios softwares para su aplicación
Entre los sistemas de acceso libre orientados al software numérico se podemos incluir:
Axiom: sistema de álgebra computacional (con MathAction).
Calc3D: software para cálculo y traficación orientado a geometría y estadística.
EULER: poderoso laboratorio de computación numérica (con Yacas).
FreeMat: Colección de funciones básicas para matemáticas.
GnuPlot: Excelente graficador de dominio público (no GNU).
Jacal: Sistema de álgebra computacional basado en Scheme.
Mathscribe: herramientas para mentes científicas.
NonEuclid: software interactivo en Java para geometría hiperbólica.
Octave: excelente sistema afin a MATLAB.
PyLab: una colección de funciones para cálculo numérico y visualización. Basado en Python.
RLab: laboratorio para computación numérica.
Sage: Sistema integrador de gran potencia y versatilidad que incluye otros paquetes matemáticos Open Source de alta calidad.
Scilab: uno de los paquetes de computación numérica y científica más importantes y exitosos (desarrollado en el instituto francés INRIA).
Singular: un sistema de álgebra computacional para computación con polinomios.
Surf: software para visualización de geometría algebraica real.
Winplot: un programa sencillo pero muy versátil para graficar funciones matemáticas.
wxMaxima: un paquete clásico para matemáticas numéricas y computación simbólica. Sistema basado en Lisp.
Entre los sistemas más relevantes tenemos:
Derive: Sistema shareware para cómputo numérico y simbólico.
LabView: Plataforma de cómputo numérico y simulación con énfasis en sistemas electrónicos empotrados, de gran importancia en la industria.
MAPLE: Sistema preferido en ambientes académicos y cuyo núcleo de procesamiento simbólico se incorpora en otros sistemas comerciales.
MathCAD: Editor de documentos que integra valiosas capacidades de cómputo numérico y de visualización.
Mathematica: Sofisticado y muy exitoso sistema de cómputo numérico y simbólico, con grandes capacidades de visualización.
MATLAB: Abreviación de “MATrix LABoratory”, este es el sistema estándar en aplicaciones de ingeniería 


CONCLUSIÓN

Gracias a los métodos numéricos podemos ser precisos y exactos en nuestros cálculos. En ingeniería la exactitud se define a partir del valor real y precisión a partir de un conjunto numerario aproximado entre sí tenemos en cuenta el error en un número y las cifras significativas a partir de este conocimiento podemos desarrollar e implementar software personalizados y además de ello, modificar el cálculo de error con el que trabajemos. Las cifras significativas se vuelven relevantes a partir del dato que necesitemos, los errores, a su vez, son tan importantes de manera que afecta el resultado de nuestro análisis, así que tenemos en cuenta la valorización de ellos para un resultado con cifras significativas deseadas. El ingeniero implementa los métodos numéricos para perfección y optimización de sus proyectos los cuales se convierten en parte esenciales para nuestros cálculos ya que de ellos depende el éxito de nuestro resultado y análisis aplicado a la formulación de problemas.

BIBLIOGRAFIA
(www.itescam.edu.mx).
http://1bioquimica04.blogspot.mx/2008/02/teora-de-errores.html
https://sites.google.com/site/metnumvmc/unidad-i-2
http://www.tonahtiu.com/notas/metodos/serie_taylor.htm
http://www.uv.es/vimonmas/mneq/fitxers/T01G06.doc
Métodos numéricos. Introducción, aplicaciones y propagación. Antonio Huerta Cerezuelo, Barcelona, 1998, págs. 72-77.
http://www.esimeazc.ipn.mx/MatDesc/Licenciatura/METODOSNUMERICOS/Metodos/Intro.htm

No hay comentarios:

Publicar un comentario