Descripción
MÉTODOS CERRADOS.
Este capítulo sobre raíces de ecuaciones se ocupa de métodos que aprovechan el hecho de que una función cambia de signo en la vecindad de una raíz. A estas técnicas se les llama métodos cerrados o de intervalos, porque se necesita de dos valores iniciales para la raíz. Como su nombre lo indica, dichos valores iniciales deben “encerrar”, o estar a ambos lados de la raíz. Los métodos particulares descritos aquí emplean diferentes estrategias para reducir sistemáticamente el tamaño del intervalo y así converger a la respuesta correcta.
MÉTODO DE BISECCIÓN.
Requisitos para la aplicación del método de bisección.
Para la aplicación del método de bisección, debe disponerse de:
a) La ecuación a resolver, la cual conduce a la función f (x) = 0.
b) Un intervalo [ a , b ] que contenga a la raíz de la ecuación, para lo cual es necesario que la función evaluada en los extremos del intervalo tenga signos diferentes, esto es
f (a) × f (b) < 0.
c) Un mecanismo de paro[1], que puede ser el número de iteraciones o la cota de error. El procedimiento de paro más común es el de dar un número máximo de iteraciones N. Cuando usamos un computador para generar las aproximaciones, conviene añadir una condición que imponga un máximo al número de iteraciones realizadas. Así se elimina la posibilidad de poner a la máquina en un ciclo infinito, una posibilidad que puede surgir cuando la sucesión diverge (y también cuando el programa está codificado incorrectamente).
Esto se hace fácilmente dando una cota inicial N y requiriendo que el procedimiento termine si se supera esa cota.
Otros procedimientos de paro que se pueden aplicar a cualquier técnica iterativa son los de dar una tolerancia TOL > 0 y generar una sucesión f (a) hasta que una de las siguientes condiciones se satisfaga:
| xi – xi–1 | < TOL (1)
\(\displaystyle \frac{|x_i-x_{i-1}|}{|x_i|}<TOL\) (2)
| f (xi ) | < TOL (3)
Desafortunadamente, pueden surgir dificultades usando cualquiera de estos criterios de paro. Existen sucesiones { xi } con la propiedad de que las diferencias xi – xi–1 convergen a cero mientras que la sucesión misma diverge. Es posible también que f (xi) esté cerca de cero mientras que xi difiere significativamente de p. Sin conocimiento adicional de f o p, la desigualdad (2) es el mejor criterio de paro que puede aplicarse porque verifica el error relativo.
El método de bisección se realiza con los siguientes pasos:
i) Definir f (x). Debe tenerse en cuenta que la función a la cual se le determinarán las raíces debe ser continua en el intervalo [ a , b ] y contener sólo una raíz en dicho intervalo.
ii) Encontrar el intervalo [ a , b ] tales que f (a) y f (b) tienen signos opuestos, es decir,
f (a) × f (b) < 0.
iii) La primera aproximación a la raíz se toma igual al punto medio entre a y b. La fórmula iterativa del método es:
\(\displaystyle x_i=\frac{a+b}{2}\) (4)
donde el intervalo [ a , b ] que contiene a la raíz se redefine en cada iteración dependiendo del signo que adopta la función en xi, esto es, dependiendo del signo de f (xi).
iv) Evaluar f (xi). Forzosamente debemos caer en uno de los siguientes casos:
f (a) × f (xi) < 0: En este caso, tenemos que f (a) y f (xi) tienen signos opuestos, y por lo tanto la raíz se encuentra en el intervalo [ a , xi ].
f (a) × f (xi) > 0: En este caso, tenemos que f (a) y f (xi) tienen el mismo signo, y de aquí que f (xi) y f (b) tienen signos opuestos. Por lo tanto, la raíz se encuentra en el intervalo [ xi , b ].
f (a) × f (xi) = 0: En este caso se tiene que f (xi) = 0 y por lo tanto ya localizamos la raíz.
El proceso se vuelve a repetir con el nuevo intervalo, hasta que se complete el número de iteraciones indicadas ó el error relativo porcentual de aproximación sea menor que una tolerancia porcentual prefijada εs:
εa < εs (5)
donde el error relativo porcentual de aproximación se determina mediante la ecuación:
\(\displaystyle \epsilon_a=\bigg\vert \frac{\text{Aproximación actual}-\text{Aproximación anterior}}{\text{Aproximación actual}}\bigg\vert\times 100\) (6)
O, en forma equivalente:
\(\displaystyle \epsilon_a=\bigg\vert \frac{x_i-x_{i-1}}{x_i}\bigg\vert\times 100\) (7)
Si se cumple la relación (5), entonces se considera que el resultado obtenido está dentro del nivel aceptable fijado previamente εs.
Es conveniente también relacionar estos errores con el número de cifras significativas en la aproximación. Es posible demostrar (Scarborough, 1966) que si el siguiente criterio se cumple, se tendrá la seguridad que el resultado es correcto en al menos n cifras significativas:
εs = (0.5×102–n) % (8)
de donde, la cantidad de cifras significativas en la aproximación es:
n = 2 – log10 (2 εs) (9)
Cuando se conoce el valor verdadero de la raíz de la ecuación, el error relativo porcentual verdadero se determina con la ecuación
\(\displaystyle \epsilon_t=\bigg\vert \frac{\text{Valor verdadero}-\text{Valor aproximado}}{\text{Valor verdadero}}\bigg\vert\times 100\) (10)
Algoritmo del método de bisección.
Para encontrar una solución de f (x) = 0 dada la función continua f en el intervalo [ a , b ] donde f (a) y f (b) tienen signos opuestos:
ENTRADA: Extremos a, b; Tolerancia TOL; máximo número de iteraciones N.
SALIDA: Solución aproximada p o mensaje de fracaso.
Paso 1. Tomar i = 1.
Paso 2. Mientras que i ≤ N, seguir Pasos 3 – 6.
Paso 3. Tomar \(\displaystyle x_i=\frac{a+b}{2}\). (Calcular xi).
Paso 4. Determinar f (xi). Si f (xi) = 0 ó \(\displaystyle \frac{b-a}{2}<TOL\) entonces
SALIDA (xi); (Procedimiento completado satisfactoriamente)
PARAR.
Paso 5. Si f (a) × f (xi) > 0, entonces tomar a = xi (Calcular ai, bi).
si no, tomar b = xi.
Paso 6. Tomar i = i + 1.
Paso 7. SALIDA (“El método fracasó después de N iteraciones”); (Procedimiento completado sin éxito).
PARAR.
Número de iteraciones.
En el caso del método de bisección, es posible determinar el número de iteraciones requeridas para un error absoluto preestablecido.
Si el error absoluto sugerido es εs, entonces al aplicar el método de bisección n veces:
\(\displaystyle \frac{b-a}{2^n}\leq\epsilon_s\), n ≥ 1
\(\displaystyle \frac{2^n}{b-a}\geq\frac{1}{\epsilon_s}\)
\(\displaystyle 2^n\geq\frac{b-a}{\epsilon_s}\)
\(\displaystyle n\ln2\geq\ln\left(\frac{b-a}{\epsilon_s}\right)\)
\(\displaystyle n\geq\frac{\ln\left(\frac{b-a}{\epsilon_s}\right)}{\ln2}\) (11)
Es importante notar que ésta fórmula da solamente una cota para el número de iteraciones necesarias, y en muchos casos esta cota es mucho más grande que el número realmente requerido.
[1] El método se detiene si uno de los puntos medios del intervalo coincide con la raíz.