El método de los mínimos cuadrados con Despacito

stats con chris
2022-03-27
0

...

II. Metodología: el método de los mínimos cuadrados

Las ecuaciones diferenciales dadas en la introducción se resuelven de la siguiente forma. Para $m_d$ tenemos,

$$\begin{align} 0 &=\frac{\partial \xi}{\partial m_{d}}, \\ 0 &= \frac{\partial}{\partial m_{d}} \left( \sum_i^n (m_{d} x_i + b_{d} - y_i)^2 \right), \\ 0 &=\sum_i^n 2 (m_{d} x_i + b_{d} - y_i) \times x_i, \\ 0 &= m_d\sum_i^n x_i^2 + b_d\sum_i^n x_i - \sum_i^n y_i x_i. \tag{4} \end{align}$$

Similarmente, para $b_d$ tenemos,

$$\begin{align} 0&=\frac{\partial \xi}{\partial b_{d}}, \\ 0 &= \frac{\partial}{\partial b_{d}} \left( \sum_i^n (m_{d} x_i + b_{d} – y_i)^2 \right), \\ 0&=\sum_i^n 2 (m_{d} x_i + b_{d} – y_i), \\ 0&= m_d \sum_i^n x_i + b_{d} n – \sum_i^n y_i, \\ b_{d} &=\frac{ \sum_i^n y_i – m_d \sum_i^n x_i}{n}, \\ b_{d} \sum_i^n x_i &=\frac{ \sum_i^n y_i \sum_i^n x_i – m_d (\sum_i^n x_i)^2}{n}. \tag{5} \end{align}$$

Reemplazando (5) en (4) obtenemos,

$$\begin{align} 0&= m_d\sum_i^n x_i^2 + b_d\sum_i^n x_i – \sum_i^n y_i x_i, \\ 0&= m_d\sum_i^n x_i^2 + \frac{ \sum_i^n y_i \sum_i^n x_i – m_d (\sum_i^n x_i)^2}{n} – \sum_i^n y_i x_i, \\ 0 &= m_d n\sum_i^n x_i^2 + \sum_i^n y_i \sum_i^n x_i – m_d (\sum_i^n x_i)^2 – n \sum_i^n y_i x_i, \\ 0 &= m_d [n\sum_i^n x_i^2 – (\sum_i^n x_i)^2] + \sum_i^n y_i \sum_i^n x_i – n \sum_i^n y_i x_i, \\ m_d &= \frac{n \sum_i^n y_i x_i – \sum_i^n y_i \sum_i^n x_i}{n\sum_i^n x_i^2 – (\sum_i^n x_i)^2}. \tag 6 \end{align} $$

La ecuación (6) nos otorga el valor de $m_d$. Para obtener $b_d$, reemplazamos (6) en (5),

$$\begin{align} b_{d} &=\frac{ \sum_i^n y_i – m_d \sum_i^n x_i}{n}, \\ b_{d} n &=\sum_i^n y_i – \frac{n \sum_i^n y_i x_i – \sum_i^n y_i \sum_i^n x_i}{n\sum_i^n x_i^2 – (\sum_i^n x_i)^2} \sum_i^n x_i, \\ b_{d} n &=\sum_i^n y_i – \frac{n \sum_i^n y_i x_i \sum_i^n x_i – \sum_i^n y_i (\sum_i^n x_i)^2}{n\sum_i^n x_i^2 – (\sum_i^n x_i)^2},\\ b_{d} n &=\frac{\sum_i^n y_i (n\sum_i^n x_i^2 – (\sum_i^n x_i)^2) – (n \sum_i^n y_i x_i \sum_i^n x_i – \sum_i^n y_i (\sum_i^n x_i)^2)}{n\sum_i^n x_i^2 – (\sum_i^n x_i)^2},\\ b_{d} n &=\frac{n\sum_i^n y_i\sum_i^n x_i^2 – n \sum_i^n y_i x_i \sum_i^n x_i }{n\sum_i^n x_i^2 – (\sum_i^n x_i)^2},\\ b_{d} &=\frac{\sum_i^n y_i\sum_i^n x_i^2 – \sum_i^n y_i x_i \sum_i^n x_i }{n\sum_i^n x_i^2 – (\sum_i^n x_i)^2}. \tag 7 \end{align}$$

Consecuentemente, la ecuación de la recta lee,

$$\begin{align} y_{d} &= m_d x + b_d,\\ &=\frac{n \sum_i^n y_i x_i – \sum_i^n y_i \sum_i^n x_i}{n\sum_i^n x_i^2 – (\sum_i^n x_i)^2} x + \frac{\sum_i^n y_i\sum_i^n x_i^2 – \sum_i^n y_i x_i \sum_i^n x_i }{n\sum_i^n x_i^2 – (\sum_i^n x_i)^2}. \tag 8 \end{align}$$

En nuestro caso, para obtener los valores numéricos de $m_d$ y $b_d$, hacemos uso de los datos dados en la Tabla I, ver la página 2. La resolución aparece descrita en la siguiente página.

Vistas: 1 Github

stats con chris

Un escritor que aprendió a sumar

Un escritor que aprendió a sumar

Notificaciones

Recibe los nuevos artículos en tu correo electrónico

2022 © nepy

Un solo aliento

Configurar

Elige tu propio estilo

Color

Elige el modo que sea de tu agrado


Posición del Navegador

Elige el sistema de navegación


Estilo del Navegador

Elige el estilo del navegador vertical

Personalizar