Mindste kvadraters metode: definition, regression og anvendelser

Lær mindste kvadraters metode: definition, regressionsanalyse og praktiske anvendelser — teori, historik og trin-for-trin eksempler til præcis datafit og fejlanalyse.

Forfatter: Leandro Alegsa

Mindre kvadrater er navnet på en procedure i matematik til at konstruere en funktion ud fra en række observerede værdier. Den grundlæggende idé er at konstruere funktionen på en sådan måde, at summen af forskellen mellem den observerede værdi og dens datapunkt minimeres. Da forskellen kan gå i begge retninger, kvadreres værdien af forskellen for hver værdi.

Carl Friedrich Gauss sagde, at han udviklede metoden i 1795. Han brugte den til at finde den forsvundne asteroide 1 Ceres og offentliggjorde den i 1807. Han brugte ideer fra Pierre-Simon Laplace. Adrien-Marie Legendre udviklede den samme metode uafhængigt af hinanden i 1805.

Hvad betyder metoden i praksis?

Begrebet kaldes oftere "mindste kvadraters metode" (eller bare "least squares" på engelsk). Formålet er at finde en funktion f(x) — ofte en linje i simpel lineær regression — der bedst beskriver sammenhængen mellem en forklarende variabel x og en observeret værdi y ved at minimere summen af kvadraterne af residualerne (forskellene mellem observerede og forudsagte værdier).

Matematisk formulering (lineær regression)

I den mest klassiske situation antager man en lineær model y = a + b x + ε, hvor ε er fejlleddet. Mindste kvadraters løsning for parametrene a (skæringspunkt) og b (hældning) findes ved at minimere S(a,b) = Σ (yi − (a + b xi))^2. For den simpleste to-parameter-model kan løsningen udtrykkes som:

  • hældning b = Σ (xi − x̄)(yi − ȳ) / Σ (xi − x̄)^2
  • skæringspunkt a = ȳ − b x̄

Her er x̄ og ȳ gennemsnittene af henholdsvis xi og yi. I matrixform for en generel lineær model fås den lukkede formel β = (X'X)^{-1} X'y, hvor X er designmatricen og β vektoren af parametre.

Antagelser og egenskaber

  • Lineær struktur: modellen antager, at forventningen E[y|x] er en lineær funktion af parametrene.
  • Uafhængighed: fejlleddene ε antages ofte uafhængige.
  • Homoskedasticitet: konstant varians i fejlleddene (σ^2) for alle observationer.
  • Normalitet (ved inferens): hvis fejlleddene er normalt fordelt kan man bruge t- og F-test for hypoteser og konfidensintervaller.
  • Unikke løsninger: for lineære modeller kræves at X'X er invertibel (ingen perfekt multikolinearitet).

Varianter og generaliseringer

  • Vægtet mindste kvadrater (WLS): bruges når forskellige observationer har forskellig varians; hver residual vægtes omvendt proportionalt med sin varians.
  • Ikke-lineær mindste kvadrater: modeller hvor parametrene indgår ikke-lineært; estimeres typisk med iterative algoritmer (fx Gauss–Newton, Levenberg–Marquardt).
  • Robuste metoder: for at begrænse indflydelsen af outliers anvendes alternative kriterier (fx least absolute deviations eller M-estimators).
  • Maksimum-likelihood: hvis fejlfordelingen kendes, svarer mindste kvadraters løsning ofte til maksimum-likelihood-estimatoren (fx Gaussian støj).

Beregningsaspekter

Direkte inversion af X'X kan være numerisk ustabil; stabile metoder inkluderer QR-faktorisering eller singulærværdidekomposition (SVD). Moderne softwarepakker bruger disse teknikker for at undgå fejl og for at håndtere kollinearitet i designmatricen.

Anvendelser

Mindste kvadraters metode er meget udbredt i både teoretiske og praktiske sammenhænge, bl.a.:

  • Økonomi og finans — estimering af sammenhænge mellem variable og forecasting.
  • Ingeniørvidenskab — kalibrering af måleinstrumenter og signalbehandling.
  • Fysik og astronomi — bane- og parameterestimering (historisk bl.a. Gauss' anvendelse til 1 Ceres).
  • Samfundsvidenskab — regressionsanalyse for at teste hypoteser om kausale eller associerede forhold.
  • Maskinlæring — lineære modeller, ridge/lasso-regulering og som grundlæggende byggesten i mere komplekse teknikker.

Praktisk eksempel

Hvis du har datapunkter (xi, yi), kan du hurtigt beregne parametrene ved først at finde x̄ og ȳ, derefter beregne summationerne i formlerne for b og a. De fleste statistikprogrammer (R, Python/pandas/statsmodels, MATLAB) har indbyggede funktioner til både estimation og diagnostik (residualplot, R^2, p-værdier osv.).

Opsummering

Mindste kvadraters metode er en fundamentalt vigtig procedure til at tilpasse modeller til data ved at minimere summen af kvadrerede afvigelser. Metoden er let at forstå i den lineære form, men har også mange udvidelser (vægtede, ikke-lineære, robuste) og spiller en central rolle i dataanalyse, modellering og numerisk beregning.

Relaterede sider

  • Almindelige mindste kvadrater





Søge
AlegsaOnline.com - 2020 / 2025 - License CC3