MADP wyklad12, automatyka i robotyka, fizyka, metoda analizy danych pomiarowych

[ Pobierz całość w formacie PDF ]
DOPASOWANIE ZALEŻNOŚCI LINIOWEJ
DO WYNIKÓW POMIARÓW
DOPASOWANIE ZALEŻNOŚCI LINIOWEJ
DO WYNIKÓW POMIARÓW
Jednym z istotnych zagadnień analizy danych pomiarowych jest dopasowanie zależności
teoretycznej do wyników pomiarów. Dotyczy ono sytuacji, gdy dokonano serii pomiarów
n
par (
x
i
, y
i
) wielkości
x
i
y
, które są ze sobą powiązane zależnością
y = f(x,a
0
, a
1
,...,a
m
)
gdzie
a
0
,a
1
,...,a
m
to parametry tej zależności funkcyjnej. Na podstawie otrzymanych wyników
chcemy teraz oszacować (estymować) wartości parametrów
a
0
,a
1
,...,a
m
oraz niepewność tego
oszacowania. Oczywiście oszacowanie dotyczy tylko parametrów zależności funkcyjnej - jej
forma tzn. czy jest to zależność liniowa, wielomianowa czy też jeszcze inna jest przez
badacza zakładana np. na podstawie teorii opisującej badane zjawisko.
Najprostszym, a jednocześnie najczęściej spotykanym przypadkiem takiego zagadnienia jest
dopasowanie funkcji liniowej
y = a· x
+ b
Załóżmy, że przeprowadzono
n
pomiarów par (
x
i
, y
i
) gdzie i = 1, ...,
n
wielkości zależnych
od siebie liniowo. Każdy z pomiarów
y
i
cechuje rozrzut opisany rozkładem normalnym o
dyspersji
σ
yi
, natomiast pomiary
x
i
można uznać za dokładne (błędy tych pomiarów są na
tyle małe, że możemy je pominąć).
Naszym zadaniem jest znalezienie takich wartości parametrów a i b , aby otrzymana prosta
najlepiej pasowała do wyników pomiarów. W tym celu posłużymy się metodą największej
wiarygodności.
Dr Adam Michczyński - METODY ANALIZY DANYCH POMIAROWYCH 12
1
 Rozkład prawdopodobieństwa
y
i
jest rozkładem Gaussa, zatem prawdopodobieństwo
otrzymania w wyniku pomiaru wartości
y
i
opisuje wzór:
(

2

1
y

E
(
y
)
)


i
i
dp
(
y
)
=
f
(
y
,
σ

dy
=
exp

·
dy
i
i
yi
i
i
2
σ
·
2
π
2
σ


yi
yi
Wartość oczekiwaną
E
(
y
i
) można wyznaczyć na podstawie wartości
x
i
oraz zależności
pomiędzy
y
oraz
x
. Otrzymamy zatem
E
(
y
i
) =
a· x
i
+ b
a przedstawiony powyżej wzór przyjmie postać:

2

1
(
y

a
·
x

b
)


i
i
dp
(
y
)
=
f
(
y
,
σ
,
x

dy
=
exp

·
dy
i
i
yi
i
i
i
2
σ
·
2
π
2
σ


yi
yi
Prawdopodobieństwo otrzymania serii par wartości (
x
1
,
y
1
), ..., (
x
n
,
y
n
) jest zatem równe:

2

1
(
y

a
·
x

b
)
=
n
i


i
i
dP
(
y
,...,
y
,
x
,...,
x
)
=
exp

·
dy
1
n
1
n
i
2
σ
·
2
π
2
σ
1


yi
yi
Oznacza to, że funkcja wiarygodności będzie miała postać:

2

1
(
y

a
·
x

b
)
n


i
i
f
(
y
,...,
y
,
σ
,...,
σ
,
x
,...,
x
,
a
,
b
)
=
=
exp

1
n
y
1
yn
1
n
2
σ
·
2
π
2
σ
i
1


yi
yi
Dr Adam Michczyński - METODY ANALIZY DANYCH POMIAROWYCH 12
2
 Proste przekształcenia prowadzą do nieco innej postaci funkcji wiarygodności:

2

1
(
y

a
·
x

b
)
n


i
i
f
(
y
,...,
y
,
σ
,...,
σ
,
x
,...,
x
,
a
,
b
)
=
exp

=

1
n
y
1
yn
1
n
σ
·
2
π
2
σ


i
=
1
yi
yi

2

1
(
y

a
·
x

b
)
n
n


i
i
=

·

exp

=
2
σ
·
2
π
2
σ
i
=
1
i
=
1


yi
yi


2
1
1
(
y

a
·
x

b
)
n
n


i
i
=

·exp


2
σ
·
2
π
2
σ
i
=
1

i
=
1

yi
yi
Oznacza to, iż poszukiwanie maksimum funkcji wiarygodności z uwagi na parametry
a
i
b
jest równoznaczne z poszukiwaniem minimum funkcji
:
2
(
y

a
·
x

b
)
n
i
i
z
(
y
,...,
y
,
σ
,...,
σ
,
x
,...,
x
,
a
,
b
)
=
=
1
n
y
1
yn
1
n
2
σ
i
1
yi
Jak widać funkcja ta jest sumą kwadratów odległości pomiędzy wartościami
y
wyliczonymi
za pomocą założonej postaci zależności
y = a· x + b
, a wartościami
y
i
pochodzącymi z
pomiarów ważonych odwrotnością kwadratu dyspersji
σ
yi
.
Dlatego też przedstawiana metoda nazywana jest także
metodą najmniejszych kwadratów
.
Warto podkreślić, że funkcja z jest zmienną losową o rozkładzie
2
.
Dr Adam Michczyński - METODY ANALIZY DANYCH POMIAROWYCH 12
3
 Wzory oszacowujące najlepiej dopasowane do serii wyników pomiarów wartości
parametrów
a
i
b
znajdujemy zatem rozwiązując układ równań
:

z

z
=
0
=
0

a

b
W kolejnych przekształceniach otrzymamy:






z
n
1
n
1
1
1






2
=

2
(
y

ax

b
)

(

x
)
=

2


x
y

a


x

b


x
=
0

i
i
i
i
i
i
i
2
2
2
2

a
σ
σ
σ
σ





i
=
1
i
=
1
yi
yi
yi
yi






n
n

z
1
1
1
1







=

2
(
y

ax

b
)

(

1
=

2


y

a


x

b

=
0
i
i
i
i

2
2
2
2

b
σ
σ
σ
σ





i
=
1
i
=
1
yi
yi
yi
yi

n
1
n
1
n
1


2

(
x
y
)
a
(
x
)
b
(
x
)
0







=

i
i
i
i
2
2
2
σ
σ
σ
i
=
1
i
=
1
i
=
1

yi
yi
yi


n
n
n
1
1
1




(

y
)

a

(

x
)

b

(
)
=
0
i
i
2
2
2
σ
σ
σ


i
=
1
i
=
1
i
=
1
yi
yi
yi
n
n
n

Oznaczając
w
i
= 1/
2
a


(
w
x
)
+
b


(
w
x
)
=

(
w
x
y
)

i
i
i
i
i
i
i
σ
yi
2
możemy zapisać
:
i
=
1
i
=
1
i
=
1

n
n
n


a


(
w
x
)
+
b

∑∑
w
=
(
w
y
)

i
i
i
i
i
i
=
1
i
=
1
i
=
1
Dr Adam Michczyński - METODY ANALIZY DANYCH POMIAROWYCH 12
4
Wprowadźmy następujące oznaczenia dla sum występujących w równaniach:
n
n
n
n
n
2





S
=
w
x
y
S
=
w
x
S
=
w
x
S
=
w
y
S
=
w
wxy
i
i
i
wxx
i
i
wx
i
i
wy
i
i
w
i
i
=
1
i
=
1
i
=
1
i
=
1
i
=
1
Równania przedstawione na poprzednim slajdzie można wówczas zapisać:
a

S
+
b

S
=
S

wxx
wx
wxy

a

S
+
b

S
=
S

wx
w
wy
Rozwiązując powyższy układ otrzymamy następujące wzory na estymatory parametrów
a
i
b
:
S
S

S
S
wxy
w
wx
wy
a
=
2
S
S

S
wxx
w
wx
S
S

S
S
wxx
wy
wxy
wx
b
=
2
S
S

S
wxx
w
wx
Ponieważ estymatory
a
i
b
są funkcjami wyników pomiarów
y
1
, ...,
y
n
niepewność
wyznaczenia tych estymatorów możemy wyznaczyć korzystając z prawa propagacji
niepewności. Po odpowiednich obliczeniach otrzymamy:
S
w
u
(
a
)
=
2
S
S

S
wxx
w
wx
S
wxx
u
(
b
)
=
2
S
S

S
wxx
w
wx
Dr Adam Michczyński - METODY ANALIZY DANYCH POMIAROWYCH 12
5
[ Pobierz całość w formacie PDF ]

  • zanotowane.pl
  • doc.pisz.pl
  • pdf.pisz.pl
  • mement.xlx.pl