Jump to content

Informacioni i Fisherit

Nga Wikipedia, enciklopedia e lirë

Në statistikën matematikore, informacioni i Fisherit (nganjëherë i quajtur thjesht informacion [1] ) është një mënyrë për të matur sasinë e informacionit që një ndryshore e rastësishme e vëzhgueshme mbart për një parametër të panjohur të një shpërndarjeje që modelon . Formalisht, është varianca e rezultatit, ose pritja matematike e informacionit të vëzhguar .

Roli i informacionit të Fisherit në teorinë asimptotike të vlerësimit të përgjasisë maksimale u theksua nga statisticieni Ronald Fisher (pas disa rezultateve fillestare nga Francis Ysidro Edgeworth ). Matrica e informacionit Fisher përdoret për të llogaritur matricat e kovariancës të lidhura me vlerësimet e përgjasisë maksimale . Mund të përdoret gjithashtu në formulimin e statistikave të testimit, siç është testi Wald .

Sistemet statistikore të natyrës shkencore (fizike, biologjike, etj.) funksionet e përgjasisë të së cilave i binden invariancës së zhvendosjes, është treguar se i binden informacionit maksimal të Fisherit. [2] Niveli i maksimumit varet nga natyra e kufizimeve të sistemit.

Informacioni i Fisherit është një mënyrë për të matur sasinë e informacionit që një ndryshore e rastit e vëzhgueshme mbart një parametër të panjohur mbi të cilën probabiliteti i varet. Le të jetë funksioni i dendësisë së probabilitetit (ose funksioni i masës së probabilitetit ) për të kushtëzuara nga vlera e . Ai përshkruan probabilitetin që ne të vëzhgojmë një rezultat të caktuar , duke pasur parasysh një vlerë të njohur të . Nëse është me kulm të mprehtë në lidhje me ndryshimet në , është e lehtë të tregohet vlera "e saktë" e nga të dhënat, ose në mënyrë të njëvlershme, që e dhëna jep shumë informacion në lidhje me parametrin . Nëse është i sheshtë dhe i shtrirë, atëherë do të duheshin shumë popullime të për të vlerësuar vlerën e tanishme "të vërtetë" të do të përftoheshin duke përdorur të gjithë popullatën që po ekzaminohet. Kjo sugjeron studimin e një lloj variance në lidhje me .

Formalisht, derivati i pjesshëm në lidhje me i logaritmit natyror të funksionit të përgjasisë quhet pikë . Në kushte të caktuara rregullsie, nëse është parametri i vërtetë (d.m.th në fakt shpërndahet si ), mund të tregohet se vlera e pritur ( momenti i parë ) i rezultatit, e vlerësuar me vlerën e vërtetë të parametrit , është 0: [3]

Informacioni Fisher është përcaktuar të jetë varianca e rezultatit: [4]

Vini re se . Një ndryshore e rastit që përmban informacion të lartë Fisher nënkupton që vlera absolute e pikësimit/rezultatit është shpesh e lartë. Informacioni Fisher nuk është një funksion i një vëzhgimi të veçantë, pasi ndryshorja e rastit është vlerësuar mesatarisht.

Nëse është dy herë i diferencueshëm në lidhje me , dhe në kushte të caktuara rregullsie, atëherë informacioni i Fisherut mund të shkruhet gjithashtu si [5]

meqënëse

dhe

  1. ^ Lehmann & Casella, p. 115
  2. ^ Frieden & Gatenby (2013)
  3. ^ Suba Rao. "Lectures on statistical inference" (PDF). Arkivuar nga origjinali (PDF) më 26 shtator 2020. Marrë më 4 tetor 2023. {{cite web}}: Mungon ose është bosh parametri |language= (Ndihmë!)
  4. ^ Fisher (1922)
  5. ^ Lehmann & Casella, eq. (2.5.16), Lemma 5.3, p.116.