Forum der Universität Trier > Fachbereich IV > Soziologie
Empirische Sozialforschung I Zusammenfassung
Seite 1 / 1
Empirische Sozialforschung I Zusammenfassung
02/24/2011 6:44 pm

NEWBIE


Anmeldung: 02 / 24 / 2011
Themen: 3
Beiträge: 0
OFFLINE
Zusammenfassung Empirie


1.Einführung:

Sozialberichterstattung
Ausweitung und Ergänzung der volkswirtschaftlichen Gesamtrechnung
durch ein umfassendes System von Indikatoren.Die gesellschaftliche Sozialberichterstattung soll mittels verbesserter ökonomischer Indikatoren
sowie subjektiver und sozialer Indikatoren umfassende, gesellschaftliche Zustands- und  Entwicklungsinformationen liefern und politische Entscheidungen fundieren.

Indikatoren:
Statistische Messzahlen zur Abbildung z.B. der Sozialstruktur, damit verbundener sozialer Probleme - soziale Ungleichheit bei Einkommen, Bildungs- oder Erwerbsbeteiligung - sowie über deren regionale Unterschiede oder Entwicklungen in der Zeit. Ein Indikator ist nicht zu verwechseln mit dem eigentlich interessierenden Phänomen, sondern verweist nur auf dessen Existenz. Soziale Ungleichheit ist als theoretisches Konstrukt der direkten Beobachtung entzogen. Indikatoren stehen niemals für sich selbst und liefern keine objektiven „Beweise“ Bedeutung gewinnen Indikatoren erst, wenn sie interpretiert werden.

Wissenschaft:
Sammelbezeichnung für bestimmte Vorgehensweisen, mit denen
zuverlässig und auf rationaler Basis Probleme gelöst werden und
die zu Erkenntnisfortschritten führen sollen.
Kriterien: Intersubjektivität,Systematik und Kontrolle

Charakteristika:
-Systemspezifische Begriffe von Objektivität und Wahrheit
-Fachspezifität
-Organisation von Wissen in fachbezogenen, ausformulierten Theorien
-Falsifikationsprinzip (umstritten)
-Abstraktion von erkennenden Subjekten (umstritten)
-Wertfreiheit (umstritten)

Wissenschaftliche Arbeitsprinzipien:
-Verallgemeinerung: Interesse an allgemeinen Sachverhalten. Einzelfälle als Illustration,
Beispiel, Anwendungsfall usw.
-Abstraktion: Reduktion der Vielfalt empirischer Objekte und Relationen auf als
zentral angesehene grundlegende (idealtypische) Eigenschaften
-Definition: Eingrenzung des Gegenstandsbereichs, Präzisierung von Begriffen
-Symbolisierung: Abkürzung der Kommunikation

Methoden:
Auswahlverfahren, standardisierte Beobachtungs- und Befragungsverfahren, Sekundäranalysen, Experimente, Datenanalyseverfahren

Wissenschaftliches Wissen:
theoretisch begründetes und durch systematische Forschung
gesichertes Wissenk

Einteilung von Wissenschaften:
-Formalwissenschaften (handelt von beliebigen Kalkülen,interne Wahrheit,Bsp.: Mathematik)
-Realwissenschaften(handelt von Realitätsphänomenen,externeWahrheit=Realität,Bsp:Naturwissenschaften)
2.Forschungsprozess:
Planungsphase:
- Themenfindung und Konkretisierung einer Forschungsfrage (Erhebungsdesign)
- Aneignung von theoretischem Wissen mithilfe von Literatur
- Entscheidungen darüber wie die Forschung grob aussehen soll
- Zusammenstellen einer Forschungsgruppe,Erstellen eines Arbeitsplanes,Beschaffung von   erforderlichen Arbeitsmaterialien
Forschungsphase:
- Festlegung eines Untersuchungdesigns -> Umsetzung der theoretischen Konstrukte in die Praxis und Beschaffung der dazu notwendigen Messinstrumente
- Erstellen des Fragebogens und Festelegung auf dessen Aussehen und weiterer Verwendungszwecke
- Pretests und Modifizierung des Fragebogens mithilfe von Feldarbeit
- Durchführung der Befragung, Vorbereitung der Analyse und Bericht schreiben
- Verkoden der Daten und statistische Aufbereitung der Ergebnisse
Präsentationsphase:
- Darstellung und Präsentation der Ergebnisse in Form von Voträgen oder Publikationen
- Gegenenfalls Anschlussforschungen planen
Forschungsarten:
Explorative Forschung:
erster Einblick in ein bislang nicht/kaum untersuchtes Gebiet
Methoden: Beobachtung, offene Interviews, Leitfadeninterviews
Deskriptive Forschung:
Möglichst umfassende Beschreibung eines klar definierten
Untersuchungsbereiches mit ebenso klar definierter Grundgesamtheit
und Stichprobe
Methoden: standardisierte Beobachtungs- und Befragungsverfahren,
Sekundäranalysen
Hypothesentestende Forschung:
Systematische Untersuchung von vorab formulierten Hypothesen.
Spezialfall:
Kausalanalytische Forschung:
Überprüfung von vermuteten Ursache-Wirkungszusammenhängen
Prognostische Forschung:
möglichst fundierte Aussagen über zukünftige Entwicklungen.
Typen: Survey-Forschung mit prospektiven Fragen, Trendextrapolationen
Evaluative Forschung:
wissenschaftliche Begleitung und Bewertung bestimmter
Programme, etwa zur Wirksamkeit von Kampagnen gesundheitlicher Aufklärung

Kriterien für Forschungsberichte:

1.     Detaillierte Darstellung des Erhebungsdesigns (Grundgesamtheit oder Stichprobe?Ziehungsverfahren,Stichprobenumfang,Gewichtungsfaktoren,Feldzeiten,Methodenbericht)
2.     Genaue Dokumentation der Messinstrumente
3.     Darstellung der Ergebnisse unter Angabe von Häufigkeitsverteilung aller Merkmale,
Instrumententests und Datenmodifikationen, statistischen Messzahlen und eindeutigen Tabellen und Abbildungen



3.Wissenschaftssprache

In der Wissenschaft muss eine einheitliche Sprachregelung unter Verwendung von Begriffen, Definitionen, Typologien sowie Klassifikationssystemen, Hypothesen und Theorien verwendet werden um die Objektivität und Intersubjektivität zu gewährleisten.
Einem bestimmten Objekt (Designata) muss ein Wort zugeordnet werden.  alles dient der Erklärung der Realität.

Sprache:
Symbolsystem zur Steuerung von Interaktion. Durch Verwendung von
Sprachsymbolen wird Kommunikation auch unabhängig von unmittelbaren
Interaktionssituationen, in denen sowohl Akteure als auch
die Objekte von Kommunikation und Handlung präsent sind, möglich.

Begriff:
Vorstellungsinhalt. Assoziationen, die mit bestimmten Designata verbunden werden.
Problem: Synonyme, Komplexe Designata führen zu Vielzahl an Vorstellungsinhalten.
Zur Vermeidung von diesen Problemen müssen Begriffe klar definiert werden.

Terminus:
Fachwort, dem eindeutige Vorstellungsinhalte (=Intension) und
eindeutig identifizierbare Designata (=Extension) zugeordnet
wurden

Kriterien wissenschaftlicher Begriffe:
-  Präzision: Alle Personen, die die Bedeutung des Begriffes kennen, können bei jedem
beliebigen Ereignis entscheiden, ob es zu den Designata des Begriffs
gehört oder nicht.
-  Konsistenz: Eindeutigkeit. Autoren selber, aber auch alle anderen Personen verwenden
den Begriff stets in der genau gleichen Weise.

Nominaldefinition:
Zuordnungsvorschrift. Einem, bisher unbekannten oder sinnlosen Zeichen wird eine Kombination bekannter Zeichen (d.h. Zeichen, die bereits mit einem eindeutigen Bedeutungsinhalt verknüpft sind) zugeordnet.
-> synonymische Umformungen,Konvention/Sprachregelrungen,Normierung von Sprache,Vereinfachung der Kommunikation durch Abkürung,weder wahr noch falsch
Bestandteile: - Definiendum: das zu defnierende Zeichen,der neue Begriff
                      - Definiens: Kombination bekannter Begriffe
Regeln: -keine Zirkeldefinition,keine unpräzisen oder mehrdeutigen Aussagen,keine  Definition durch Beispiele, keine Negativdefinition
Probleme: - definitorischer Regress
                  - faktische Kraft des Normativen


Begriffsexplikation:
Verfahren zur Präzisierung bereits existenter Begriffe (aus der Alltagssprache oder anderen wissenschaftlichen Arbeiten).
Bestandteile: - Explikandum: der als unpräzise angesehene Begriff
                      - Explikat: präzisierender Ausdruck der künftigen Vorstellungsinhalt festlegt

Bedeutungsanalysen:
Bedeutungsanalysen können wahr oder falsch sein, da man den jeweiligen Sprachgebrauch als zutreffend oder nicht zutreffend analysiert. Somit haben sie einen empirischen Bezug.

Aussagen:
- Wahrheitsfähigkeit ist abhängig von den verwendeten Begriffen und der Struktur des Satzes
-> Aussagen mit präskriptiven Begriffen verletzen das Postulat der Intersubjektivität und sind empirisch nicht prüfbar!
- logische Struktur wird von logischen Begriffen bestimmt:
  ->Junktoren (verknüpfen Aussagen)
  -> Quantoren (spezifizieren den Objektbereich)
- Wichtige Junktoren:
  Konkunktion: und
  Disjunktion: oder
  Implikation: wenn…dann
  Negation: nicht
-Wichtige Quantoren:
  Allquantoren: Alle Gesellschaften haben….
  Existenzquantor: Es gibt..
-Analytische Sätze: logisch immer wahr oder immer falsch
- Tautologien: immer wahr / Kontradiktionen: immer falsch
-Streng allgemeine Allaussagen haben keinen Raum-Zeit-Bezug.
Begrenzt allgemeine Allaussagen sind räumlich, zeitlich oder
numerisch begrenzt: Alle modernen Gesellschaften haben eine Geldwirtschaft
- Streng allgemeine Existenzsätze ohne Raum-Zeit-Bezug
Singuläre Sätze oder Deskriptionen: Es gibt in Trier 1999 Unternehmen, die nicht im Arbeitgeberverband Mitglied sind

Satzarten:
- analytische Sätze,präskriptive Sätze,Allsätze/Existenzsätze,Sätze mit Raum-Zeit-Bezug, Deskriptionen, Definitionen

Informationsgehalt:
Maß für den Realitätsbezug von Aussagen.
Aussagen sind um so informativer, je mehr mögliche Sachverhalte durch sie ausgeschlossen werden. Logische Prüfung (Aussagenlogik, Aussagenkalkül)

Falsifikatoren:
Potentielle Falsifikatoren:
Aussagen, die einer Implikation widersprechen und bei deren Eintreten diese als falsifiziert zu gelten hat.
Der Informationsgehalt einer Implikation ist umso höher je größer die
Zahl der potentiellen Falsifikatoren ist.
Gegenbegriff des Informationsgehaltes:
Spielraum: Zahl der potentiellen Konfirmatoren
Steigerung des Informationsgehaltes von Implikationen:
Allgemeine Regel:
- Verallgemeinerung der Wenn-Komponente
- Spezifizierung/Präzisierung der Dann-Komponente
Hypothesen:
-Aussagen, die mindestens zwei Eigenschaften bzw. Merkmale von
Variablen in Beziehung setzen,einen uneingeschränkten Gültigkeitsanspruch haben,bei denen die empirische Prüfung noch aussteht,einen kausalen Zusammenhang postulieren (wenn..dann)
 Gesetze haben gleiche Struktur sind aber bereits empirisch bewährt

Theorie:
Komplexere Aussagesysteme mit mehreren Hypothesen oder Gesetzen, Deskriptionen und Definitionen

Modelle:
- Wissenschaftliches Erkenntnismittel, das sich (stark) vereinfachender Annahmen bedient, um bestimmte Aspekte zu isolieren und damit der Analyse leichter zugänglich machen.
Modelle abstrahieren von Einzelfällen, indem typische Merkmale/Abläufe/Zusammenhänge überpointiert werden.
- dient der Vereinfachung von wissenschaftlichen Theorien
- Gleichungssysteme,graphische Darstellungen

Klassifikation:

Konzeption von abstrakten Klassen oder Kategorien als Oberbegriffen oder Typenbezeichnung, die zur Abgrenzung und Ordnung verwendet werden.
Klassifizierung: Subsummierung von Objekten unter solche Oberbegriffe.
Resultat: Definiertes und geordnetes Vokabular

4.Messtheorie

Analyseobjekte:
Kollektive oder Gruppen, strukturelle Effekte und soziale
Regelmäßigkeiten

Untersuchungsobjekte:
Individuen als Träger spezifischer Merkmale.
Untersucht werden stets nur einige Merkmale und Merkmalskombinationen
unter bewusster Ausblendung aller sonstigen Charakteristika,
welche die Untersuchungsobjekte sonst noch aufweisen

Messen:
Zuordnung von Zahlen (den Messwerten/Codes) zu bestimmten Objekten bzw. Zuständen von Objekten Abbildung einer empirischen Objektmenge in einer numerischen Symbolmenge.

Messen als strukturtreue Abbildung:
- Bei der Übertragung der Objektmenge in eine Symbolmenge müssen Relationen erhalten bleiben, sodass man die Objekte immer noch nach ihren Eigenschaften unterscheiden und eventuell ordnen kann.
- Der größte Parameter beim Aussehen einer Messung sind die Entscheidungen die darüber getroffen werden,und nicht etwa etwas das von den Untersuchungsobjekten vorgegeben ist.
- Erhebungsinstrumente,Interviewerverhalten und Situation möglichst standardisiert,damit konstante Bedingungen für Messung geschaffen werden

Theoretisches Konstrukt und Indikator:
- Begriffe die aus der Theorie abgeleitet sind,nicht aber direkt beobachtbar sind nennt man theoretische Begriffe
- direkt beobachtbare Merkmale,die auf Ausprägungen theoretischer Konstrukte schließen lassen,nennt man Indikatoren (Operationalisierung)
 Bei Befragung: Einstellungen,Kenntnisse,etc. der Personen nicht direkt erkennbar.Durch Operationalisierung in Form von Fragestellungen wird dies dann gemessen



Messniveaus:
Kategoriale Daten: -Nominal: Unterschiede zwischen Merkmalsträgern
                               -Ordinal: hierarchische Ordnung der Merkmalsträger, Rangfolge
Metrische Daten: -Intervall: Äquidistanz der Messpunkte
                            -Merkmalsausprägungen weisen natürlichen Nullpunkt auf

Implikation des Messniveaus für Datenanalyse:
Mittelwertbasierte Verfahren können auch bei ordinalskalierten Daten verwendet werden, man darf aber die Koeffizienten nicht im Sinn einer Intervall- oder einer Ratioskala interpretieren, sondern nur ordinal.

Verhältnis von Indikator und Konstrukt :
Indikator und damit zu messendes Konstrukt können unterschiedliches
Messniveau aufweisen. Zb.: Alter in Jahren / Lebenserfahrung

Gütekriterien einer Messung:
Wiederholte oder parallel durchgeführte Messungen zur Vermeidung von Messfehlern,da dies zuverlässiger als Einzelmessungen

Klassische Testtheorie:
Der Mittelwert mehrerer Messungen wird als „wahrer Wert“ angesehen, wenn gilt:
1. Der Mittelwert der Messfehler ist gleich null, diese heben sich also gegenseitig auf
  -> Bsp. für mögliches Problem: Einkommensmessungen durch Befragungen:   Systematische Untertreibungen bei der Höhe des Einkommens
2. Die Messfehler korrelieren nicht mit den wahren Werten der Messung
  -> Bei Einkommensmessungen hängt die Höhe der Untertreibung oft von der Höhe des Einkommens ab
3. Die Messfehler zweier Messwertreihen sind unkorreliert
  -> Unterschätzungen oder Untertreibungen bei Angaben zum Einkommen führen bei Folgefragen zur Einkommensverwendung ebenfalls zu Unterschätzungen
4. Die Messfehler einer Messwertreihe korrelieren nicht mit den „wahren“ Werten einer anderen Variablen
  -> Soziale Erwünschtheit, Teilnahmemotivation bei Befragungen

Zuverlässigkeit (Reliabilität)
Wiederholte Messungen mit dem gleichen Messinstrument müssen gleiche Ergebnisse bringen.
- Test-Retest-Methode:
   Wiederholte Messungen bei der zu messende Eigenschaften im Zeitverlauf gleich bleiben   sollen
- Paralleltestmethode:
  Verschiedene Messinstrumente für die gleiche Untersuchungsdimension werden zeitgleich angewendet. Die Korrelation der Ergebnisse der Messinstrumente ist ein Maß für deren Zuverlässigkeit. Annahme der Existenz vieler äquivalenter Indikatoren.
Tests auf Zuverlässigkeit einer Messung: Prüfung auf Eindimensionalität,Split-Half-Verfahren / Cronbachs Alpha, Faktorenanalyse
- da es aber in Sozi-Wissenschaften keine ein für alle mal geeichte Skala gibt, muss das Messinstrument bei jeder Untersuchung neu getestet werden

Gültigkeit (Validität)
Konstruktvalidierung:
- Konstrukte müssen theoretisch begründet und Hypothesen über ihre
Beziehungen untereinander formuliert werden
- nach der empirischen Messung werden die Beziehungen geprüft und mit den Hypothesen verglichen  Konstruktvalidität liegt dann vor,wenn empirische Untersuchung die Hypothesen stützt
- Gründe warum dies nicht zutreffen kann:
  -> Keine Validität, eines oder alle verwendeten Messinstrumente messen andere Dimensionen
  -> die Hypothesen können falsch sein

Skala:
Geordnete Form von Mess- oder Skalenpunkten, anhand derer bestimmte Merkmale (allgemein „Items“ genannt) beurteilt oder quantifiziert werden sollen Skalen sind eindimensionale Messinstrumente.

Index:
Zusammenfassung der Messwerte unterschiedlicher Messinstrumente. Mehrdimensionale Messung. Additive oder multiplikative Verknüpfung von Messwerten.
Beispiel: Schichtungsindex

Typologie:
Kombinationen von bestimmten Merkmalsausprägungen, denen dann ein neuer Wert zugewiesen wird.



5.Untersuchungsdesigns

Experiment:
- Aufteilung der Untersuchungspersonen in (mindestens) zwei Gruppen
- (Kontrolliertes) Setzen eines Stimulus in (mindestens) einer der Gruppen, der sog. Experimentalgruppe
- Messung der Zielgröße (des Merkmals, das durch den Stimulus verändert werden soll) in den Gruppen vor und nach (angenommener) Wirkung des Stimulus
 Ziel: - Kausalanalyse: Prüfung eines Ursache-WIrkungs-Zusammenhangs
( Ursache: unabhängige Variable, Treatment, Stimulus; Wirkung: abhängige Variable, Effekt, Zielgröße)

Klassisches experimentelles Design:
1.Gruppenbildung: Experimental- und Kontrollgruppe, Rekrutierung von Versuchspersonen und Aufdeckung von Hawthorne- oder Placeboeffekten
2.Stimulus: kontrollierter Einsatz nur in Kontrollgruppe
3. a) Verfahren der Gruppenbildung: Matching: bewusste Einteilung nach Merkmalen
                                                           Randomising: zufällige Einteilung in beide Gruppen
   b) Doppel-Blind-Messungen: Personen wissen nicht zu welche Gruppe sie gehören                  
                                                   Vermeidung/Kontrolle von Placebo- und  
                                                       Versuchsleitereffekten
4.Vorher- und Nachhermessung der Zielgröße:
   Interne Validität: Variation der abhängigen Variablen ist nachweislich auf den gesetzten
                              Stimulus zurückzuführen
   Externe Validität: Generalisierungsfähigkeit der Ergebnisse auf andere Personengruppen

 Probleme: mangelnde Generalisierungsfähigkeit,keine Stimuluskontrolle durch
                      Versuchsleiter

Andere Studiendesigns:
Feld- oder Quasiexperimente: Setzung von Stimuli durch Politik oder Wirtschaft
Ex-Post-Facto-Design: Setzung von Stimuli weitgehend ungesteuert durch die
                                      Versuchspersonen selbst
Probleme:Varianz der unabhängigen Variablen,kausale Reihenfolge von Variablen,Kontrolle von Drittfaktoren
Querschnittsuntersuchung:
Untersuchung zu einem bestimmten Zeitpunkt bzw. in einem bestimmten Zeitraum

Längsschnittuntersuchung:
Daten zur gleichen Grundgesamtheit werden zu mindestens 2 Zeitpunkten erhoben  Erstellung von Zeitreihen bzw. Trends
->Replikative Surveys, Kohortenstudien, Panel-Studien

Kohortenstudie:
Eine bestimmte Studienpopulation (Kohorte) wird während einer Periode hinsichtlich einer bestimmten Sache beobachtet.
( Gute Informationen bei einfachem Design, aber hohe Kosten und lange Laufzeiten)

Paneluntersuchung:
Ausgewählte Personen werden in bestimmten Abständen mit ähnlichen bis gleichen Fragebögen konfrontiert
(Bedeutungsverschiebungen von Begriffen,Mortalität,Panel-Effekte,Hohe Kosten)

Trendanalysen bzw. replikative Surveys:
Wiederholungsbefragungen bei denen aber nicht immer dieselben Personen befragt werden.
-> durch Wiederholung der Befragung kann jede Querschnittsanalyse in einen replikativen Survey umgewandelt werden
( keine Individuellen Veränderungen,Bedeutungsverschiebungen und struktureller Wandel)

Fall-Kontroll-Studie:
Kranke werden mit nicht erkrankten bezüglich zeitlich vorangegangener Exposition eines Risikofaktors verglichen
( kurze Studiendauer,günstig,geeignet bei seltenen Krankheite; aber Risikoquantifizierung schwer, vergangenes kann vergessen gehen,schwere Vergleichbarkeit von Fällen)

Querschnitt, Survey Design:
Gleichzeitige Erhebung von abhängigen und unabhängigen Variablen
(einfaches Design,kurze Laufzeit,günstig; schwere Risikoquantifizierung,vergangenes oft schwer rückverfolgbar)

Ökologische Studien: Korrelationsstudien:
Basieren nicht auf Analye von Individuen sondern auf Analyse von ganzen Populationen.
Diese Aggregatanalyse kann jedoch ökologische Fehlschlüsse aufweisen.



6.Sekundäranalysen
Auswertung bereits existierender Daten

Amtliche Statistik:
Statistisches Bundesamt: Erhebung objektiver Daten (keine subjektiven) ,Verwaltung prozessproduzierter Daten


Mikrozensus:
Jährlich durchgeführte Befragung, bei der 1% aller Haushalte in Deutschland zufällig ausgewählt und Daten über alle Personen in den Zielhaushalten erhoben werden.



Prozessproduzierte Daten:
Daten aus Verwaltungsakten von Ämtern etc., welche zu jeweiligen Verwendungszwecken erhoben wurden und nicht zur Wissenschaft. ( Bsp.: Geburts- Sterbestatistik) In der Regel  sind dies Vollerhebungen und werden für Sekundäranalysen als Aggregatdaten verwendet
( nur bedingte Eignung der Daten,mangelnde Validität)

7. Auswahlverfahren
Grundgesamtheit (Population):
Die Zielgruppe einer Untersuchung muss definitorisch abgegrenzt werden um eine nachvollziehbare Auswahl zu treffen und exakt angeben zu können, für wen die Untersuchungsergebnisse Gültigkeit beanspruchen können.                                                                                                                                                                    
Kriterien für die Abgrenzung können Untersuchungsziel, Zugänglichkeit und Kosten sein.
 Ergebnisse von Stichprobenbefragungen können nur dann durch statistische Hochrechnungen auf eine Grundgesamtheit verallgemeinert werden, wenn sie Ergebnis einer Zufallsauswahl sind. (induktiver Schluss von numerisch kleiner auf numerisch große Zahl = Repräsentationsschluss)
 Stichprobenergebnisse geben keine exakten Werte an, sondern nur Wertebereiche, die Wahrscheinlichkeiten berechnet werden ( Vertrauensintervalle) -> größerer Stichprobenumfang führt zu genaueren Werten
Repräsentativität:
Innerhalb von Fehlergrenzen lassen von der Verteilung bestimmter Merkmale und Zusammenhänge in der Stichprobe auf die Verteilung dieser Merkmale und Zusammenhänge in der Grundgesamtheit schließen.
Stichprobe gilt nur bei Zufallsauswahl als repräsentativ.
Stichprobenumfang von Bedeutung.




Zufallsauswahlen:
Auswahl der Elemente der Grundgesamtheit für Stichprobe durch statistischen Zufall
Kriterien: - Grundgesamtheit bekannt und exakt definiert
               - GG muss physisch oder symbolisch präsent und beeinflussbar sein (Elemente
                 Durchmischbar und jedes Element entnehmbar)
               - Jedes Element nur einmal vertreten
                - Jedes Element hat gleich oder berechenbare Auswahlchance Teil der Stichprobe
                  Zu sein
Einfache Zufallsauswahlen:
Jedes Element gleiche Chance!
Urnenauswahl, Karteiauswahl, Buchstabenauswahl, Geburtstagsauswahl
Definition der GG auch abhängig der Art ihrer symbolischen Präsenz
Stichprobe:
Design der Stichprobe (Wie wird ausgewählt?) / Ergebnis der Stichprobe (Wer hat teilgenommen?)
Telefonstichproben:
- eingeschränkte Grundgesamtheit -> nur Personen mit Festnetzanschluss
- Anschlussdichte nicht gleich der Eintragungsdichte
- Doppeleintragungen, Geschäftsanschlüsse, ISDN, Anrufbeantworter
- Aktualisierungsintervalle
- Haushaltstichprobe, keine Personenstichprobe
- Kein optimales Verhältnis von existierenden und gewählten Nummern
Ziehungsverfahren: RDD, RLD, Listenauswahl, Gabler-Häder-Design (Einteilung der Nummern in 100er Blöcke)

Komplexe Zufallsauswahlen:
Jedes Element nicht gleiche, sondern berechenbare Auswahlchance
Geschichtete Auswahl:
Einteilung der GG in Gruppen oder Schichten. Auswahl von Elementen aus jeder Schicht durch Zufallsauswahl.



Proportionale und disproportionale Schichtung:
In der Praxis werden häufiger disproportionale Schichtungen verwendet.(Bevölkerungsverteilung in der GG nicht gleich der Verteilung der einzelnen Schichten in der Stichprobe)  unterschiedliche Auswahlchancen/ bei Datenanalyse müssen Schichten unterschiedlich gewichtet werden

Schichtung minimiert Gesamtstichprobenumfang und führt zu weniger Aufwand

Klumpenauswahl:
Einfache Zufallsauswahl, greift nicht auf einzelne Elemente sondern zusammengefasste Elemente wie Wohnanlagen oder Stadtteile zurück
 Problem: Klumpeneffekt (Klumpen sozialstrukturell oft sehr homogen, somit nicht ganze Bandbreite vertreten)

Mehrstufige Auswahlverfahren:

- Kombination mehrerer Zufallsverfahren -> Ermittlung der Zielperson auf der letzten Stufe
- entstehende Stichprobe jeweils Grundlage der nächsten Auswahlstufe
 wird bei unbekannten Grundgesamtheiten verwendet
Bsp. : ADM- Design

Wie sieht so ein Verfahren in der Realität aus?
Grundgesamtheit: erwachsene deutsche Wohnbevölkerung in Privathaushalten

1.Auswahlstufe: Auswahl von Stimmbezirken
2.Auswahlstufe:Auswahl von Haushalten
3.Auswahlstufe: Auswahl von Zielpersonen durch Schwedenschlüssel

 Probleme: Zahl der Stimmbezirke nur schätzbar, Entscheidungsspielraum der
                          Interviewer

Vorteile von zweistufen Auswahlverfahren wie bei ALLBUS ( Auswahl von Gemeinden und
Personen aus Melderegister) : - kaum Spielraum der Interviewer
                                                 - bessere Ausschöpfungsquote
                                                 - Ausfälle besser kontrollierbar
                                                      Aber: Kostenaufwand

Grundgesamtheiten bei Bevölkerungsumfragen:

Nie gesamtes Volk, das innerhalb administrativer bzw. nationaler Grenzen lebt.
 Ausschluss von: Ausländern, Minderjährigen, Anstaltsbevölkerung, Deutsche im Ausland, (Zivildienstleistende und Wehrpflichtige)






Nicht-zufällige Auswahlen (Bsp.: Passantenbefragungen):

Willkürliche Auswahl: für Wissenschaft ungeeignet (keine Definition der GG, kein
                                     Auswahlplan, keine Interviewerkontrolle)  wenig Aufwand

Bewusste Auswahlen: Auswahl der Zielpersonen durch subjektive Kalküle. Generali-
                                    sierungen nicht möglich -> kein fundiertes Auswahlverfahren
Auswahl typischer Fälle: Fälle, die man hinsichtlich bestimmter Merkmale als besonders
                                    charakteristisch für die Grundgesamtheit ansieht  Experten
Schneeballauswahl: wird bei unbekannter bzw. unzugängliche GG benutzt

Quotenauswahl: -  Konstruktion von Personenstichproben, sodass Verteilung bestimmter    
                            Merkmale in der Stichprobe deren Verteilung in der GG entspricht
                            Standardverfahren der kommerziellen Markt- und Meinungsforschung
                            ( -> Merkmalsverteilungen bestimmter Merkmale in der GG müssen
                                  Bekannt sein ( zu entnehmen aus der amtlichen Statistik z.B.) )

                              - Auswahlgrundlage: Quotenplan mit Quotenmerkmalen - bei
                                allg. Bevölkerungsumfragen Altersgruppen, Geschlecht, Berufsgruppe,
                                Bildungsabschluss

                               - Quotenvorgabe: Zahl der zu befragenden Personen mit bestimmten
                                  Merkmalsausprägungen
 Kostenvorteile/ jedoch Interviewerfreiheit, keine Dokumentation von Verweigerungen
      Repräsentationsschlüsse sind nicht möglich
                            
Einfache Quotenauswahl:
- Randverteilungen der Quotenmerkmale müssen den Verteilungen in der GG entsprechen
 unterschiedliche Stichproben möglich

Kombinierte Quotenauswahl:
- Randverteilungen und Kombinationen der Quotenmerkmale müssen mit den Werten der
  GG übereinstimmen
 nur eine Stichprobe möglich
                    
Zitat   
02/12/2012 1:34 pm

NEWBIE


Anmeldung: 02 / 12 / 2012
Themen: 0
Beiträge: 1
OFFLINE
Ist es nicht so, dass wir nur Kapitel 1-5 lernen müssen??
Zitat   
Seite 1 / 1
Login with Facebook to post
Vorschau