Anzeige

Fischen nach Informationen

„Web-Crawler“ als Hilfsmittel

Ein Großteil der Inhalte von Social-Media-Plattformen ist öffentlich zugänglich, weil die Nutzer dieser Veröffentlichung zugestimmt haben. Im Normalfall kann jedoch nur das Unternehmen, welches eine Social-Media-Plattform betreibt, auf die Gesamtheit dieser Daten zugreifen, um diese etwa statistisch auszuwerten.

Digitale Suchroboter – „Web-Crawler“

Allerdings ist es auch von außen möglich, durch automatisierte Suchanfragen Informationen, die innerhalb der sozialen Netzwerke in verstreuter Form vorliegen, zu sammeln und zusammenzuführen. Diese Suchanfragen erfolgen mit der Hilfe eines digitalen Suchroboters – „Web-Crawler“ genannt.

Genehmigung statt Datenklau © Nadja Podbregar / Harald Frater

Auch Internet-Suchmaschinen verwenden Crawler, um einen Index der im World Wide Web vorhandenen Seiten zu erstellen. Auf diesen Index wird dann bei der aktuellen Suchanfrage zurückgegriffen. Die meisten Social-Media-Seiten limitieren die Anzahl von Suchanfragen, die ein bestimmter Internet-Nutzer tätigen darf, damit nicht Dritte einen wirtschaftlichen Vorteil aus der Analyse der Datenbanken ziehen.

Forscher, die mittels „Crawling“ Aufschluss über die Beschaffenheit von Netzwerkstrukturen in Social Media erzielen wollen, müssen deshalb meist zuvor eine Genehmigung des jeweiligen Social-Media-Dienstes einholen.

  1. zurück
  2. |
  3. 1
  4. |
  5. 2
  6. |
  7. 3
  8. |
  9. 4
  10. |
  11. 5
  12. |
  13. 6
  14. |
  15. 7
  16. |
  17. 8
  18. |
  19. weiter

Ralf Grötker / MaxPlanckForschung
Stand: 11.03.2011

Anzeige
Anzeige

In den Schlagzeilen

Inhalt des Dossiers

Das Echo des digitalen Gezwitschers
Twitter, Facebook & Co.

kein Dossierinhalt gefunden

Diaschauen zum Thema

News zum Thema

keine News verknüpft

Dossiers zum Thema

AIDS - Auf der Suche nach der Wunderwaffe