Archive for the ‘Webmap’ Category

postheadericon Version D-A-CH-FR-UK

Mit sofortiger Wirkung sind nun auch die Websites aus England (.uk) und Frankreich (.fr) bei NerdByNature.Net erfasst und in die Webmap integriert. Durch diese beiden Länder kommen ca. 1.7 Mio. Websites in den Webmap-Datenbestand hinzu.

postheadericon Kategorien online!

Für die ersten 300.000 Websites haben wir jetzt die Kategorien ermittelt und überprüft. Aus dem Graphen ergibt sich mit diesem Anfangsbestand bereits die Möglichkeit für gut 2 Mio. Sites gute Voraussagen zu treffen in welchen Kategorien diese einzuordnen sind.
Neben Themenkategorien wie z.B. Politik, Wirtschaft und Kultur gibt es noch Kategorien der Art Spam, Seo-Cluster, … die in der Oberfläche nicht angezeigt werden, die aber für die Gewichtung des Graphen berücksichtigt werden können.
Das Kategoriesystem besteht derzeit aus ca. 25 Hauptkategorien und über 300 Unterkategorien. Um niemanden zu verwirren werden in den Details der Webmap aber nur die Hauptkategorien angezeigt. Unterkategorien und Spam- bzw. Cluster-Informationen lassen sich in Zukunft über die kommende API abfragen.

postheadericon SEO Campixx Interview

Interview mit Stephan Sommer-Schulz

von Julian (http://www.seo.at) am 15. März 2011

In seinem Campixx Vortrag „Better Backlinking – Semantische Kategorisierung von Websites“ hat Stephan Sommer-Schulz das Tool NerdByNature.Net vorgestellt. Ich durfte Stephan zu seinem Tool interviewen:

postheadericon NerdByNature.Bot

Der NerdByNature.Bot oder auch Webcrawler oder Spider genannt ist der Prozess, der täglich bis zu einer Millionen Webseiten erfasst und die Webmap-Datenbasis von NerdByNature.Net aktuell hält.

UserAgent

Der NerdByNature.Bot nutzt einen UserAgent wie “Mozilla/5.0 (compatible; NerdByNature.Bot; http://www.nerdbynature.net)”. D.h. in Logfiles und Statistiken ist der NerdByNature.Bot entsprechend sichtbar und kann darüber hinaus auch mittels einer robots.txt (siehe folgendes Kapitel) ausgesperrt oder in die Schranken verwiesen werden. Benutzen Sie innerhalb Ihrer robots.txt einfach den Eintrag “User-agent: NerdByNature.Bot” um einen Anweisungsblock für den NerdByNature Robot zu kennzeichnen (siehe Beispiel weiter unten).

Sperren von Inhalten

Es ist praktisch unmöglich Webinhalte grundsätzlich geheim zu halten, ausser durch den Einsatz von Zugangsbeschränkungen wie Passwörter. In dem Moment, in dem irgendjemand einen Link auf Ihre Seiten setzt werden sie auch von Suchmaschinen und über kurz oder lang auch vom NerdByNature.Bot gefunden.

Wenn Sie nicht wollen, dass der NerdByNature.Bot Ihre Webseiten oder Teile davon erfasst, so nutzen Sie bitte die robots.txt dafür. Eine gute Erklärung, Beispiele und weiterführende Links zur robots.txt finden Sie u.a. bei Goolge in der Webmaster Zentrale unter “Blockieren oder Entfernen“.

Beispiel:

Wenn Sie errreichen wollen, dass der NerdByNature.Bot Ihre Seite “/order.php” nicht erfasst, dann geben Sie in Ihrer robots.txt folgende Regel an:


User-agent: NerdByNature.Bot
Disallow: /order.php

Was wird erfasst?

NerdByNature.Net ist nicht vergleichbar mit großen Suchmaschinen, die möglichst alle Inhalte einer Website erfassen wollen. Wir beschränken uns in der Regel auf die ersten 50 Seiten, ausgehend von der Homepage (und ja, es wird Ausnahmen von dieser Regel geben). Diese werden auch nicht täglich gecrawled, sondern lediglich alle zwei bis vier Wochen, je nach Ranking Ihrer Website.

Probleme melden

Sollten einmal Probleme mit dem NerdByNature.Bot auf Ihren Webseiten auftreten, so können Sie uns gern darüber informieren. Wir sind stets bemüht Qualität des Crawlers zu verbessern und freuen uns über jedes Feedback.

Für Fragen oder Anmerkungen zum NerdByNature.Bot können sie einfach einen Kommentar zu diesem Post schreiben oder eine Mail an info@nerdbynature.net senden.

 

postheadericon LOMBB – Lokales Online Marketing Berlin Brandenburg

19.04.2011, Berlin (Gasometer)

Online Marketing – Was verbirgt sich hinter den vielen neuen Begriffen und den immer schneller werdenden Entwicklungen? Was gilt für Sie als lokal agierendes Unternehmen? Welche lokalen Medienunternehmen befinden sich in Berlin, mit denen Sie Ihr lokales Online Marketing umsetzen können?
Die LOMBB hat sich der Aufgabe angenommen auf lokaler Ebene für mehr Aufklärung und Transparanz zu sorgen.

Aussteller

Meine Firma W3 Solutions GmbH ist Aussteller auf der LOMBB – wir präsentieren unsere Suchmaschine W3 SiteSearch, geben einen Ausblick auf aktuelle und zukünftige Entwicklungen und stehen gern Rede und Antwort für alle Fragen rund um Suche, On-Site-Search und Site-Optimierung.

Vortrag

Ich werde auf der LOMBB am 19.04.2011 folgenden, ca. 30 minütigen Vortrag halten:

“Suchmaschinen-Spam vs. Better Backlinking”
(durch geografische und semantische Analyse)

SEO verspricht viel und nur allzu oft wird wenig gehalten. Schadet eine Maßnahme mehr als sie bringt? Gerade beim Thema Backlinking wird viel erzhält, versprochen und vor allem auch bezahlt. Was genau aber bringen Links von anderen Sites, was ist wichtig, welche Sitelinks sind begehrenswert und welche richten eher Schaden an (und warum)? Mit etwas Know-How und den richtigen Werkzeugen lassen sich Backlinks bewerten, Konkurrenten vergleichen und Ziele definieren bevor das Kind in den Brunnen fällt!

LOMBB 2011

postheadericon SEO-Campixx Berlin, 2011

12.-13.03.2011, Berlin

Wenn man davon ausgeht, dass die Fortbildung im Bereich SEO sehr stark auf dem Informations- und Erfahrungsaustausch der Suchmaschinenoptimierer untereinander basiert, dann ist die SEO CAMPIXX eine logische Folge. Sie versucht seit 2 Jahren die Konzepte von Barcamps, Konferenzen, Networking- und Fun-Events miteinander zu vereinen.

Workshop:

Ich werde auf der SEO-Campixx 2011 am 12. oder 13.03.2011 folgenden Workshop (45 Min.) abhalten:

Better Backlinking – Semantische Kategorisierung von Websites

Die Qualität von Backlinks anhand ihrer thematischen Herkunft bewerten und gezielt relevante Themen-Sites für Linkbuilding identifizieren, Themen-Synergien nutzen, SEO-Spam erkennen und Mitbewerber bewerten. Die Kategorisierung erfolgt über semantische Inhaltsanalyse und Graphen-Theorie (Linkgraph), zusätzlich ergänzt durch Geo- und IP-Daten.

Präsentation

Hier gibt es die Präsentation als PDF-Download.

 

SEO Campixx 2011

postheadericon GeoMap – Weltkarte – Serverstandorte

Das neue Feature GeoMap ist online! Jeder Graph in der Webmap läßt sich durch einen Klick auf den neuen Button “GeoMap” (oberhalb des Graphen) on-the-fly auf die Weltkarte abbilden!
Für jede Site wird der Serverstandort mit Land und (sofern vorhanden) Stadt in die Karte eingetragen. Die Verlinkung der Sites untereinander bleibt natürlich erhalten.
Mittels Mouse-Over läßt sich die URL anzeigen und mittels Doppelklick auf eine der Sites können weitere Sites nachgeladen werden.

postheadericon Suchmaschinen zwischen Informationsfreiheit und Wissensmacht

28.01.2011, Göttingen

Am 28.01.2011 veranstalteten die Professoren Torsten Körber und Andreas Wiebe an der Georg-August-Universität Göttingen eine durch den Universitätsbund geförderte Tagung zum Thema “Suchmaschinen zwischen Informationsfreiheit und Wissensmacht”. Nach einer grundlegenden Erörterung von Funktionsweise und Geschäftsmodell von Suchmaschinen durch Prof. Dr. Sander-Beuermann (SuMa-eV), wurden marken-, datenschutz- und medienrechtliche Aspekte erörtert und von Wissenschaftlern, Datenschutzbeauftragten und Vertretern des Unternehmens Google diskutiert. Die Veranstaltung fand von 9:00 bis 16:30 Uhr in der Paulinerkirche, Papendiek 14 in Göttingen statt.

Mein persönliches Fazit zu dieser Veranstaltung:

Der Beitrag von Prof. Dr. Sander-Beuermann (SuMa-eV) war sehr gut. Hat er doch glaubwürdig dargestellt welche Mittel ein Startup bräuchte um eine weltweite, konkurrenzfähige Suchmaschine zu erstellen. Anderen Beiträge wie z.B. sog. Forschungsarbeiten zur Finanzierung von Suchmaschinen hat deutlich die Tiefe gefehlt. Anstatt neue Ideen zu entwickeln und zu bewerten wurden hier nur die alten Pfade der Werbeeinnahmen breitgetreten, schade, denn das Thema hat gerade in meinen Augen viel mehr Innovation verdient.

Göttingen Suchmaschinen Tagung

postheadericon Version D-A-CH

Die Datenbasis wurde gegenüber der ersten Version DE jetzt um die Webserver aus Österreich und der Schweiz erweitert. Somit steht ab sofort die Version D-A-CH zur Verfügung die bereits jetzt über 95% aller aktiven DE/AT/CH Domains enthält.

postheadericon European Semantic Technology Conference 2010

Vom 02. bis 03.12.2010 fand in Wien die ESTC2010, die European Semantic Technnology Conference statt an der ich teilnehmen durfte.

Es wurden ein paar interessante Projekte aus dem semantischen Umfeld präsentiert, wie z.B. LOD2 (Linked Open Data) u.a. von der Universität Leipzig.

Leider hatte die Veranstaltung etliche Längen, immer dann wenn das X-te kleine Projekt, was auch nur im entferntesten mit Semantik zu tun haben könnte präsentiert wurde, nur um die Aufmerksamkeit von VC-Gebern zu erlangen.

Der mit Abstand interessanteste Beitrag kam von Victor Henning, Mendeley Ltd., der darüber referierte, wie seine Firma zu Venture Capital (VC) gekommen ist – nämlich nicht über derartige Veranstaltungen :-)

Einen ungewollt witzigen Beitrag leistete der zweite Keynote Speaker, von Yahoo Research, der Suchmaschinentechnologien als das wichtigste Kernthema des Internets anpries. Da fragt man sich als Zuhörer schon, warum gerade Yahoo sich weltweit von seinen Suchtechnologien verabschiedet, den Kuchen in Zukunft anderen überläßt und nur noch Bing einsetzen will???

European Semantic Technology Conference 2010

postheadericon The Search Conference, 2010

Am 23.11.2010 fand in Hamburg die Search Conference statt. Der Name könnte suggerieren, dass es dabei evtl. um tatsächliche Suchmaschinentechniken ging, aber weit gefehlt. Es standen Themen wie SEO, SEA, Long Tail, Backlinks und andere Orakelthemen auf dem Programm.

Ein Lichtblick waren die Beiträge von SEOlytics, Abakus und Searchmetrics, die zwar nicht wirklich in die Tiefe gingen (eher etwas weichspüler-mäßige Kost), aber sich dafür auch nicht wilden Spekulationen ergingen, warum nun ein bestimmter Beitrag von Google auf Position X gesetzt wird. Es ist immer wieder lustig mit anzusehen, wie die SEO-Herde den Google-Boys hinterherrennt und mit pseudowissenschaftlichen Methoden (knapp hinter der Glaskugel) versucht bestimmte Verhaltensweisen der Suchmaschine zu erklären, ohne dabei überhaupt die Fragestellung verstanden zu haben.

Fazit: Die Veranstaltung hat Spaß gemacht, es gab viele neue (und alte) Kontakte, eine Wiederholung in 2011 dürfte wahrscheinlich sein.

postheadericon Neues Feature: Details

Seit heute ist der erste Teil des neuen Features “Details” online! Ein Klick auf den Button und schon öffnet sich die Detailansicht zur aktuell ausgewählten Website. Klickt man bei geöffnetem Detail-Fenster eine andere Site in der Webmap an, so werden die Detailangaben automatisch aktualisiert.

Derzeit zeigt die Detailansicht die Websites, die auf die aktuell ausgewählte Site verlinken (Backlinks). Die “fremden” Websites sind dabei ihrerseits nach Ranking sortiert. Das Ranking ist eine imaginäre Größe, die sich daraus berechnet, wieviele andere Sites auf eine Website verlinken, d.h. viele Backlinks anderer Websites bedeuten eine starke Vernetzung der Ziel-Website und somit auch ein hohes Ranking.

Derzeit werden alle Backlinks gleich behandelt – in Zukunft sollen Backlinks aus derselben Domaine wie die Ziel-Website (anderer Hostname, gleiche Domaine) aber weniger Gewicht haben als Backlinks aus fremden Domainen. Diese Funktion wird derzeit zwar schon in der Datenbasis berücksichtig, findet aber erst in einem der kommenden Updates Einzug in das Frontend.

Weitere Features, wie z.B. detaillierte Pagelinks, weiterführende Linkanalysen und vor allem Kategorien werden folgen – es bleibt spannend.