„Big-Data“ ist eine Ideologie von Informationstechnologen, die algorithmisch und datentechnisch fixiert, aber leider erkenntnistheoretisch unkritisch oder gar verblendet sind. Daten sind natürlich schon immer Bausteine unseres Wissens, seit Menschen Beobachtungen machen und kritisch darüber nachdenken. Dieses Nachdenken jetzt Algorithmen überlassen zu wollen, stellt die Geistesgeschichte der Menschheit „auf den Kopf“ und versucht, geistreiche Köpfe durch digital operierende Maschinen zu ersetzen. Hinter jeder Beobachtung (allgemein als Daten verstanden) steht eine kognitive Hypothese, die zu formulieren man keinem noch so künstlich intelligenten algorithmischem Mechanismus überlassen kann, wenn man wirkliches menschliches Wissen und nicht nur gelegentliche spekulative Hinweise, „nützliche“ Trends oder „pragmatische Argumente“ gewinnen will. Wissen beruht im Idealfalle auf kausalen Erklärungen, die sich einerseits aus theoretischen Modellen ergeben, die mit passenden Daten „gefüttert“ sind, oder aus ihnen herausgefiltert werden. Andererseits ist Wissen zwischen kritischen und rationalen Menschen kommunizier bar und als logisch richtig oder falsch bzw. als glaubwürdig oder unglaubwürdig bewertbar. Maschinell entdeckte Korrelationen und ihr unkritischer Austausch zwischen Computern reichen nicht aus, weil sie nicht rational erklären, sondern sogar algorithmisch verblenden können. Folglich sind weder erhöhte Objektivität noch größere Transparenz und noch weniger verbessertes Vertrauen durch Big-Data zu gewinnen. Wir erliegen einer gefährlichen Illusion und einem geistesgeschichtlichen Irrtum größten Ausmaßes, wenn wir uns der Big-Data Ideologie unkritisch ergeben und wichtige erkenntnistheoretische oder ethische Unterscheidungen unterlassen, die wir hier am Beispiel von Wikipedia Beiträgen zum Thema herausarbeiten.