Bzw. wäre es überhaupt möglich soetwas umzusetzen: Es geht um eine Anwendung, die man -am Besten als Addon- im lokalen Browser installiert und, die beim surfen oder suchen in Youtube von der Seite Videotiel, Link und noch andere Metainformationen kopieren soll und in einer Datenbank speichert. Im nächsten Schritt sollen (in einem neuen Tab?) automatisiert auch verknüpfte Kanäle automatisiert von der Anwendung be oder durchsucht werden können und
herneut (Videotitel, Uploaddatum etc., Metainformationen) kopiert und in der DB gespeichert werden. Ergo: Ich spreche von einem Parser mit dessen Hilfe beim browsen ein eigenständiger neuer Seitenindex quasi in Echtzeit erstellt werden kann. (Oder anders formuliert: Ich suche eine Möglichkeit wie man zensurfrei und absolut neutral ohne KI-Filter und ohne Tracking -nicht nur- Youtube vollständig durchsuchen und mit hoher Wahrscheinlichkeit deutlich mehr Resultate bekommt als es die regulären Suchfilter aktuell noch zulassen und wäre sogar bereit dafür einen komplett neuen Index zu bauen!)
Die Fragen die sich hierbei stellen: 1. Gibt es soeinen Dienst zufällig irgendwo schon bzw. Leute die an sowas arbeiten?
2. Würde so ein Parser funktionieren oder ist die Idee eher dumm bis naiv? (Stichwort Captchas) bzw. es gibt möglicherweise bereits eine bessere effektivere Lösung? Mal angenommen es wäre kein Problem in wenigen Tagen mehrere tausend User zu mobilisieren, die ein solches Addon für einen vollständigen zensurfreien Index sofort installieren. Bsp. 5000 User, surfen durchschnittlich auf 100 Videos pro Tag, der Parser würde sagen wir beim Surfen das 50 fache finden. 5000 X 5000 wären allein schon 25 Mio Indexeinträge / Kanäle pro Tag, (bei nur 5000 Usern) was schon einen ordentlichen Index nach ein paar Monaten ergäbe. -Verglichen mit den 0-100 Resultaten, die eine durchschnittliche YT / Google Suche mit Standardfilter inzwischen i.d.R ergibt- würde wahrscheinlich schon allein ein Index mit nur ein paar Mio Einträgen bei bestimmten Suchanfragen um den Faktor 1000 mehr Resultate liefern. Die neue Suche würde so aufgebaut, dass bei einer Anfrage wirklich alle Einträge vollständig durchsucht werden und nur das. Keine KI, keine Inhaltsbewertung, kein Tracking, keine Personalisierung, und keine oder nur wenig Werbung. Da es voraussichtlich sehr viele Einträge werden würde das System um Ressourcen zu sparen in zahlreiche Unterkategorien und Instanzen aufgesplittet. Eine Suche nach genauem Uploaddatum und Dateilänge -oder falls vorhanden- Standort wären z.b Pflicht.
3. Ich vermute, dass eine einzelne normale MySQL Datenbank beim 0815 Hoster für so ein Projekt mit Milliarden Einträgen eher maximal ungeeignet wäre ?
4. Google und möglicherweise verschiedene andere Dienste oder die Regierung sehen ein solches Projekt möglicherweise weniger gerne oder es wäre gar illegal?
Ich bin nicht auf das große Geschäft aus, sondern würde den Zugang zu einem solchen Projekt komplett open source und free gestalten, damit das Ganze so schnell wie möglich anwachsen kann. Jeder der will soll selbst eine Index / Addon-Unterinstanz auf seinem eigenen Server verwalten können. Die verschiedenen dezentralen Indexdatenbanken / Suchinstanzen würden für interessierte Surfer auf einer zentralen Webseite in Form einer Linkübersicht mit mehreren Unterkategorien zusammengestellt. Falls es sowas wie das hier Beschriebene jedoch schon gibt / bereits bekannt ist bzw. bereits daran gearbeitet wird wäre ich aber auch sehr dankbar...
Falls das Ganze eine komplette Schnapsidee ist freu ich mich ebenfalls auf Feedback...
herneut (Videotitel, Uploaddatum etc., Metainformationen) kopiert und in der DB gespeichert werden. Ergo: Ich spreche von einem Parser mit dessen Hilfe beim browsen ein eigenständiger neuer Seitenindex quasi in Echtzeit erstellt werden kann. (Oder anders formuliert: Ich suche eine Möglichkeit wie man zensurfrei und absolut neutral ohne KI-Filter und ohne Tracking -nicht nur- Youtube vollständig durchsuchen und mit hoher Wahrscheinlichkeit deutlich mehr Resultate bekommt als es die regulären Suchfilter aktuell noch zulassen und wäre sogar bereit dafür einen komplett neuen Index zu bauen!)
Die Fragen die sich hierbei stellen: 1. Gibt es soeinen Dienst zufällig irgendwo schon bzw. Leute die an sowas arbeiten?
2. Würde so ein Parser funktionieren oder ist die Idee eher dumm bis naiv? (Stichwort Captchas) bzw. es gibt möglicherweise bereits eine bessere effektivere Lösung? Mal angenommen es wäre kein Problem in wenigen Tagen mehrere tausend User zu mobilisieren, die ein solches Addon für einen vollständigen zensurfreien Index sofort installieren. Bsp. 5000 User, surfen durchschnittlich auf 100 Videos pro Tag, der Parser würde sagen wir beim Surfen das 50 fache finden. 5000 X 5000 wären allein schon 25 Mio Indexeinträge / Kanäle pro Tag, (bei nur 5000 Usern) was schon einen ordentlichen Index nach ein paar Monaten ergäbe. -Verglichen mit den 0-100 Resultaten, die eine durchschnittliche YT / Google Suche mit Standardfilter inzwischen i.d.R ergibt- würde wahrscheinlich schon allein ein Index mit nur ein paar Mio Einträgen bei bestimmten Suchanfragen um den Faktor 1000 mehr Resultate liefern. Die neue Suche würde so aufgebaut, dass bei einer Anfrage wirklich alle Einträge vollständig durchsucht werden und nur das. Keine KI, keine Inhaltsbewertung, kein Tracking, keine Personalisierung, und keine oder nur wenig Werbung. Da es voraussichtlich sehr viele Einträge werden würde das System um Ressourcen zu sparen in zahlreiche Unterkategorien und Instanzen aufgesplittet. Eine Suche nach genauem Uploaddatum und Dateilänge -oder falls vorhanden- Standort wären z.b Pflicht.
3. Ich vermute, dass eine einzelne normale MySQL Datenbank beim 0815 Hoster für so ein Projekt mit Milliarden Einträgen eher maximal ungeeignet wäre ?
4. Google und möglicherweise verschiedene andere Dienste oder die Regierung sehen ein solches Projekt möglicherweise weniger gerne oder es wäre gar illegal?
Ich bin nicht auf das große Geschäft aus, sondern würde den Zugang zu einem solchen Projekt komplett open source und free gestalten, damit das Ganze so schnell wie möglich anwachsen kann. Jeder der will soll selbst eine Index / Addon-Unterinstanz auf seinem eigenen Server verwalten können. Die verschiedenen dezentralen Indexdatenbanken / Suchinstanzen würden für interessierte Surfer auf einer zentralen Webseite in Form einer Linkübersicht mit mehreren Unterkategorien zusammengestellt. Falls es sowas wie das hier Beschriebene jedoch schon gibt / bereits bekannt ist bzw. bereits daran gearbeitet wird wäre ich aber auch sehr dankbar...
Falls das Ganze eine komplette Schnapsidee ist freu ich mich ebenfalls auf Feedback...
Kommentar