Zitat von psoido
Beitrag anzeigen
Ja, und auch unsere selbst lernenden Algorithmen sind derzeit noch strohdumm. Ein Kind zeigst du 3 Katzen und 2 Hunde und es kann die auseinanderhalten. Ein Computer zeigst du 1 Million Hunde und Katzen und es passt trotzdem nicht 100%. Das ist überspitzt, mit Transfer Learning geht das bei weiten besser, aber vieles wird derzeit einfach nur über enorme Rechenkapazität weg gemacht. Das GPT-3 Model, auf was Microsoft in dem oben verlinkten Artikel aufbaut (state of the art für nlp), bräuchte fürs Training auf einer highend GPU über 300 Jahre Rechnezeit. Verrückt... da hast du allein für den Strom schon eine 1/4 Million auf der Rechnung stehen. Wir werden da in den nächsten Jahren noch enorme fortschritte machen, aber dass der Computer anfängt zu "denken", wird wahrschenlich noch etwas länger dauern (hoffentlich!?).
Kommentar