Hallo,
es sollen eine große Anzahl von Benutzern per csv importiert werden. Der Flaschenhals dabei ist die Generierung des Passwort hashes mittels password_hash. Die max_execution_time ist bei 20 Sekunden und kann ich nicht beeinflussen. Selbst wenn ich $cost heruntersetzen, das jeders Paswort nur 0,05 Sekunden benötigt, aber dann wird das Passwort zu schwach.
Aufteilen der csv in mehrere kleinere wäre eine Lösung, die ich umgehen möchste. Das zugehörige Skipt wird per AJAX aufgerufen. Gibt es irgendeine Möglichkeit, die Ausführung in kleinere Portionen zu zerlegen?
Besten Dank
es sollen eine große Anzahl von Benutzern per csv importiert werden. Der Flaschenhals dabei ist die Generierung des Passwort hashes mittels password_hash. Die max_execution_time ist bei 20 Sekunden und kann ich nicht beeinflussen. Selbst wenn ich $cost heruntersetzen, das jeders Paswort nur 0,05 Sekunden benötigt, aber dann wird das Passwort zu schwach.
Aufteilen der csv in mehrere kleinere wäre eine Lösung, die ich umgehen möchste. Das zugehörige Skipt wird per AJAX aufgerufen. Gibt es irgendeine Möglichkeit, die Ausführung in kleinere Portionen zu zerlegen?
Besten Dank
Kommentar