Der komplette wget Aufruf, der im folgenden Fall ein zufriedenstellendes Ergebnis produzierte, war übrigens:
wget --recursive --page-requisites --convert-links --mirror --adjust-extension -e robots=off https://example.com
Danke, @daniel_bohrer 🥰
Der komplette wget Aufruf, der im folgenden Fall ein zufriedenstellendes Ergebnis produzierte, war übrigens:
wget --recursive --page-requisites --convert-links --mirror --adjust-extension -e robots=off https://example.com
Danke, @daniel_bohrer 🥰
EDIT: wget hilft! Ich habe nur die Option-e robots=off noch gebraucht, dann wurde doch die ganze Seite geladen! Danke!
—
Ich habe hier eine kaputte Webseite, die neu gemacht werden soll. Bis dahin soll sie in eine statische Seite umgewandelt werden.
Hey ihr #Webdevs da draußen: Was nehme ich da heutzutage dazu? Die Links sollen zB alle relativ umgeschrieben werden, was HTTrack zB wohl nicht kann.
Danke!
GNU social JP is a social network, courtesy of GNU social JP管理人. It runs on GNU social, version 2.0.2-dev, available under the GNU Affero General Public License.
All GNU social JP content and data are available under the Creative Commons Attribution 3.0 license.