Abload? (Backup Projekt-G)
Moderatoren: Heaterman, Finger, Sven, TDI, Marsupilami72, duese
Abload? (Backup Projekt-G)
Hi zusammen,
ich wollte gerade ein paar Bildchen hochladen für den dieswöchigen Projekt-G Bericht,
oha Upload deaktiviert?
Letzte Woche war am Wochenende krankheitsbedingt nichts los, war das da auch schon?
Die Kameraden machen ja schon länger rum mit Spenden etc. vielleicht ist das nun das Ende?
Nun stelle ich mir noch die Frage wie ich sinnvoll das Projekt-G backuppen kann, ohne Bilder wäre das ja witzlos.
Als PDF speichern?
Oder kann man irgendwie den Faden hier komplett mit Inhalten downloaden und als HTML oder so ausgeben?
Danke und Gruß
Pascal
ich wollte gerade ein paar Bildchen hochladen für den dieswöchigen Projekt-G Bericht,
oha Upload deaktiviert?
Letzte Woche war am Wochenende krankheitsbedingt nichts los, war das da auch schon?
Die Kameraden machen ja schon länger rum mit Spenden etc. vielleicht ist das nun das Ende?
Nun stelle ich mir noch die Frage wie ich sinnvoll das Projekt-G backuppen kann, ohne Bilder wäre das ja witzlos.
Als PDF speichern?
Oder kann man irgendwie den Faden hier komplett mit Inhalten downloaden und als HTML oder so ausgeben?
Danke und Gruß
Pascal
- Chemnitzsurfer
- Beiträge: 7859
- Registriert: So 11. Aug 2013, 14:10
- Wohnort: Chemnitz (OT Hutholz)
- Kontaktdaten:
Re: Abload? (Backup Projekt-G)
Hatte mal 2019 den Faden vor dem Umzug von not so greatnet zum Indianerhäuptling in Handarbeit als PDF gespeichert (3,5 GB)
https://drive.google.com/file/d/1IV0P2H ... sp=sharing
die letzten 4 Jahre müsstest du dir dann mal selbst herunterladen (hatte es damals jede Seite in Druckansicht geöffnet und mit nem PDF Tool anschließend zusammengefügt)
https://drive.google.com/file/d/1IV0P2H ... sp=sharing
die letzten 4 Jahre müsstest du dir dann mal selbst herunterladen (hatte es damals jede Seite in Druckansicht geöffnet und mit nem PDF Tool anschließend zusammengefügt)
Re: Abload? (Backup Projekt-G)
ggfs. mit httrack möglich
Re: Abload? (Backup Projekt-G)
Ja das File habe ich noch als Backup, habe die letzten Seiten alle auch mal noch gesichert,Chemnitzsurfer hat geschrieben: ↑So 10. Dez 2023, 09:32 Hatte mal 2019 den Faden vor dem Umzug von not so greatnet zum Indianerhäuptling in Handarbeit als PDF gespeichert (3,5 GB)
https://drive.google.com/file/d/1IV0P2H ... sp=sharing
die letzten 4 Jahre müsstest du dir dann mal selbst herunterladen (hatte es damals jede Seite in Druckansicht geöffnet und mit nem PDF Tool anschließend zusammengefügt)
die ersten 10 habe ich sogar mal irgendwann ausgedruckt.
Ich habe auch mal noch eine Weile gegoogelt aber da findet sich auch nichts in die Richtung,
erste Versuche mit httrack waren auch noch nicht erfolgreich.
Dafür muss ich aber auch mal in einer ruhigen Minute ranhocken und alles in Ruhe lesen und probieren.
Wenn ich was gutes hinbekomme, lasse ich es euch wissen.
Grüßle
Re: Abload? (Backup Projekt-G)
Gibt es ein Plugin für PhpBB? Kann da mal jemand nachschauen?
- Marsupilami72
- Beiträge: 2880
- Registriert: Mo 4. Nov 2013, 23:48
- Wohnort: mittendrin
Re: Abload? (Backup Projekt-G)
Es gibt zumindest ein Plugin, mit dem Nutzer selbst die Anzahl der Posts pro Seite einstellen können:
https://www.phpbb.com/customise/db/exte ... _per_page/
Damit könnte man kurzfristig die Anzahl so erhöhen, dass alles auf einer Seite angezeigt wird, und das dann als PDF ausdrucken.
https://www.phpbb.com/customise/db/exte ... _per_page/
Damit könnte man kurzfristig die Anzahl so erhöhen, dass alles auf einer Seite angezeigt wird, und das dann als PDF ausdrucken.
Re: Abload? (Backup Projekt-G)
Soll ich das mal installieren? Ich muss ja eh noch beim Wiki bei....
Re: Abload? (Backup Projekt-G)
Installiert ist es, probiert das mal aus bitte.
Re: Abload? (Backup Projekt-G)
HI,
danke schonmal vor ab, ich bin aber offenbar zu doof.
Ich finde da keinerlei Einstellung dazu, nicht im Thread und auch nicht im Profil.
Oder liegt das am Style proflat_black?
Danke und Gruß
Pascal
danke schonmal vor ab, ich bin aber offenbar zu doof.
Ich finde da keinerlei Einstellung dazu, nicht im Thread und auch nicht im Profil.
Oder liegt das am Style proflat_black?
Danke und Gruß
Pascal
Re: Abload? (Backup Projekt-G)
Mist. In der Installationsnaleitung gubt es noch diesen Punkt:
Quelle: https://github.com/Elsensee/phpbb-ext-posts-per-page
Den wiederrum hab ICh noch nicht gefunden. Kann mir da mal jemand auf die Sprünge helfen? Wo finde ich das?Set up and configure this extension by navigating in the ACP to Overview -> Post settings.
Quelle: https://github.com/Elsensee/phpbb-ext-posts-per-page
Re: Abload? (Backup Projekt-G)
So, hier:
Achtung: Dieser Wert ergibt gigantische Ladezeiten, mit Vorsicht verwenden! 0 setzt auf Standardwert zurück.
Achtung: Dieser Wert ergibt gigantische Ladezeiten, mit Vorsicht verwenden! 0 setzt auf Standardwert zurück.
Re: Abload? (Backup Projekt-G)
Hi,
erstmal vielen Dank .
Die Ladezeit geht sogar, laut DEV Tools ca. 75 Sekunden in Summe.
Interessanter wird es jetzt eine PDF daraus zu ziehen, dass schafft mein Rechner wohl nicht.
Aber jetzt ist der Ball bei mir, ich spiele mal rum, ansonsten gibt es halt mehrere PDF.
Wobei PDF ja nur eine Notlösung ist, am liebsten würde ich das Ding als HTML speichern,
dieser Versuch läuft gerade.
Ggf. könnte ich die Inhalte so irgendwann fast mit copy&paste in eine Homepage schieben.
Gruß Pascal
erstmal vielen Dank .
Die Ladezeit geht sogar, laut DEV Tools ca. 75 Sekunden in Summe.
Interessanter wird es jetzt eine PDF daraus zu ziehen, dass schafft mein Rechner wohl nicht.
Aber jetzt ist der Ball bei mir, ich spiele mal rum, ansonsten gibt es halt mehrere PDF.
Wobei PDF ja nur eine Notlösung ist, am liebsten würde ich das Ding als HTML speichern,
dieser Versuch läuft gerade.
Ggf. könnte ich die Inhalte so irgendwann fast mit copy&paste in eine Homepage schieben.
Gruß Pascal
Re: Abload? (Backup Projekt-G)
STRG-S im Browser speichert dir das als HTML, das sollte gehen (zumindest FF und Opera können das).
Re: Abload? (Backup Projekt-G)
Das speicher normalerweise keine verlinkten Dokumente mit. Es gibt aber Tools, die Komplette Websites runterladen. Gffs. auch mit den darauf verlinkten Seiten bis zu einer bestimmten Tiefe. Zuletzt hab ich das glaube ich mit wget auf der Konsole gemacht. Mit "Website herunterladen" sollte man bei Google aber auf jeden Fall einen Weg/Tool finden.
Re: Abload? (Backup Projekt-G)
Ich habs mal getestet. Hansele erzeugt mit dem G etwa 1GB Kontent
Re: Abload? (Backup Projekt-G)
Ziehe meinen Einwand zurück. Als ich es das letzte mal probiert hab, haben die Browser wirklich nur die html gespeichert. Jetzt geht das ganze Paket.
- ProgBernie
- Beiträge: 593
- Registriert: Fr 16. Sep 2022, 21:59
- Wohnort: Zwischen Hamburg und Haiti ^W Lübeck
Re: Abload? (Backup Projekt-G)
Man kann auch HTTrack nehmen. Damit kann man auch ganze Webseiten ziehen inkl. der (lokalen) Links, die werden dann auch lokal lauffähig gemacht. In diesem Falle würde man auf den einen Thread begrenzen und kann dann auch ohne Klimmzüge wie "alles auf einer Seite" spiegeln. Die Seite sieht dann auf der eigenen Platte weitgehend wie im Original aus. Damit habe ich schon >250GB gezogen.
https://www.httrack.com/
https://www.httrack.com/
Re: Abload? (Backup Projekt-G)
Demnächst (30.06.24) wird Abload komplett offline gehen:
https://abload.de/
https://abload.de/
Re: Abload? (Backup Projekt-G)
Das ist für Hanseles Faden natürlich total scheisse. Habt ihr kreative Ideen, das hier zu retten? Bitte um Vorschläge!
Re: Abload? (Backup Projekt-G)
mrxyz hat geschrieben: ↑Mo 22. Apr 2024, 07:48 Demnächst (30.06.24) wird Abload komplett offline gehen:
https://abload.de/
Ohhh nein, wobei ich damit leider schon gerechnet habe.
Jetzt wird es wohl final Zeit sich mit dem Backup zu beschäftigen.
Leider war bisher das ganze nicht so erfolgreich, ich denke da wird wohl Handarbeit nötig sein.
Außer einer von euch hat noch eine gute Idee, der Ausdruck des Fadens als PDF ist zwar besser als nichts,
aber irgendwie auch nicht das gelbe vom Ei.
Grüßle
Re: Abload? (Backup Projekt-G)
Hm, man könnte versuchen mit wget zumindest die erste Ebene der externen Links zu sichern... Dann wären die Bilder da.
Re: Abload? (Backup Projekt-G)
Hmm, ich habe eine Idee, habe diese auch kurz in Notepad quergecheckt.
Frage:
Ist es möglich meine Posts aus der Datenbank in der Form zu exportieren wie ich diese in der Editieransicht sehe?
(ggf. mit Datum und Zeit Stempel)
Dann würde ich das ganze einfach in ein Textfile kippen und per Massenänderung auf HTML anpassen.
Im Anschluss die lokale HTML laden mit den Bildern von Abload.de und dann als HTML-File mit Chrome sichern,
dann sollte doch eine lokale HTML rauskommen mit der ich ein Backup habe.
Ggf. könnte ich diese dann sogar recht einfach hosten, es müsste ja nur der Pfad ergänzt werden, wo die Bilder/Files dann liegen.
Falls nicht, weiß ich was ich die nächsten Abende tun muss .
Frage:
Ist es möglich meine Posts aus der Datenbank in der Form zu exportieren wie ich diese in der Editieransicht sehe?
(ggf. mit Datum und Zeit Stempel)
Dann würde ich das ganze einfach in ein Textfile kippen und per Massenänderung auf HTML anpassen.
Im Anschluss die lokale HTML laden mit den Bildern von Abload.de und dann als HTML-File mit Chrome sichern,
dann sollte doch eine lokale HTML rauskommen mit der ich ein Backup habe.
Ggf. könnte ich diese dann sogar recht einfach hosten, es müsste ja nur der Pfad ergänzt werden, wo die Bilder/Files dann liegen.
Falls nicht, weiß ich was ich die nächsten Abende tun muss .
Re: Abload? (Backup Projekt-G)
ich sichere grad per httrack. mal schauen ob da alles externe runter kommt, oder ob abload oder sonstwas nach zu vielen verbindungen zu macht.
Re: Abload? (Backup Projekt-G)
Man könnte ein kleines Python Script schreiben und unter Benutzung eines WebScrapers wie z.B. BeautifulSoup sowohl den Text als auch die Bilder lokal sichern. Der Code ist noch nicht getestet:
Code: Alles auswählen
import requests
from bs4 import BeautifulSoup
# Define forum URL, thread ID, and starting page
forum_url = "https://fingers-welt.de/phpBB/"
thread_id = 2276
start_page = 1
# Loop through pages until no more images are found
while True:
# Construct the URL for the current page
page_url = f"{forum_url}/viewtopic.php?t={thread_id}&start={start_page}"
# Send a GET request to the page URL
response = requests.get(page_url)
# Check if the request was successful
if response.status_code == 200:
# Parse the HTML content
soup = BeautifulSoup(response.content, 'html.parser')
# Find all posts on the current page
posts = soup.find_all('div', class_='post')
# Process each post
for post in posts:
# Extract post ID
post_id = post['id'].split('_')[-1]
# Extract post author
author_element = post.find('a', class_='username-link')
if author_element:
author = author_element.text
else:
author = "Unknown"
# Extract post text
post_text_element = post.find('div', class_='bbcode-container')
if post_text_element:
post_text = post_text_element.text.strip()
else:
post_text = ""
# Save post text to a file
with open(f"post_{post_id}.txt", 'w') as f:
f.write(f"Author: {author}\n\n{post_text}")
# Find all image tags within the post
image_tags = post.find_all('img')
# Download each image and save it with the original filename
for image_tag in image_tags:
image_url = image_tag['src']
filename = image_url.split('/')[-1] # Extract filename from URL
# Download the image and save it
image_data = requests.get(image_url).content
with open(f"post_{post_id}_{filename}", 'wb') as f:
f.write(image_data)
print(f"Downloaded image: post_{post_id}_{filename}")
# Check if there are more pages
next_page_button = soup.find('a', text='Nächste')
if not next_page_button:
break
# Increment page number for next iteration
start_page += 1
else:
print(f"Error: Failed to fetch page {start_page}. Status code: {response.status_code}")
break
Re: Abload? (Backup Projekt-G)
1gb zip: https://mega.nz/folder/IGVB2CoY#v_yukMaOcZkjQ7oK9pbCQw
Aus irgendeinmal Grund sind ie letzen paar Bilder, die auf diesem server liegen, nicht mit geladen worden. gibts da ein zugriffslimit?
Aber von Seite 1 bis 32 scheint alles da zu sein, bis auf paar winzige Fehler, die aber nun mal so auch schon im Forum sind.
Und die stylesheets musste ich manuel runterladen. weis nicht was die von phpbb da geraucht haben.
Achso: browsen von der index.html aus. zur nächsten seite: zurück -> nachste seite im index.html klicken. In den seiten weiterklicken scheint manchmal zu gehen, tuts aber nicht. ich hab nur bis l1 gebackupt, also keine tieferen verlinkungen.
Aus irgendeinmal Grund sind ie letzen paar Bilder, die auf diesem server liegen, nicht mit geladen worden. gibts da ein zugriffslimit?
Aber von Seite 1 bis 32 scheint alles da zu sein, bis auf paar winzige Fehler, die aber nun mal so auch schon im Forum sind.
Und die stylesheets musste ich manuel runterladen. weis nicht was die von phpbb da geraucht haben.
Achso: browsen von der index.html aus. zur nächsten seite: zurück -> nachste seite im index.html klicken. In den seiten weiterklicken scheint manchmal zu gehen, tuts aber nicht. ich hab nur bis l1 gebackupt, also keine tieferen verlinkungen.