BitBastelei

แชร์
ฝัง
  • เผยแพร่เมื่อ 2 มิ.ย. 2024
  • Manche Aufgaben sind nervig - aktuell zum Beispiel regelmäßig bei Lieferanten schauen, ob die gewünschten Produkte wieder lieferbar sind. Mit etwas Programmierung kann man solche sich ständig wiederholenden Aufgaben an den Rechenknecht abtreten und sich auf interessantere Dinge konzentrieren.
    Inhalt:
    00:00 Warum das Ganze?
    00:58 Ausgangslage
    04:10 Textsuchen und Regex
    05:20 HTML und DOM
    09:26 Sprache und Todo-Liste
    11:25 1: Webseite mit urllib laden
    17:24 2: DOM verarbeiten mit Beautiful Soup
    26:54 3: Daten aus Webseite verarbeiten
    33:32 if in / Text vs. Integer
    37:27 Desktopbenachrichtigungen
    40:38 Fazit
    Links zum Thema:
    Code: gist.github.com/adlerweb/399a...
    Python Dokumentationen: docs.python.org/
    Beautiful Soup: www.crummy.com/software/Beaut...
    Regex-Tester: regex101.com/
    Notification-Code: github.com/adlerweb/mumble-no...
    Transparenz:
    Es wurden absichtlich keine Geräte oder Produkte gezeigt. Besprochene Sprachen und Tools sollten alle Freie Software sein. Die Bezeichnung "ACME" dient als Platzhalter und hat nichts mit gleichnamigen, realen Firmen zu tun.
  • วิทยาศาสตร์และเทคโนโลยี

ความคิดเห็น • 16

  • @MikeDerUnwissende2
    @MikeDerUnwissende2 ปีที่แล้ว +1

    Großartiges Video, Danke dafür!

  • @masterrudi
    @masterrudi ปีที่แล้ว +1

    Ich habe mir in Python auch sowas geschrieben. Die Anwendung ist ähnlich geht aber noch weiter. Sehr praktisch!
    BeautifulSoup ist einfach und praktisch.
    Das mit den Desktopbenachrichtigungen find ich gut, das adaptiere ich mal

  • @Merciless2011
    @Merciless2011 ปีที่แล้ว

    jeah ... perfektes ding für meine python projekte und wieder super erklärt ! Danke dir für so vieles !

  • @CustAndCode
    @CustAndCode ปีที่แล้ว

    sehr cooles Projekt! 😃🤗

  • @Lightrunner.
    @Lightrunner. ปีที่แล้ว

    Hey,,,
    toll erklärt und interessantes Projekt. 👍🖖

  • @fbeye581
    @fbeye581 ปีที่แล้ว

    Ich verwende aktuell den selben Ansatz , um einem Radiosender um die Ohren zu hauen, wie oft sie einzelne Songs täglich dudeln.
    Nach deinem Hinweis werde ich aber Mal schauen, ob die etwas über automatisches Auslesen sagen bzw. ob die nicht vielleicht sogar ne API haben.

  • @DT-nn5ct
    @DT-nn5ct ปีที่แล้ว

    Cool! Ich hab sowas mal in php "zu Fuß" programmiert.

  • @knusi
    @knusi ปีที่แล้ว

    Desktop benachrichtigung, ist schön dür beobachtungen. Pushnachricht auf Smartphone ist besser. 😁 Pushbullet hat ne gut beschribene API. Da kann auch Raspi und co. Nachrichten chicken.

    • @adlerweb
      @adlerweb  ปีที่แล้ว

      Ich bleibe da bei E-Mail - kommt auch per Push und ich muss nicht noch einen externen Dienst einbinden. Ist IMO günstiger und zuverlässiger.

  • @m-electronics5977
    @m-electronics5977 ปีที่แล้ว

    Schon wieder vergessen denn Dualboot neu zu starten oder magst du Windows?

  • @evilbaron
    @evilbaron ปีที่แล้ว

    Ihh Comic Sans.
    Noch nie was von programmieren am Hut gehabt. Immer Fragezeichen bei sowas.
    Und das einzige richtige Linux-Gerät, was ich nutze, ist das Steam-Deck.

  • @Ole-vu9yj
    @Ole-vu9yj ปีที่แล้ว

    Ich bin mir nicht sicher, ob jemand verbieten kann, dass ich seine Webseite automatisiert auswerte (im privaten Umfeld). Eine AGB wird m.E. erst wirksam, wenn ich mit einer Firma Geschäfte mache - nicht wenn ich deren Seite aufrufe.
    Solange ich eine Seite in einem normalen Umfang abrufe, kann es der Firma auch egal sein, ob ich den Inhalt manuell oder automatisch aufrufe/auswerte. Mir wäre auch nicht bekannt, dass ich damit gegen ein Gesetz verstoße.
    Anders sieht das wahrscheinlich aus, wenn ich sowas im geschäftlichen Umfeld mache, z.B. um meine Produkte automatisch immer einen Euro günstiger als die Konkurenz anzubieten. Dort sehe ich ein berechtigtes Interesse des Seitenbetreibers, sowas zu unterbinden.
    Richtig und wichtig auf jedem Fall der Hinweis, das man beim Testen die Seite nicht hunderte Male abruft. Generell macht es keinen gute Eindruck, wenn man ungeänderte Inhalte stumpf immer wieder abruft. Hier gibt es die Möglichkeit über ein 'HEAD' Kommando zu prüfen, ob sich die Seite seit dem letzten Abruf geändert hat. Es werden dabei aller Header-Informationen wie bei 'GET' übermittelt, aber nicht der Seitencontent selbst. Dadurch fallen bei so einem Abruf nur ein paar Bytes an. Zum Testen bietet sich aber an, generell mit einer Testdatei zu arbeiten die lokal auf dem Computer liegt.
    Ebenfalls 'unartig' wäre es, Abrufe in ungewöhnlichem Umfang zu machen. Ungewöhnlich wäre z.B. der automatisiert komplette Abruf des Webauftritts. Auch der Abruf einer einzelnen Seite im Minutentakt fällt in diese Kategorie.
    Für mich ist die Faustregel, nicht mehr Last/Transfer zu erzeugen, als ich selbst manuell für den selben Zweck im Browser erzeugen würde.
    Es gibt allerdings schon Inhalte, die durchaus für einen automatischen Abruf gedacht sind (z.B. RSS/Atom-Feeds) wo dann auch etwas andere Spielregeln gelten.

    • @adlerweb
      @adlerweb  ปีที่แล้ว

      HEAD erzeugt bei heutigen, dynamischen Seiten meist fast identische Last wie GET. Weniger Traffic, ja, aber die komplette Seitenberechnung muss trotzdem laufen.

    • @Ole-vu9yj
      @Ole-vu9yj ปีที่แล้ว

      @@adlerweb Das ist für viele dynamische Seiten (leider) richtig. Wobei fortschrittliche Seiten da auch serverseitig schon mit Cache arbeiten. Auch Auftritte die z.B. über CDN ausgeliefert werden, werden nicht bei jedem Request neu berechnet. Aber generell ist das natürlich ein valides Argument.

  • @m-electronics5977
    @m-electronics5977 ปีที่แล้ว

    Ah ist gar kein Windows

  • @m-electronics5977
    @m-electronics5977 ปีที่แล้ว

    Von wegen du bist kein Programmierer! Man muss erstmal die Muße haben da dran so lange zu basteln.