kostenloser Webspace werbefrei: lima-city


Suche auf lima-city

  • in: Windows für den Raspberry Pi

    geschrieben von noxious

    [/quote]
    darvin schrieb:
    Es gibt ja schon seit längerem Windios loT für den Raspberry, welches allerdings kein vollwertiges Windows, wie wir es vom Desktop Pc kennen, ist.
    Aus gutem Grund! Ein "vollwertiges" Windows ist halt viel zu heavy, um auf einem Leichtgewicht wie dem Raspberry Pi zu laufen. Es ist ein wenig wie ein "vollwertiges KDE" auf dem Raspberry Pi laufen zu lassen: Kaum zu gebrauchen.

    darvin schrieb:
    Was haltet ihr davon & warum nutzt man nicht einfach Linux? Welche Vorteile/Nachteile bringt Windows mit sich?
    MfG
    Was die allgemeinen Vorteile von Linux gegenüber Windows angeht... Schwierig zusammen zu fassen. Man kann da in den meisten Fällen eher von "Ideologischen Unterschieden" reden. (Und diese unterscheiden sich ja zT. noch mal stark zwischen den unterschiedlichen Distributionen...)

    Aber im Anwendungsfall "Raspberry Pi" sehe ich doch einige sehr klare Vorteile. Dafür ist natürlich zu beachten, dass der Raspberry Pi keinen vollständigen Ersatz für ein Desktop-System darstellt und auch gar nicht darstellen will. Linux trifft hier eher den Verwendungszweck, das Linux frei skalierbar ist. Während die "Standard-Distributionen" wie Raspbian, etc. im prinzip noch wahre Monster sind, was den Ressourcenverbrauch angeht, gegenüber dem, was mit einem speziell an die Anforderungen angepassten Kernel möglich ist, ist es dennoch gradezu ein Winzling, im Vergleich zu Windows. Windows hingegen ist proprietär - du kannst schwerlich einzelne Features raus schmeißen, wenn du sie nicht benötigst. Das resultiert so gut wie immer ein unmöglicher Ressourcenverschwendung.
    Ein weiterer Vorteil von Linux gegenüber Windows ist auf dem Raspberry Pi denke ich die "alles ist eine Datei"-Philosophie. Es ist halt selbst ohne tiefere Programmierkenntnisse unglaublich einfach die Ausgabe aus einem Programm in ein anderes zu pipen, welches diese Ausgabe verarbeitet und die Ausgabe dann ein Gerät ausgibt.

    Der meiner Meinung nach einzige Vorteil von Windows IoT ist die UWP. Man kann (theoretisch) jedes Programm, welches für Windows 10 geschrieben wurde, auch unter Windows IoT benutzen. Leute, welche sowieso an die UWP gewöhnt sind, müssen hier nicht diesem Weg abschwörren.

    Dass es Programme gibt, welche nur unter Windows laufen, halte ich persönlich nicht für einen Vorteil von Windows gegenüber Linux, sondern für einen Nachteil der entsprechenden Programme. Schließlich ist es ja auch kein Nachteil von Windows, wenn ich jetzt ein Programm schreibe, welches nur unter Linux läuft.
    Wenn man jedoch darauf angewiesen ist, ein spezifisches Programm zu nutzen, kann es natürlich eine valide Begründung sein, weshalb man Windows nutzt.

    muellerlukas schrieb:
    Mussten sie vorher auch nicht. MS ist bei Mono schon lange mit an Bord, dementsprechend groß war die Unterstützung.

    .Net/Mono ist mitnichten ein vollständiger Ersatz für die UWP. Die Logik ist zwar größtenteils wiederverwendbar, aber sobald es beispielsweise an das WPF geht, landest du irgendwann wieder auf dem Hosenboden und musst dir irgendwas mit Xamarin, Cordova oder ähnlichen zusammen schustern, was meiner Erfahrung nach nur bedingt funktioniert und letztenendes mehr Arbeit macht, als das ganze direkt neu anzufangen. Es bringt schon deutliche Vorteile, wenn man bei der UWP bleibt.

    muellerlukas schrieb:
    IMO wird der IoT-Mist von MS genau so enden wie Windows Phone.
    Da sind wir uns einig. Es gibt wohl kaum genug sinnvolle Anwendungsfälle, welche vor Microsoft die Kosten für die Wartung der IoT-Branch rechtfertigen. Ich denke das ganze wird schon bald als "proof of concept" einfach wieder abgelegt.
  • in: Port aus URL ausblenden [HTACCESS, VirtualHost]

    geschrieben von noxious

    Ohne es jetzt testen zu wollen:
    <VirtualHost *:80>
        ProxyPreserveHost On
        ProxyPass / http://media.mysite.de:8090/
        ProxyPassReverse / http://media.mysite.de:8080/
        ServerName media.mysite.de
    </VirtualHost>
    Sollte doch funktionieren, oder? Wenn auf Port 8090 SSL genutzt wird, einfach das
    <VirtualHost *:80>
    durch
    <VirtualHost *:443>
    ersetzen. Bei Port 8090 ist das ja nicht so ganz klar, ob SSL genutzt wird.
  • in: Frage zu Cookies in Include

    geschrieben von noxious

    sidezockinglp schrieb:
    [...] mich würde daher interessieren was man vor dem setzen einen Cookies noch alles machen darf. [...]

    Eigentlich sollte das offensichtlich sein. Cookies werden im HTTP-Header-Bereich übertragen. Der Header wird im wesentlichen übertragen, sobald irgendeine Ausgabe stattfindet - und kann im Nachhinein nicht mehr geändert werden.
    Dies impliziert übrigens auch automatisch genererierte Ausgaben wie PHP-Fehler, Warnungen und ähnliches. Und natürlich auch jeglicher Dokumentinhalt - wie jeglicher HTML-Inhalt oder beispielsweise führende Leerzeichen vor dem
    <?php
    . Ein
    echo
    ist dort nicht zwangsweise notwendig.

    Eine Möglichkeit deine Idee umzusetzen wäre - sofern die Funktionen aus
    funktionen.php
    in
    header.php
    benötigt werden - mit einem require_once ganz oben in der
    header.php
    zu arbeiten. Dadurch stellst du sicher, dass wo auch immer die
    header.php
    eingefügt ist, die entsprechenden Funktionen verfügbar sind. Mit dem unterschied zu include, dass zum einen die Datei nur ein mal eingebunden wird - wenn darin Beispielsweise irgendwelche Definitionen stattfinden, zum anderen erzeugt es einen "Fatal Error", wenn die Datei nicht eingebunden werden kann, während include nur eine Warnung ausgibt. Wenn man jedoch explizit nur eine Warnung möchte, kann man stattdessen mit include_once arbeiten. Ich für meinen Teil würde aber grade bei Funktionen die im Header/Cookie-Bereich erfordert sind auf require_once setzen - da eine reine Warnung die weitere Code-Ausführung nicht zwangsweise beendet und zu unbeabsichtigten Ergebnissen führen kann.

    So könnte deine
    funktionen.php
    dann in etwa so aussehen:
    <?php
    
    function Funktion1(){}
    function Funktion2(){}
    function Funktion3(){}
    Wenn du
    Funktion1
    in der
    header.php
    brauchst, könnte diese dann in etwa so aussehen:
    <?php
    require_once('funktionen.php');
    
    Funktion1();
    Funktion2();
    Funktion3();
    Während du in der
    index.php
    (Oder wo auch immer) nur noch die
    header.php
    einbinden musst. Die
    funktionen.php
    brauchst du dort dann nicht mehr einzeln angeben - zumindest sofern die Funktionen aus dieser Datei dort nicht benötigt werden.

    Noch schöner wäre denke ich noch die Kapselung der Inhalte in Klassen. Hier gibt es dann verschiedene Modelle wie MVP welche die Darstellung der Inhalte komplett von Datenquellen und der Webseitenlogik trennt. Allerdings ist dies bei solchen Fragen zu Cookies möglicherweise zu weit fortgeschritten.
  • in: Erfahrungen mit Umrüsten auf LED

    geschrieben von noxious

    waytogermany schrieb:
    [...] oder wie es mal ein Elektromeister ausgedrückt hat - So viel, wie der Kunde in die Umrüstung auf Stromsparlampen investiert hat, kann er in seinem ganzen Leben nicht an Strom sparen [...]

    waytogermany schrieb:
    Das kommt ganz auf die Leuchtmittel an. Gute LED mit über 1000 lm kosten schnell mal 10 EUR und mehr. Eine Glühlampe ca 50 cent. Strom kostet mich 0,099 EUR/KWh.
    Okay, rechnen wir mal mit den Werten. 10€ für ne LED-Birne, 0,5€ für eine Glühlampe. Wenn man mehr als 10€ für eine LED-Birne ausgibt, hält die für gewöhnlich aber auch mehr als 10.000 Stunden. Aber rechnen wir mal mit 10.000 Stunden - während eine Glühlampe nur 1000 Stunden Lebenszeit hat. Man muss sich also über die Zeit, in welcher man eine LED-Birne kauft, 10 Glühlampen besorgen. Macht 5€ anschaffungskosten für Glühlampen, 10€ für LED-Birnen - man hat also 5€ mehrkosten.

    Dazu kommt der (meiner Meinung nach unrealistische) Strompreis von 9,9cent je kW/h. Wenn eine Glühlampe mehr als 1000 Lumen hat, verbraucht diese für gewöhnlich 100 Watt oder mehr. Aber rechnen wir mit 100 Watt. Bei 2 Stunden Leuchtdauer am Tag verbraucht man also 0,2kW/h am Tag, macht 73 im Jahr, macht bei 9,9cent je kW/h einen Strompreis von 7,23€ pro Jahr. Eine LED-Birne mit 1000 Lumen hingegen verbraucht 13 Watt - macht 0,026kW/h am Tag und dadurch 9,49kW/h pro Jahr und damit 0,94€ pro Jahr. Man spart also 6,29€ pro Jahr. Man hat die Mehrkosten also bereits nach einem Jahr wieder drin.

    Wäre also ein ziemlich kurzes Leben, das der Elektro-Meister da veranschlagt.
  • in: Login bei phpMyAdmin nicht möglich?

    geschrieben von noxious

    patrickm schrieb:
    Allerdings bekomme ich beim Anmelden den Fehler "#1045 - Access denied for user 'XXXXX'@'62.113.217.13' (using password: YES)".
    Mache ich da irgendwas falsch? Benutzen tue ich definitiv das richtige Passwort für den eben erstellten Datenbank-Benutzer.
    Offenbar nicht. Mysql ist da ziemlich akkurat. Möglicherweise stimmt mit dem SQL-Server etwas nicht. (Ich hatte da mal ein ähnliches, aber nur temporäres Problem.)

    Kurzum: Die richtige Adresse wäre nach dem neuen System ein Ticket zu dem Thema zu erstellen - falls es sich nicht inzwischen von selbst erledigt hat.

    PS: Ist es denn möglich, dich mit dem Benutzernamen und Passwort über das phpMyAdmin-Interface anzumelden?
  • in: php Daten aus Tabelle entnehmen

    geschrieben von noxious

    sidezockinglp schrieb:
    Hey @noxious , wow danke für die tolle und ausführliche Antwort. Viel neues gelernt und funktioniert soweit. Ein Frage noch: Du sagst ja öfter dass man die im realen nicht einfach so ausgeben sollte. Wie sollte man dass dann machen? Ist das weil man den Datentyp erst checken muss, oder kann man darüber bösartige scripts ausführen? Als konkretes Beispiel mal ein Loginsystem, bei dem ich nach erfolgreichen Login den Namen anzeigen will..

    Grüße
    Wenn du beispielsweise in das von mir gepostete (vollständige) Beispiel in die Tabelle Werte wie
    <b>irgend</b> was <i>komisches</i>
    einträgst und das ein mal absendest, wird dir möglicherweise bewusst, worum es geht: Es öffnet Angriffen wie XSS und ähnlichem die Tür. Die Liste, was dort schief gehen kann, ist quasi endlos.

    Was man da genau machen sollte, ist vom Fall abhängig. In den meisten Fällen prüft man es so restriktiv wie mögich - sollte in einem Feld also nur eine Zahl drin stehen, könnte man dies mit intval sicher stellen. Ansonsten sind PCRE-Funktionen ein häufiges Mittel, um mittels Regulären Ausdrücken den Inhalt auf Validität zu überprüfen. Zudem gibt es die Funktion htmlspecialchars*, welche ich persönlich aber bestenfalls zur korrekten Darstellung von Sonderzeichen verwende. Ein weiterer, häufig gemachter Fehler ist die falsche Verwendung von Vergleichsoperatoren - PHP hat als untypisierte (Oder: Dynamisch typisierte) Sprache zwei unterschiedliche Vergleichsoperatoren: Den
    ==
    , welcher überprüft, ob beide Inhalte gleichwertig sind und
    ===
    welcher überprüft, ob beide Variablen den gleichen Wert und den gleichen Typ haben. Das Problem entsteht dann, wenn in einem Wert beispielsweise "0EinSTring" steht und dieser mit 0 verglichen wird, ergibt der
    ==
    -Operator einem true (wahr) zurück, während der
    ===
    -Operator false (falsch) zurück gibt. Das liegt daran, dass der
    ==
    -Operator den String "0String" versucht in eine Zahl umzuwandeln - und da eine 0 drin vorkommt, nimmt er an, dass es 0 ist. Das kann zu gefährlichen Ergebnissen führen.

    Das Problem an der Sache ist: Es gibt leider kein Universalrezept, welches man dort anwenden kann. Was genau du zu tun hast, hängt vom jeweiligen Anwendungsfall ab. Ich weiß, das ist ein deprimierende Antwort.
    Um es zu umschreiben: Sorge dafür, dass Dinge, die du ausgibst, nur das enthalten können, was auch darin stehen soll. Willst du einen Benutzernamen darstellen, setze fest, welche Zeichen für einen Benutzernamen erlaubt sind und validiere dagegen. Überprüfe am besten jede einzelne eingabe von Daten auf deren Validität. Nehme niemals an, dass Variablen von externen Quellen das enthalten, was du annimmst.

    Ein kleiner Disclaimer: Ich bin kein PHP-Sicherheits-Profi. Und das Thema ist unglaublich umfangreich - es gibt da so viel zu beachten, dass es nicht möglich ist, hier jede eventualität abzudecken. Abgesehen davon, kenne ich auch nicht jede Sicherheitslücke. Aber ich hoffe ich konnte einen kleinen Einblick in etwaige Problematiken liefern.

    *EDIT: Mir ist da ein kleiner Fehler unterlaufen: Ich habe htmlspecialchars mit htmlentities verwechselt. htmlspecialchars ist ausdrücklich dafür geschaffen HTML-Injection zu vermeiden, während htmlentities für Sonderzeichen verwendet wird.(Während letztere auch HTML-Injection vermeidet.) Dennoch bin ich mir nicht sicher, ob beide Funktionen wirklich sicher sind - ich würde sie also nur verwenden, wenn es unabwendbar ist, dass Sonderzeichen ausgegeben werden.
  • in: php Daten aus Tabelle entnehmen

    geschrieben von noxious

    sidezockinglp schrieb:
    Ich habe eine Tabelle generiert mit einem select input control und 2 Buttons sowie ein paar einfache Textfelder. Ich möchte jetzt erreichen dass ich beim klicken eines Buttons Code ausführen kann der mit den Werten aus der Tabellen Zeile arbeiten kann. Da es ja 2Buttons sind müssten dass auch 2 unterschiedliche Aktionen seit.
    Das hängt stark davon ab, wie das ganze aufgebaut und übertragen wird. Grundsätzlich werden Daten, die an PHP übergeben werden über die Variablen aus Externen Quellen gehandhabt. Darunter speziell $_GET und $_POST. Welche dieser beiden Variablen verwendet wird, hängt davon ab, wie das Formular übertragen wird - angegeben im HTTP-Form-Tag, zum Beispiel
    <form method="GET">
    für Variablen, die über die URL weiter gegeben werden oder
    <form method="POST">
    für Variablen, welche im HTTP-Content-Bereich übertragen werden. Für Formulardaten verwendet man im Regelfall die POST-Variante, da dies unübersichtliche URLs vermeidet und bei der Verwendung von SSL automatisch verschlüsselt wird. Es gibt jedoch auch Fälle, wo die Übertragung über GET sinnvoll sein kann - das hängt immer vom Anwendungsfall ab.

    Der Zugriff auf diese Variablen gestaltet sich relativ einfach: Über
    $_GET['feldname'];
    bekommt man Zugriff darauf.
    Wenn man nun eine Tabelle hat, hängt die Art des Zugriffs auf die Daten stark davon ab, wie das Formular organisiert ist. Du könntest sie beispielsweise mit
    <input name="feldname[]">
    unsortiert in ein Array übertragen - wobei sich nicht sicher feststellen lässt, welche Zeile nun an welcher Stelle steht. Hat man nun eine Zweidimensionale Tabelle, kann man weiter mit
    <input name="feldname[][]">
    und so weiter arbeiten. Wenn die Positionen der Zellen wichtig sind, kann man mit etwas wie
    <input name="feldname[zeile1][spalte1]">
    arbeiten.

    Der Zugriff innerhalb von PHP gestaltet sich dann wie bei jedem anderen Array.
    <?php
    foreach($_GET['feldname'] as $zeilenname => $zeileninhalt){
        foreach($zeileninhalt as $spaltenname => $spalteninhalt){
            echo "In Zeile " . $zeilenname . " in Spalte " . $spaltenname . " steht " . $spalteninhalt . "<br/>";
        }
    }
    
    // Alternativ
    
    echo $_GET['feldname']['zeile1']['spalte1'];
    ?>

    (Natürlich sollte man im realen Anwendungsfall niemals ungefiltert Variablen ausgeben, welche über POST oder GET übertragen werden!)

    Ohne den speziellen Fall zu kennen, kann man leider nicht genauer darauf eingehen.

    Ein einfaches, vollständiges Beispiel mit einer 5x5-Tabelle:
    <!DOCTYPE html>
    <html lang="de">
        <head>
            <title>Tabellentest</title>
            <meta charset="utf-8">
        </head>
        <body>
            <form method="post">
                <?php
                    for($zeile = 1; $zeile < 6; $zeile++){
                        for($spalte = 1; $spalte < 6; $spalte++){
                            echo '<input type="text" name="feldname[zeile'. $zeile .'][spalte' . $spalte . ']"/>';
                        }
                        echo "<br/>";
                    }
                ?>
                <input type="submit" value="senden"/>
            </form>
    
            <?php
    
            if(array_key_exists('feldname', $_POST)){
                foreach($_POST['feldname'] as $zeilenname => $zeileninhalt){
                    foreach($zeileninhalt as $spaltenname => $spalteninhalt){
                        echo "In Zeile " . $zeilenname;
                        echo " in Spalte " . $spaltenname;
                        echo " steht " . $spalteninhalt;
                        echo "<br/>";
                    }
                }
                // Alternativ
    
                echo "In Zeile 1, Spalte 1 steht : " . $_POST['feldname']['zeile1']['spalte1'] . "<br/>";
            }
            ?>
        </body>
    </html>
    Auch hier gilt wieder: Dies ist ein reiner Übungsfall - für reale Anwendungen sollten NIEMALS ungeprüft irgendwelche Benutzergenerierten Eingaben als Augabe verwendet werden.
  • in: Zugriff auf Sessions

    geschrieben von noxious

    muellerlukas schrieb:
    Nicht vergessen: Seit PHP 5.3 (oder so um den Dreh rum) kannst du auch einige Änderungen über eine ".user.ini" und eine ".htaccess" vornehmen. Je nachdem wie PHP auf deinem Webserver eingerichtet ist.
    Du kannst ja beides anlegen. Dann bleibt deine Anwendung auch portabel.
    Nun, das einzige was möglicherweise dagegen spräche wäre, dass eine Version von PHP vorzuschreiben ist ja im wesentlichen wieder eine Restriktion was die Portabilität angeht. Natürlich ist es fraglich, ob eine PHP-Version früher als 5.3 überhaupt noch relevant vertreten ist - aber wenn man das ganze am Ende in irgendein Uralt-Projekt integrieren will und bei PHP schnell mal Dinge obsolet werden, wären die Leute am Ende gezwungen ihr vorhandenes Projekt komplett umzustellen. (Was in dem Fall möglicherweise eine ganz gute Idee wäre...)
    Aber danke für den Tipp. Das mit .htaccess war mir bewusst, aber die .user.ini ist mir neu. Eine möglicherweise interessante Möglichkeit, nicht-invasive Änderungen an der Konfiguration für einzelne Projekte zu realisieren.

    Dennoch favorisiere ich bisher die Token-Lösung. Unter anderem weil ich denke, dass es einfacher wäre, eine PHP-Session über einen Websocket zu "Bruteforcen" als über einzelne Seitenaufrufe, zum anderen weil ich denke es ist sicherer, so wenig wie möglich mit PHP-Sessions um sich zu werfen.

    Aber vielen Dank für den Hinweis.
  • in: Ein anderes Wort für - die Synonym-Lexikothek

    geschrieben von noxious

    Also um nicht die Kritikpunkte von vorher zu wiederholen...

    Ein weit verbreiteter Fehler im Webseiten-Stil: Die Farben werden nicht ordentlich gesetzt. Es gibt offenbar viele Annahmen, welche über das Besuchersystem gemacht werden, welche nicht immer zutreffen. Zum Beispiel die Text-Farbe im Suchfeld - welche als standardmäßig "Schwarz" angenommen wird, bei mir aber beispielsweise (Durch ein Dark-Theme) auf Weiss steht. So sehe ich nicht, welchen Text ich suche. Die Vordergrundfarbe des
    input
    -Feldes ist genau genommen undefiniert.

    Wenn man die Hintergrundfarbe eines Elements festlegt, sollte man immer auch die Vordergrundfarbe festlegen.
  • in: Zugriff auf Sessions

    geschrieben von noxious

    hackyourlife schrieb:
    Der wichtigste Unterschied ist, dass eine »Session« für längere Zeit bzw. über mehrere Anfragen hinweg besteht, während der vorgeschlagene (Einmal-)Token nach einmaliger Benutzung »verbraucht« wird / seine Gültigkeit verliert.
    Ein interessanter Aspekt, über den ich bisher noch nicht nachgedacht habe. Wobei ich mir erst nicht sicher war, ob ich das überhaupt möchte, bin ich nun überzeugt, dass dies durchaus hilfreiche Nebeneffekte haben kann. Vielen dank für den Hinweis.

    hackyourlife schrieb:
    Wenn du sowieso eine Datenbank nutzt, dann ist dieser Ansatz nicht sinnvoll. Gemeint war, dass der PHP-Code eine Verbindung zur C++-Anwendung aufmachen könnte (z.B. per UNIX-Socket) und ihr Token + User übermitteln könnte, sodass die C++-Anwendung völlig ohne Datenbank diese Zuordnung temporär in einer Datenstruktur im Speicher halten kann. Da aber offenbar sowieso eine Datenbank zum Einsatz kommt ist das wohl kaum sinnvoll.
    Richtig, eine ähnliche Idee hatte ich auch schon. Wie schon gesagt aus genau diesem Grund hab ich das beiseite gelegt. Aber vielleicht bringt das ja einen späteren Leser ein mal voran.

    hackyourlife schrieb:
    Das ist eine Möglichkeit, eine andere wäre z.B. die Option
    session.save_handler
    in der php.ini und da z.B. einen memcached zu konfigurieren. Oder eben Dateien nutzen und einen passenden Pfad festlegen, auf den auch deine C++-Anwendung Zugriff hat.

    Falls du tatsächlich die PHP-Session direkt in der C++-Anwendung nutzen willst (z.B. via memcached, gemeinsamen Session-Ordner o.ä.) muss dir klar sein, dass du dann den Inhalt der Session lesen können musst. Wenn ich mich recht erinnere ist das eine PHP-serialisierte Version von
    $_SESSION
    .
    Änderungen an der php.ini oder ähnliches würde ich jedoch gerne aus Gründen er portabilität vermeiden. Deshalb würde ich gerne so wenig wie möglich "invasive" Einstellungen vornehmen. Es wäre schön, wenn man das Projekt am Ende ohne größere Probleme einfach von System-A zu System-B portieren könnte, ohne sich besonders viele Gedanken darüber machen zu müssen, wie nun der (möglicherweise schon laufende) Webserver konfiguriert ist.

    Das Festlegen eines Pfades für die Dateien ist auch eine Möglichkeit, die ich bisher noch nicht in Betracht gezogen habe - danke für. Obwohl die Funktion
    session_save_path
    ja eigentlich ziemlich offensichtlich ist. Damit wäre dann zumindest der Speicherort der Sessions nachvollziehbar und etwaige system-spezifische Einstellungen wären überschrieben. Auch, wenn ich in diesem speziellen Fall bisher zu der Token-Lösung tendiere, könnte das doch in Zukunft irgendwann mal hilfreich sein.

    Ein weiteres Thema auf welches du mich gebracht hast ist die ganze "memcached"-Geschichte. Auch, wenn mein Projekt bisher eher klein ausgelegt ist, sollte man sich doch so viel Platz nach oben frei halten wie möglich. Aber da das Thema für mich relativ neu ist, werde ich mich da wohl mal genauer rein lesen müssen.

    Also vielen Dank für die Hinweise.
  • in: Zugriff auf Sessions

    geschrieben von noxious

    hackyourlife schrieb:
    Wenn du die Session-ID zum Benutzer in der Datenbank speicherst, musst du jedenfalls daran denken, dass ein Nutzer mehrere aktive Sessions (und daher auch mehrere gültige Session-IDs) gleichzeitig haben kann. Also eher Nutzer zur Session speichern. Und dann nicht vergessen, dass Sessions ablaufen und/oder zerstört werden, also musst du auch wieder aufräumen.

    Ja, ich schätze das sollte an sich nicht das große Problem darstellen. Die Benutzer-ID muss ja nicht eindeutig sein. Das mit dem Aufräumen ja ein einfaches
    DELETE
    auf alles wo der aktuelle aktuelle Zeitpunkt > Ablaufzeitpunkt. (Im Zweifelsfall per cronjob)

    hackyourlife schrieb:
    Eine Standardlösung für dein Problem ist übrigens die Nutzung von Tokens: wenn die Webseite aufgerufen wird, wird ein Token erstellt und dazu gespeichert, um welchen Benutzer es sich handelt (oder der Token wird C++-Anwendung direkt gegeben und dort im Speicher [z.b. in einer Hashtabelle] gehalten, wie auch immer). Dieser Token kommt in die Webseite und wird vom JavaScript zur Authentifizierung genutzt. Die C++-Anwendung bekommt den Token somit per Websocket und kann herausfinden, welchem Benutzer er gehört. Wurde der Token einmalig benutzt ist er ungültig, wurde er innerhalb von x Minuten (z.B. 5min) nicht benutzt läuft er ebenfalls ab (? Token wieder löschen).

    Okay, aber das klingt mir auch wieder nach einer Anwendung von (sehr kurzlebigen) Session-Äquivalenten. Nicht, dass ich die Idee verwerfen würde - wie ja schon eingangs geschrieben, ist das eine Lösung, die ich auch schon ins Auge gefasst habe. Oder ist da ein wesentlicher Unterschied zwischen "Token" und "Session", den ich aktuell nicht durchschaue?

    Könntest du näher ausführen, wie du "oder der Token wird [der] C++-Anwendung direkt gegeben und dort im Speicher [...] gehalten" meinst? Ich hatte schon über Lösungen via IPC nachgedacht - die bestmögliche Variante um sowas umzusetzen die ich bisher gefunden habe war Unix-Sockets zu verwenden und das ganze von PHP quasi auf einem Nebenkanal zu übergeben. Erschien mir bisher jedoch als unnötig kompliziert - da in dem Projekt so oder so Datenbanken verwendet werden.

    hackyourlife schrieb:
    Damit bist du völlig unabhängig von PHP-Sessions o.ä. (ich gehe mal davon aus, dass du PHP-Sessions o.ä. meinst, denn der Webserver selbst hat normalerweise keine Session).

    Natürlich, ich meinte PHP-Sessions - wobei ich tatsächlich bisher fälschlicherweise den Webserver als verantwortlichen im Kopf hatte. (Obwohl es jetzt, wo du es erwähnst natürlich klar ist.) Zumindest scheint es zumindest inkonsistenzen beim Speicherort/Format zwischen unterschiedlichen Webservern/Betriebssystemen/PHP-Versionen zu geben. Zumindest scheinen die Sessions zwischen Lighhtpd/Apache bzw. Arch/Debian unterschiedlich gespeichert zu sein.

    hackyourlife schrieb:
    Ansonsten gibt es auch Möglichkeiten um die Session-Daten direkt von PHP (o.ä.) in einer Datenbank speichern zu lassen. Ob man das für deinen Zweck nutzen will oder nicht ist halt die Frage.

    Das einzige was ich dazu gefunden habe, wäre via
    session_set_save_handler()
    , etc. die entsprechenden Funktionen zu überschreiben. Habe ich da irgendwas (einfacheres?) übersehen?
  • in: Zugriff auf Sessions

    geschrieben von noxious

    Erstmal vielen Dank für die Antwort.

    Wenn ich das richtig verstanden habe, würde ich das in etwa so lösen:
    Beim Login des Benutzers wird seine aktuelle SessionID in die DB mit den Login Daten geschrieben.

    Die Überlegung hatte ich auch schon, diesen speziellen ansatz aber wieder verworfen - da man in solch einem Fall auch gleich ein komplettes Datenbank-Basiertes Session-System basteln könnte. Letztenendes fällt mir kaum ein Fall ein, in dem in der Session wesentlich mehr als eine Verknüpfung der Session-ID mit einem Benutzer stehen müsste. (Und natürlich ein Ablaufzeitpunkt...)

    Ich sehe also keinen wirklichen Vorteil darin, die Session-ID mehrfach zu speichern. Oder übersehe ich da was?

    Alternativ dazu habe ich noch etwas gefunden, was eventuell auch funktioniert, vielleicht ist da was dabei.
    https://www.webtoolkit.eu/wt
    http://cppcms.com/wikipp/en/page/tut_sessions

    Das erste sieht interessant aus - auch wenn ich auf den ersten Blick noch keinen wirklichen Nutzen für meinen Fall sehe. Werde ich mir mal genauer ansehen.
    Das Zweite durchschaue ich noch nicht wirklich, scheint aber im wesentlichen ebenfalls schwerlich mit meinem bisherigen Konzept vereinbar. Zudem scheint das ganze den Fokus eher auf Optimierung gegenüber PHP ausgelegt zu sein. Aber möglicherweise findet man dort einen Ansatz, der hilfreich wäre.
    Ich werde mich auf jeden Fall mit beidem mal eingehend befassen und ggf. mein Konzept überarbeiten.

    Vielen Dank für deine Hinweise.
  • in: Zugriff auf Sessions

    geschrieben von noxious

    Hallo,

    ich schreibe grade an einer Anwendung, welche via Websockets mit einer Webseite kommuniziert. Nun stehe ich vor dem Problem, dass der Benutzer sich auf der Webseite zur Nutzung des Dienstes authentifiziert - und diese Authentifizierung an die in C++ geschriebene Anwendung weiter geben soll. Da ich nun aus diversen Gründen nicht unbedingt per Javascript mit Benutzernamen und Passwörtern um mich werfen will, hatte ich geplant, einfach die Session-ID via Websocket an das Programm weiter zu geben.

    Das Problem beginnt da, wo ich nun die Session-ID mit einem Benutzernamen in Verbindung bringen muss. Ich muss also irgendwie die Session-Daten vom Webserver (Apache/Nginx/Lighttpd/etc.) auslesen. Nun stoße ich aber auf das Problem, dass jeder Webserver seine eigenen Vorlieben zu haben scheint, wie und wo er diese speichert. Da ich mich ungern auf einen Webserver festlegen und die Anwendung portabel halten möchte, interessiert mich nun, ob es da irgendwelche Standards oder sogar Bibliotheken gibt, an die man sich halten kann.
    Alternativ könnte ich mir vorstellen, ein eigenes, Datenbank-Basiertes Session-System zu basteln. Da für das Web-Frontend sowieso ein Datenbank-Server vorhanden sein muss, läge dies eigentlich nahe.

    Wie würdet ihr dieses Problem lösen? Fallen euch andere Lösungsansätze ein? Kennt ihr gute Bibliotheken um in C++ Session-Daten von Webservern auszulesen? Oder gibt es da Standards, an die man sich ggf. halten kann?
  • in: Darstellungs-Lags bei Animation

    geschrieben von noxious

    Ohne ein Java-Profi zu sein...

    Es ist relativ undurchsichtig, was du da versuchst. Aber ich versuche mal einige Schlüsse zu ziehen.

    Zum einen weisen Funktionen wie "Sleep" darauf hin, dass du die Funktion von Framerates nicht verstanden hast. Du wartest nicht im Frame, du nimmst die Sekunden, wartest bis diese auf 1 höher als vorher sind und inkrementierst bis dahin eine Frames-Variable. Wenn die vergangene Zeit größer als 1 Sekunde ist, teilst du die aktuellen Frames durch die vergangenen Sekunden und erhälst... Frames per Second. Dann setzt man die Frames und die vergangenen Sekunden auf 0. Und fährt fort. Da wartet man nicht.

    Ähnliches gilt für Framerate-Begrenzer. Man wartet nicht, sondern zeichnet nur, wenn die aktuelle Zeit größer als die gewünschte Zeit ist. Du sagst nicht "mache alles, warte n sekunden, mach dann das nächste", weil du dann immer die FPS + "die Zeit die du gebraucht hast" bekommst. Du updatest deine Daten so oft wie möglich, aber zeichnest nur, wenn die gewünschte Zeit vergangen ist.

    Auch, wenn das sehr vage war, hoffe ich, dass es ansatzweise helfen konnte.
  • in: Web Anwendungen (CMS, Forum, Blog, Wiki, ...)

    geschrieben von noxious

    theglobe schrieb:
    BoxBilling schreibt selbstständig sich wiederholende Rechnungen und schickt auch automatisch Mahnungen raus.
    Was die rechtlich möglichen Mahngebühren auf 0 senkt. Das nenne ich innovativ. Eine Mahnung ohne Mahngebühren find ich immer gut.
  • in: Entwicklungsumgebung für HTML und CSS

    geschrieben von noxious

    Ich persönlich würde empfehlen: Gar keine IDE. Ein einfacher Editor reicht. Dabei bevorzuge ich vi/vim. Kann alles, macht alles. Ist - in meinen Augen - das einfachste und beste Werkzeug überhaupt.
    Ansich ist das aber immer eine Geschmacksfrage.

    Was Atom angeht: Ja, den habe ich zT. auch in gebrauch, aber er ist alles andere als ein Leichtgewicht. Allein seine Basis Electron ist ja - wie bei Sublime Text - schon ein Schwergewicht für sich. Wenn ich also die ganze Zeit einen Browser mitschleppen will, kann ich mich auch gleich auf Lösungen wie Codeanywhere stürzen, welche imho sogar noch schöner sind, da sie zudem auch gleich eine komplette Entwicklungsumgebung bieten - man kann also auf so partiell gefährliche Sachen wie XAMPP oder ähnliches verzichten.
    Aber auch hier nur meine persönliche Meinung.

    Ansich ist also immer die Frage, wie es um die eigenen Bedürfnisse und Voraussetzungen geht. Ich persönlich bevorzuge es, meine Sachen extern laufen zu lassen - auf einem Raspberry Pi. Aber dafür muss man dann schon ~50€ in die Hand nehmen. Wobei die Dinger bei mir eh rumliegen, also... Warum nicht. Den Server-Root dann per sshfs ins Homeverzeichnis gemounted und vim als Editor... Perfekte Arbeitsumgebung - für meine Belange.

    Von XAMPP würde ich persönlich abstand nehmen, da es sich dabei - wie auch auf der Webseite gewarnt wird - nur um eine Testumgebung handelt. Wem aber eine reine Testumgebung reicht, der braucht dazu gar keine großen Pakete wie XAMPP, sondern kann sich auf den Internen Webserver von PHP berufen. Auch nicht meine erste wahl, aber ist in etwa Äquivalent zu XAMPP, aber dafür deutlich leichtgewichtiger.

    Noch mal zum Schluss: Nein, ich will keine der anderen Lösungen schlecht machen. Wie schon gesagt, hängt die Wahl der Mittel von den jeweiligen Vorzügen ab. Ich kann also nur meine persönlichen Vorzüge darstellen. In anderen Situationen können also andere Dinge besser sein.
  • in: Dieselgate / Abgasskandal

    geschrieben von noxious

    oportal schrieb:
    Ich halte die Änderung des Motors sinnvoll, da hier schwieriger manipuliert werden kann als mit einer neuen Software.
    Fahrverbote gehen meines Erachtens nicht, da sich ja viele Leute neue Fahrzeuge kaufen müssten, die sie sich nur schwer oder gar nicht leisten können.
    Puh, schwierige Angelegenheit.

    Zum einen ist es natürich unhaltbar. Ich persönlich würde solche Konzerne am liebsten schließen lassen. Aber leider hängen daran auch viele Jobs. Und wie man das so kennt, sind ja höhstwahrscheinlich die Verantwortlichen am Ende jene, die am wenigsten darunter zu leiden haben.

    Das heißt leider: Nach der aktuellen Gesetzeslage würden jegliche Maßnahmen die gegen den Konzern gerichtet werden, höchstwahrscheinlich hauptsächlich die Bevölkerung treffen. Da es sich dabei auch noch um wichtige DAX-Unternehmen handelt, wäre der Schaden wahrscheinlich noch deutlich größer, als auf den ersten Blick abzusehen wäre.

    Also ist da nach der aktuellen Gesetzeslage denke ich kaum eine wirklich sinnvolle Konsequenz zu ziehen - und das ist es markabererweise wohl, was die Leute, die sowas machen, im Hinterkopf hatten.

    Wenn man nun also ein Fahrverbot durchsetzt, schadet das dem Unternehmen und dem Volk - massiv. Denn das Volk wird sich neue Autos kaufen müssen - und sicher nicht wieder eines von den betroffenen unternehmen. Kurzum: Sie wären von heute auf morgen wahrscheinlich pleite. Denn der Imageschaden wäre wohl kaum wieder gut zu machen. Aber dafür zahlen letztenendes nicht die verantwortlichen - die oberen Etagen der entsprechenden Konzerne werden wahrscheinlich mit Millionen aus dem Konzern entlassen. Während der kleine Arbeiter seinen Job verliert und gar nichts mehr hat.

    Ich würde also - wenn das Gesetz dies zulassen würde - erstmal damit anfangen, die verantwortlichen aufzudecken. Und dann ein Strafverfahren gegen diese einleiten. Gefängnisstrafe und Entschädigung aus deren Tasche an alle betroffenen - wovon diese sich dann ggf. neue Autos oder gar Motoränderungen leisten können. Den Konzern ansich bis auf weiteres in staatliche Obhut geben, bis entsprechende Leute ersetzt wurden.

    Aber ich fürchte, dass dies so nicht passieren wird. Viel mehr wird wahrscheinlich schlicht der eine oder andere aus dem Vorstand entlassen - mit einer gewohnt hohen Entschädigung und es werden neue Leute eingestellt, welche dann so weiter machen, wie gewohnt. Eventuell entstehende Kosten werden auf Kosten der Belegschaft gehen. Und dann kommen irgendwann wieder Rettungsschirme zum Einsatz, welche dann DAX-Unternehmen stützen müssen, um die Wirtschaft stabil zu halten.

    Kurzum: So oder so sind wir die angeschmierten.
  • in: Nutzung von Werbeblockern, trotz kostenfreier Inhalte

    geschrieben von noxious

    kalinawalsjakoff schrieb:
    Es geht ja nicht prinzipiell um Kunst alleine, es geht auch um normale Webangebote. Der Eröffnungsthread hat das ja schon ganz gut dargestellt. Content muss produziert und veröffentlicht werden - egal ob es Kunst ist oder irgend ein Artikel zu irgend einem Thema. Das heist, daß da irgend ein Mensch Zeit in die Hand nimmt, recherchiert, schreibt, irgendwas herstellt oder sonst irgendwas. Artikel wollen geschrieben werden, ein Video mit Animationen will gerendert werden, ein Foto muß noch aufbereitet werden.
    Auch hier gilt: Ich will nicht die Katze im Sack kaufen. Wenn die Werbung vorgeschaltet ist, ich sie also erst sehen muss, um dann ggf. mit dem Inhalt nur Müll ausgeliefert zu bekommen.

    Ich sage ja nicht, dass man keine Videos oder Webseiten oder wasauchimmer unterstützen soll. Lediglich die Methodik, etwas bezahlen zu sollen, ohne zu wissen, was man bekommt, halte ich für fragwürdig.

    kalinawalsjakoff schrieb:
    Nicht jeder Fotograf oder Sänger kann sein Zeug kostenlos unter Creative Commons veröffentlichen und für jeden Hanswurst aus Hintertupfingen editierbar machen.
    Das absolute Gegenteil ist der Fall. Jeder kann unter Creative Commons lizenzieren. Was nicht jeder kann ist sich einen Anwalt leisten, der im Falle einer anderen Lizenzierung seine Rechte durchsetzt. Wenn man nicht will, dass etwas für andere editierbar ist, hat Creative Commons auch hier eine Alternative parat: CC-by-nc-nd.

    kalinawalsjakoff schrieb:
    Wenn das sop währe, dann gäbe es nicht diese Vielfalt an Kunst. Eben aus diesem Grund gibt es Anbieter wie Youtube, wo man die Masse erreichen kann und sein Zeug dort zu hosten um da mit Werbung auch noch ein bisschen zu verdienen. Ud ein paar Sekunden Werbeclips zu gucken kann man durchaus nachvollziehen, wenn man diesen Hintergrund kennt.
    Du meinst also, den Zugang für Leute zu erschweren, erhält die Vielfalt der Kunst? Ist es nun schon so weit, dass Kunst mit Monetarisierung dieser gleich gesetzt wird? Im ernst?

    Man kann auch mit Creative Commons Geld verdienen. Man kann auch vor Creative Commons Werbung schalten. Es wird nur für gewöhnlich nicht gemacht. Weil Creative Commons wirklich die Freiheit der Kunst begünstigen und nicht die Profitgier etwaiger Konzerne befriedigen soll.

    Allerdings wollte ich gar keine Grundsatzdiskussion über "Creative Commons oder nicht" lostreten. Ich habe nur erwähnt, dass Musikvideos dadurch, dass ich lieber Creative Commons höre, nicht nennenswert von Werbung betroffen sind.

  • in: Nutzung von Werbeblockern, trotz kostenfreier Inhalte

    geschrieben von noxious

    muellerlukas schrieb:
    noxious schrieb:
    weitere 5% sogar nur die Darstellung von fremden Inhalten. Nichts, was es rechtfertigen würde, diese Menschen finanziell zu unterstützen

    Da muss man fair sein:
    Wenn Werbung vor einem fremden Video, Song, etc läuft muss nicht der Uploader dahinter stecken.
    Der Rechteinhaber kann bei YouTube u.a. einstellen ob er den Inhalt sperren, die Tonspur abschalten oder Werbung anzeigen lassen will.
    Wählt er die Werbung wird die Provision dem Inhaber und nicht dem Uploader gutgeschrieben.
    Dafür müsste die Verletzung bekannt sein. Aber ja, vor allem bei Musik mag das der Fall sein. Aber ich sprach eher von anderen Fällen. Da ich mich hauptsächlich auf das hören von Musik unter CC-by-nc konzentriere, fällt das dort nicht so ins Gewicht.

    Aber auch hier gilt meiner Meinung nach dasselbe Prinzip: Ich halte es für absolut unseriös, für etwas zahlen zu müssen, ohne die Qualität einschätzen zu dürfen. Ob diese Praktiken nun vom Video-Uploader ausgehen oder von jemand anderem, ist ja unerheblich.
  • in: Nutzung von Werbeblockern, trotz kostenfreier Inhalte

    geschrieben von noxious

    Also ich muss sagen: Die Kommerzialisierung von Kunst ist etwas, was ich schlicht nicht unterstützen möchte. Zudem ist dieses "Werbung vorschalten" schlicht etwas, was ich für vollkommen unseriös halte. Ich soll für etwas bezahlen, ohne zu wissen, ob der Inhalt es auch wirklich wert ist? Aus Sicht von Clickbait-Anbietern sicher ein erfolgreiches Konzept - vor allem, weil man das ansehen von Werbung ja schlecht zurück fordern kann.
    Des weiteren ist mir noch nie ein Video unter gekommen, bei dem Werbung vorgeschaltet war, wo der Inhalt das ansehen dieser Werbung rechtfertigen würde. Schätzungsweise 90% davon sind Clickbaits, 5% selbstdarstellerisches, inhaltleeres Gefasel und weitere 5% sogar nur die Darstellung von fremden Inhalten. Nichts, was es rechtfertigen würde, diese Menschen finanziell zu unterstützen - und ganz sicher nichts, wo irgendjemand auch nur eine Träne hinterher weint, wenn es verschwindet.

    Wenn es für diese Leute also so schwer ist, Videos zu produzieren, dass sie Webrung vorschalten müssen, sollten sie sich möglicherweise Tipps bei all jenen holen, welche es schaffen, qualitativ hochwertige Videos zu produzieren, ohne auf solche zwielichtigen Praktiken zurückgreifen zu müssen.

    Ich für meinen Teil werde auch weiterhin meinen Werbeblocker nur dort deaktivieren, wo ich auch sicher bin, dass der Inhalt es wert ist.
  • in: Externe SSD als PC zur mitnahme?

    geschrieben von noxious

    Grundsätzlich würde ich sagen: Ist nicht so ohne weiteres möglich. Schlussendlich müsstest du dann eine Installation für jede vorhandene CPU-Architektur installieren. Abgesehen davon, dass mir zumindest kein Betriebssystem bekannt ist, welches für jede CPU-Architektur veröffentlicht wird ist man zumindest daran gebunden, dass dies nur auf einer begrenzten Anzahl von Systemen laufen wird - bei Windows allgemein also im wesentlichen beschränkt auf x86, x86-64 und im begrenztem Maße ARM. Bei Linux könnte man sich mit ein wenig Aufwand eine längere Liste von Architekturen zugänglich machen, aber auch das ist dann nur eine Ausweitung des Feldes - eine umfassende Installation, welche überall läuft, wird man kaum bewerkstelligen können.

    Allerdings kann man - wenn man das Zielsystem kennt - sich natürlich darauf vorbereiten. So lässt es sich ggf. einrichten, dass man zumindest zwei Rechner relativ zuverlässig über eine Platte steuern kann. Allerdings bleibt da das Problem der Aktivierung...

    Aber da stellt sich mir die Frage des Sinns. Hat der andere keine Festplatte? Geht es um die Geschwindigkeit einer SSD? Geht es einfach darum, die Arbeitsumgebung, Dokumente, Musik, Spiele, etc mit zu nehmen? Möglicherweise gibt es ja andere, bessere Alternativen.

    Ansich würde ich also burgi zustimmen: Wenn ich einen PC mitnehmen will, nehme ich einen PC mit. Im Regelfall einen Laptop, da diese "Mini-PCs" meiner Erfahrung nach meistens einfach nicht die Leistung bringen, die ich haben will. (Ohne die explizit vorgeschlagenen zu kennen.)

    Wenn es um Dokumente/etc. geht, binde ich die über's Netzwerk (sshfs) ein und bei Spielen... Naja, da benutze ich meist Plattformen wie Steam, wo man sich kurzzeitig auch bei anderen anmelden und dort die entsprechenden Spiele spielen kann - wenn die Leistung auf dem Zielsystem nicht ausreicht, ist oft sogar ein Streaming von meinem Heim-PC möglich. Was die Arbeitsumgebung angeht, ist bei Windows denke ich wenig raus zu holen. Aber da ist ja auch wenig zu individualisieren. Da reicht denke ich im wesentlichen ein Benutzerkonto, um ein mal die entsprechenden Einstellungen auch dort vorzunehmen.
  • in: Qt Passwort mit Passwort Hash aus Datenbank vergleichen

    geschrieben von noxious

    Optimalerweise baut man sich dafür eine eigene Funktion, welche für jedes Passwort einen neuen Salt generiert und verwendet keine weit verbreitete Lösungen, die mögliche Ziele für Hacker sein könnten und bald wieder veraltet sind ...
    Security by obsucrity ist also wieder "in"? Ist das nicht im wesentlichen ein wenig widersprüchlich zu Kerckhoffs' Prinzip?
  • in: Seitenaufrufe mitzählen

    geschrieben von noxious

    Vom Ding her willst du folgendes tun:
    - Überprüfen, ob Datei existiert:
    if(file_exists'('.counter.txt')){ //...}

    - Variable aus Datei einlesen
    $counter = file_get_contents('.counter.txt');

    - Variable erhöhen
    $counter++;

    - Variable in datei schreiben.
    file_put_contents('.counter.txt', $counter);


    Zusammen könnte das in etwa so aussehen:

    <?php
        // Auf 0 setzen, falls Datei nicht existiert
        $counter = 0;                                   
        // Dateinamen festlegen
        $filename = '.counter.txt';
        // Überprüfen, ob Datei exstiert
        if(file_exists($filename)){
            // Wenn Datei existiert: Variable holen
            $counter = file_get_contents($filename);
        }
        // Variable erhöhen
        $counter++;
        // Variable in Datei schreiben
        file_put_contents($filename, $counter);
    ?>

    Willst du die Variable nun ausgeben, musst du nur noch
    - Überprüfen, ob die Datei existiert
    if(file_exists'('.counter.txt')){ //...}

    - Die Variable aus der Datei einlesen
    $counter = file_get_contents('.counter.txt');

    - Die Variable ausgeben
    echo $counter;

    Was dann in etwa so aussehen könnte:
    <?php 
        // Counter auf 0 setzen, falls Datei nicht existiert
        $counter = 0;
        // Dateinamen festlegen
        $filename = '.counter.txt';
        // Wenn Datei existiert
        if(file_exists($filename)){
            // Zählerstand aus Datei einlesen
            $counter = file_get_contents($filename);        
        }
    ?><!DOCTYPE html>
    <html>
        <head>
            <title>Counterausgabe</title>
        </head>
        <body>
            <p>Der Counter steht bei <?php echo $counter; // Zähler ausgeben ?></p>
        </body>
    </html>
  • in: Vault7 - CIA-Leaks

    geschrieben von noxious

    xn--94h schrieb:
    So eine Überraschung die CiA überwacht leute.
    Also ehrlich das sollte jeden klar sein
    Wiso sollte die cia anders sein wie die nsa?
    Weil die CIA eigentlich HUMINT und nicht wie dia NSA SIGINT ist? Weil es da eigentlich eine mehr oder weniger klare Zuständigkeitsgrenze gibt?

    Leider ist es seitdem jeder sein Smartphone bei sich trägt so, dass die Aufgabenbereiche langsam verschmelzen.


  • in: TOR - Noch sicher?

    geschrieben von noxious

    jonas-bayer schrieb:
    Dem wollte die Regierung nicht entgegenkommen und ihre geheimen, wahrscheinlich illegitimen Methoden nicht öffentlich machen. Anscheinend wurde eine Art Virus (oder wie auch immer man das in diesem Fall nennt) auf die TOR-Website mit den Kinderporno-Inhalten aufgespielt, der im folgenden die PCs aller Seitenaufrufer infizierte.
    Was ja im wesentlichen wenig mit der Sicherheit von TOR, sondern mit der Sicherheit von Browsern/Betriebssystemen zusammen hängt. Wenn man einen Virus/Trojener/Whatever auf ein System bekommt, bringt dir TOR, was ja im wesentlichen nichts mit Sicherheit, sondern mit Anonymität zu tun hat, wenig bis gar nichts.

    jonas-bayer schrieb:
    Nun stellt sich natürlich zum einen die Frage, inwiefern das Verhalten von US-Justiz und Regierung gerechtfertigt sind. Was ich aber eigentlich hier interessanter zu diskutieren fände ist, wie es denn mit der Sicherheit von TOR überhaupt noch aussieht.
    TOR ist ein Anonymisierungswerkzeug. Es dient nicht dazu, Straftaten zu verschleiern, sondern im wesentlichen, das breitbandige identifizieren von Nutzern bis zur unwirtschaftlichkeit zu erschweren. So lässt sich ein einzelnes Individuum - wenn an dann unbedingt möchte - wie fatfox richtig schrieb, trotz aller Maßnahmen zurück verfolgen.

    Ob TOR noch den erwarteten Rahmen von Anonymität bietet, hängt also stark davon ab, welche Erwartungen du daran hast, und wie dringend jemand "genau dich" finden will. Geht es beispielsweise darum, dass du in der Türkei mit vielen anderen zusammen eine Meinung gegen Erdogan ins Netz stellen willst, wäre der Grad der Anonymität sicher noch ausreichend. Willst du den US-Präsidenten ermorden, könntest du aber Probleme bekommen.
  • in: Browser Screen recording für firefox?

    geschrieben von noxious

    Du meinst sowas? Das sollte nun wirklich nicht so schwer zu finden sein...

    Nachtrag: Ehm... Frage offenbar falsch verstanden. Für Windows gibt es da Capture Fox. (Ungetestet)
  • in: Wie man sein System (ohne Virenscanner) sauber hält

    geschrieben von noxious

    all-in1 schrieb:
    Die Schulung der Mitarbeiter sollte man nie vernachlässigen.

    Nur die Versicherungen werden keinen Schaden zahlen, wenn ein Virenscanner und andere Schutzmassnahmen nicht installiert sind.

    Rechtliches und technisches liegen da mal wieder weit Auseinander.
    Das mag bei entsprechenden Verträgen der Fall sein - ändert aber ja nichts daran, dass man hier sicher mit eben oben genannten argumentieren könnte, um eben einen entsprechenden Versicherungsvertrag zu erhalten. Wenn es tatsächlich um sensible Daten geht, ist es möglicherweise rechtlich gar nicht möglich, einen Virenscanner zu verwenden. So war beispielsweise während meiner Bundeswehrzeit gar nicht erlaubt, dass dort Virenscanner installiert wurden. (Wobei dort wahrscheinlich auch Versicherungen keine große Rolle spielten.)
  • in: Wie man sein System (ohne Virenscanner) sauber hält

    geschrieben von noxious

    all-in1 schrieb:
    Die Vielzahl aller Internetnutzer sollten dennoch auf keinen Virenschutz verzichten. Ich kenne einen Haufen Leute, die versuchen alles mögliche an Programmen und Apps zu installieren und auf alles klicken, was unter den Mauszeiger kommt. Bei solchen Anwendern ist es dann doch eher empfehlenswert einen Virenscanner zu installieren.
    Das ist denke ich doch eher ein Problem des falschen Umgangs. Es ist in etwa so, als würde man allgemein (beispiesweise) Zuckerhaltige Lebensmittel verbieten - weil ein großteil der Bevölkerung sich falsch ernährt. Ich fände da den Ansatz aus dem Straßenverkehr deutlich hilfreicher: Eine Art Computerführerschein, bei dessen Erwerb die Leute lernen müssen, wie man eben richtig mit diesen Dingen umgeht.

    all-in1 schrieb:
    Firmen, gerade solche, die mit sensiblen Daten umgehen müssen aus versicherungstechnischer Sicht ebenfalls einen Virenscanner installiert haben. Kommt es mal zu einem erfolgreichen Angriff, dann ist die Chance größer, dass die Versicherung den Schaden übernimmt. Keinen Virenscanner zu haben ist in diesem Fall grob fahrlässig.
    Grade in Firmen, die mit sensiblen Daten umgehen, halte ich Virenscanner eher für ein Sicherheitsrisiko - schließlich ist dies Third-Party-Software, welcher Zugriff auf eben diese Daten erlaubt wird. In Fällen von professionellen Angriffen, bringt ein Virenscanner im wesentlichen gar nichts, da hier die Software für gewöhnlich für eine Aufgabe angepasst wird, Virenscanner also grundsätzlich kaum eine Chance haben, diese zu erkennen.
    Eine ordentliche Schulung der Mitarbeiter und ein aktuell halten des Systems sollte hier deutlich effizienter sein.
  • in: Webseite&Werbung = Nicht zwangsläufig Gewerbe!

    geschrieben von noxious

    loichtfoier schrieb:
    Wie gesagt, es gibt mehrere Möglichkeiten Steuer und Gewerbe zu umgehen ohne gegen Recht und Gesetz zu verstoßen. Wer gerade arbeitslos und ein wenig smart ist, der müsste da eine lässige Lösung sehen. Allerdings wäre das ein Widerspruch, denn wer schlau ist, hat auch Arbeit.
    Also im Umkehrschluss sind alle Arbeitslosen dumm? Eine gefährliche Ansicht, denke ich. Was ist mit Leuten, die kurzfristig arbeitslos werden? Werden die dann dumm, kurz darauf wieder intelligent? Oder werden intelligente Menschen gar nicht arbeitslos, weil beispielsweise die Firmen bei denen sie arbeiten, einen heiligen Schutz vor Bankrott/Stellenabbau haben? Was ist mit Krankheits- oder Unfallbedingter Berufsunfähigkeit? Haben nur dumme Menschen unfälle?
  • in: Suche Programm zur Wiedergabebeschleunigung (Video)

    geschrieben von noxious

    loichtfoier schrieb:
    Erst einmal vielen Dank für die Antwort. Und den umfassenden Nachsatz. :prost:

    Kann mir mal einer erklären wieso diese einfache Funktion in den hochtrabenden Videoschnittprogrammen nicht mehr enthalten ist? Ich habe zunächst Avidemux 2.6.17 installiert und nach den Filtern gesucht. Aber nicht gefunden.
    Das ist das Problem mit grafischen Frontends - du musst halt auf jede Forderung eine entsprechende Lösung parat haben - und dies dann noch übersichtlich zu gestalten, ist schwierig. Deshalb bevorzuge ich cli-anwendungen. Dort findest du im wesentlichen alles in der Dokumentation - und ein mal gelernt ist es in der Anwendung deutlich einfacher, als sich durchs GUI zu klicken.
    Ob es die Funktion bei AviDemux oder VirtualDub gibt oder wo, kann ich nicht sagen.

    loichtfoier schrieb:
    Wie gesagt habe ich zwar einen guten Hintergrund in der Informatik, aber Videoschnitt ist nicht so mein Ding. Da verlasse ich mich auf andere. Und bei den vorgenannten "Profis" ist man offenbar verlassen. Dein Tipp zeigte in ersten Test in der Tat den gewünschten Erfolg. Leider habe ich gerade nur mein Notebook (Windows) dabei und bei schnellen Bildwechseln ruckelt das Ergebnis. Was ich meiner Hardware zuschreibe.
    Nun, ruckeln sollte eigentlich nicht vorkommen. Möglicherweise liegt das jedoch daran, dass - wenn du eine Datei konvertierst - bei schnelleren Ergebnissen die Bildrate aber dennoch konstant bleibt. Also werden einige Frames fehlen, was möglicherweise den Eindruck einer flüssigen Bewegung einschränkt.
    Um es bildlich auszudrücken: Wenn du 50 Bilder pro Sekunde in einem Video hast und diese nur schneller abspielst, werden ggf. 100 Bilder pro Sekunde gezeigt. Wenn du jedoch 50 Bilder die Sekunde hast und es konvertierst, hast du am Ende dennoch 50 Builder pro Sekunde - also wird nur jedes zweite Bild angezeigt.
    An der Hardware - sofern der Laptop in der Lage ist, entsprechende Formate abzuspielen - sollte das nicht liegen. Denn ein konvertiertes Video sollte nicht andere Hardware-Anforderungen haben, als ein normales. Es sei denn, der Codec wurde geändert. In der Dokumentation von ffmpeg findest du im Zweifelsfall Informationen, welche dies betreffen, bzw. wie du den Codec auf etwas leichtes einstellst.

    loichtfoier schrieb:
    Zuhause am PC unter Linux sehe ich da keine Probleme. Batch-Programmierung ist auch kein Problem, mein erstes System war IBM-DOS 3.2 irgendwann Ende der 1980'er. Ich könnte sogar noch die Errorlevel hinkriegen. :smile:
    Also hat sich das Problem erledigt?
  • in: Speichergrenze- Alternative Webspaces

    geschrieben von noxious

    xn--94h schrieb:
    Das stimmt nicht man kann den Webspace auch für eine cloud verwenden.
    Ich habe auch nicht behauptet, dass man das nicht kann. Du kannst ein Auto auch schieben. Oder mit einem Flugzeug durch die Gegend fahren. Oder eine Toilette als Sitzmöbel im Wohnzimmer verwenden. Es ist nur lediglich nicht dafür gedacht. Ebenso wenig ist ein Webspace als Cloud-Speicher gedacht - deshalb kostet er halt das vielfache.
  • in: Speichergrenze- Alternative Webspaces

    geschrieben von noxious

    Also zum ersten: Webspace und Cloud sind zwei verschiedene Dinge - mit unterschiedlichen Ansprüchen. Deshalb bekommt man bei Cloud-Diensten wie HiDrive für 20€ auch 2000GB, während man bei Lima-City nur 100GB bekommt. Man zahlt also das 20-Fache bei Lima-City, ohne einen wesentlichen Vorteil.

    Von der Verwendung eines Root/vServers würde ich im Privat-Bereich dringend abraten. Denn du zahlst nicht nur direkt deutlich mehr - du musst auch noch indirekte Kosten für Wartung und Administration einberechnen. Selbst, wenn man das entsprechende Know-How hat, um das alles selbst zu machen, kostet dies Zeit - im nicht unerheblichen maße. Und Zeit ist Geld, wie wir alle wissen.

    Die einfachste Lösung wäre also, auf einen fertigen Cloud-Dienst zu setzen. Es sind entsprechende Server-Infrastrukturen gegeben, welche für eine effiziente Cloud-Nutzung notwendig sind, sie werden von Profis gemanaged und man zahlt deutlich weniger, als bei Lima-City.
    Eine aufwändigere Methode wäre, unterschiedliche Cloud-Dienste zu einem zu verbinden. Wenn ich die Daten verschlüsselt und verteilt über verschiedene Systeme speicher und auf Lima-City quasi nur eine Verwaltungsoberfläche einbinde, wäre das zwar aufwändig, aber sollte machbar sein.
    Wenn es dann unbedingt Webspace sein soll, bekommt man diesen auch deutlich günstiger als bei Lima-City - bei Strato bekommt man 120GB + 3 Domains + SSL-Zertifikat + 50 FTP-Zugänge [...] für 10€ pro Monat, kostet also etwa die Hälfte und man hat mehr (möglicherweise unnötige) features.

    Kurzum: Warum selbst etwas auf einer Plattform aufsetzen, welche nicht dazu gemacht ist, wenn es doch diverse Plattformen gibt, welche günstiger und besser geeignet sind?
  • in: Suche Programm zur Wiedergabebeschleunigung (Video)

    geschrieben von noxious

    Wenn ich richtig verstehe, was du möchtest, dann probiere doch mal ffmpeg.
    ffmpeg -i input.mkv -filter_complex "setpts=PTS/1.25;atempo=1.25" output.mkv
    sollte tun, was du möchtest. Wenn du dies auf mehrere Dateien anwenden möchtest, bietet sich an, das ganze in eine Stapelverarbeitung zu packen.

    Nachtrag: Um die Antwort zu vervollständigen, hier noch ein paar Anweisungen, wie man das ganze relativ einfach in einer Stapelverarbeitung nutzt. Angenommen, alle Video-Dateien liegen in einem Verzeichnis, kann man unter Windows via
    for %i in (*.mkv) do ffmpeg -i %i -filter_complex "setpts=PTS/1.25;atempo=1.25" %i.converted.mkv
    nutzen. Dadurch wird jede Datei auf 125% beschleunigt und in
    alterdateiname.converted.mkv
    gespeichert. Hieß die ursprüngleiche datei also
    Big_Buck_Bunny.mkv
    heißt die neue
    Big_Buck_Bunny.mkv.converted.mkv
    . Die Namensgebung lässt sich natürlich beliebig anpassen.
    Unter Linux ist es ähnlich
    for file in *.mkv; do ffmpeg -i $file -filter_complex "setpts=PTS/1.25;atempo=1.25" $file.converted.mkv; done


    Will man mehr als 125%, ändert man die Parameter von setpts und atempo von 1.25 auf beispielsweise 1.5, 1.7 oder was auch immer. Soweit ich weiß, geht das nicht über 2.0, also will man mehr, wie beispielsweise 350%, teilt man 3.5 durch zwei und lässt das ganze zwei mal durchlaufen - also zwei mal mit dem parameter 1.75. Wie man dies in einer Stapelverarbeitung oder für Werte > 400% macht, überlasse ich als Übungsaufgabe.
  • in: Probleme mit ncat und ssl

    geschrieben von noxious

    Hallo,

    ich versuche eine (bzw. viele) Dateien via ncat zu versenden. Dabei sind eine vielzahl von Problemen aufgetaucht, welche ich nach und nach lösen konnte, bis auf eines: Wenn ich SSL verwende, gibt es ab einer gewissen (unbestimmten) größe der Datei Probleme. Aber zurück auf Anfang.


    Das erste Problem war, dass ich viele Dateien empfangen wollte, ncat aber prinzipiell alles in eine Datei schreiben will. (Bzw. ins Terminal) Eine lösung wäre gewesen, ein Bash-Script zu schreiben, welches ncat ohne keep-open-flag startet, das ganze in einen zufallsgenerierten dateinamen packt und das ganze dann in einer Schleife macht. Problem dabei ist, dass es in der schleife (und beim starten eines neuen Server-Prozesses) immer wieder zu einer geringfügigen Verzögerung kommt, woraufhin auf Clientseite die Verbindung scheitert und Dateien verworfen werden.
    Der keep-open-flag ist also quasi zwingend nötig, was das Problem mit mehreren Dateien aufwarf. Dieses ließ sich lösen, durch die implementierung eines äußerst rudimentären Protokolls, welches die versendeten Dateien in base64 kodiert und dann mit führenden und folgenden Linebreak sendet.
    echo -e "\n$(base64 -w 0 file)\n" | ncat -C host port
    . Dann kann am Ende die Datei mit einem einfachen Script in viele, kleine Dateien zerlegt werden.

    Dann folgte die Idee, das ganze mit SSL laufen zu lassen. Und dort fingen die Probleme an. Erstmal schnell mit openssl schlüssel/zertifikat erzeugt (
    openssl req  -nodes -new -x509  -keyout key.pem -out cert.pem;
    ), den Server via
    ncat -k --listen --ssl-key ssl/key.pem --ssl-cert ssl/cert.pem host port > incoming/filelist
    gestartet - schien zu laufen. Wenn nun der Client via
    echo -e "\n$(base64 -w 0 file)\n" | ncat --ssl -C host port
    eine kleine Datei sendet (wenige Byte) funktioniert auch noch alles wunderbar, aber ab einer gewissen Größe bekomme ich nur noch die Meldung
    Ncat: Input/output error.
    (Auf Clientseite) - was bei
    -vvv
    doch recht wenig ist. Beim Server erhalte ich
    Ncat: Connection from host.
    Ncat: Connection from host:45310.
    NCAT DEBUG: Added fd 4 to list, nfds 3, maxfd 4
    NCAT DEBUG: selecting, fdmax 4
    NCAT DEBUG: select returned 1 fds ready
    NCAT DEBUG: fd 4 is ready
    NCAT DEBUG: selecting, fdmax 4
    NCAT DEBUG: select returned 1 fds ready
    NCAT DEBUG: fd 4 is ready
    NCAT DEBUG: selecting, fdmax 4
    NCAT DEBUG: select returned 1 fds ready
    NCAT DEBUG: fd 4 is ready
    NCAT DEBUG: Added fd 4 to list, nfds 1, maxfd 4
    NCAT DEBUG: selecting, fdmax 4
    NCAT DEBUG: select returned 1 fds ready
    NCAT DEBUG: fd 4 is ready
    NCAT DEBUG: selecting, fdmax 4
    NCAT DEBUG: select returned 1 fds ready
    NCAT DEBUG: fd 4 is ready
    NCAT DEBUG: Closing connection.
    NCAT DEBUG: Swapping fd[2] (4) with fd[2] (4)
    NCAT DEBUG: Removed fd 4 from list, nfds 2, maxfd 3
    NCAT DEBUG: Swapping fd[0] (4) with fd[0] (4)
    NCAT DEBUG: Removed fd 4 from list, nfds 0, maxfd -1
    NCAT DEBUG: selecting, fdmax 3


    Die Frage ist nun: Wo habe ich was falsch gemacht? Hat da jemand eine Idee?
  • in: YouTube Livestream in Homepage einbetten

    geschrieben von noxious

    invalidenturm schrieb:
    Um das Impressum rechtskonform zu gestalten rate ich von derartigen Experimenten, wo dann 13 Anwälte 12 unterschiedliche Meinungen haben, ab. Die meiner Meinung beste Variante ist eine E-Mailadresse, welche ausschliesslich der Kontaktaufnahme bei Problemen dient, im Impressum anzugeben, und diese Mailadresse auszutauschen falls Spam zum Problem wird. Jeder hat doch ein fast unerschöpfliches Kontingent an Mailadressen und eine Korrektur im Impressum ist auch schnell erledigt.

    Für alle anderen auf der Webseite verwendeten Mailadressen sind natürlich die Vorschläge von muellerlukas und kalinawalsjakoff sehr empfehlenswert.
    Vollkommen richtig. Auf der wirklich sicheren Seite ist man, wenn man die Mail-Adresse schlicht angibt. Und ich halte es auch für vollkommen richtig, dass die Mail-Adresse angegeben wird. Denn auch, wenn es dem Betreiber wie eine Impressumspflicht erscheint, ist es doch letztenendes ein Impressumsrecht für den Besucher. Und das gilt nun mal auch für jeden, der einen noch-so-alten browser verwendet, der ggf. kein javascript oder ähnliches unterstützt.

    Kurz gesagt: Email-Adressen müssen maschinen- und damit auch für Spambots lesbar sein.

    Was Spam angeht, gibt es auch Urteile, welche - wie ich finde - in ihrer Argumentation vollkommen nachvollziehbar sind: Wer in der Lage ist, eine Webseite zu betreiben, sollte auch dazu in der Lage sein, einen Spamfilter zu konfigurieren. So ziemlich jeder MUA bietet heutzutage entsprechende Funktionen, bei denen nach relativ kurzem Training Spam zielsicher erkannt wird.
  • in: Bräuchte SEO Tipps für eine Webseite

    geschrieben von noxious

    invalidenturm schrieb:
    [..]also erzähle mir nicht, dass Metas wie Contend und Keywords nicht mehr von Suchmaschinen berücksichtigt werden.
    Ich habe das offizielle Statement von Google verlinkt.(Bzw. das Statement des Leiters der Teams, welcher auif der selben Seite auf das offizielle Statement verweist.) Aber wenn du meinst, das besser zu wissen, als jene, welche bei Google eben dafür verantwortlich sind -- okay.

    invalidenturm schrieb:
    Ja da gebe ich Dir recht, auch Google weist immer darauf hin. Allerdings fand ich die Seite schon ganz gut gelungen, im Text zu anderen Unterseiten verlinken wäre natürlich eine Komforterhöhung und würde vermutlich auch zu einer Verbesserung des Suchmaschinen Rankings führen, auch die Integration einer (XML) Sitemap über wlche die Besucher einen Gesamtüberblick erhalten wäre ratsam.
    Die Seite ist gut, keine Frage. Es sind halt kleinigkeiten, welche noch Potenzial für Verbesserungen haben. Und eben diese können für Suchmaschinen, welche imho echt kleinliche Nutzer simulieren, halt ausschlaggebend sein.
  • in: Bräuchte SEO Tipps für eine Webseite

    geschrieben von noxious

    invalidenturm schrieb:
    Keywords wirken auch heutzutage noch, sofern man sie richtig nutzt.
    Wieso behauptet Matt Cutts, der Chef des Web-Spam-Temas von Google dann, dass Keyword-Mete-Tags von der Suchmaschine ignoriert werden? Ist er ein Lügner?

    invalidenturm schrieb:
    Du kannst ja mal nach "wolfsgebiete" googeln, das ist ein recht geläufiger Begriff. Auf Googles Trefferseite 2 wirst Du dann auf wolfsgebiete.de stossen.
    Du liegst (aktuell) auf Platz 11 von 2710, nordseehorumsiel auf Platz 37 von 7710. 7710/2710*11= 31. Deine Seite wäre - auf einem ähnlichen Markt - also ähnlich schlecht platziert. (Okay, arithmetisch 6 Plätze über der Ferienwohnungsseite.) Du hast dort schlicht den Vorteil, eines weniger umkämpften Marktes.

    Wichtig für SEO ist vor allem eines: Relevanz. Diese erzeugt man durch Verlinkungen, beispielsweise auf anderen Portalen des selben Themas. Das Text/Bild-Verhältnis ist auf der Seite relativ gut. (Es gibt Seiten mit deutich weniger Text, welche dennoch ganz oben bei Google auftauchen.) Was Keyword-Meta-Tags angeht: Sie werden von Google zwar ignoriert, aber nicht jede Suchmaschine wird da mitziehen. Im Zweifelsfall: Immer sparsam einsetzen. Wer weiß, ob nicht irgendwann doch jemand entscheidet, das ganze wieder zu sanktionieren. Zudem halte ich die Anmerkung, dass die Litanei an unwesentlichen Informationen dort wenig Sinn macht, für gar nicht falsch. Auch, wenn das ganze einen nicht sofort auf Paltz 1 erheben wird, oder überhaupt etwas am ranking verändert, sind die Keyword-Tags doch dazu da, um Sinn zu ergeben. Wenn ich also schon Straßennamen in die Keywords nehme, dann doch ausschließlich auf den Unterseiten zu den entsprechenden Wohnungen, die dazugehörige Straße, nicht auf der Hauptseite alle Straßen zusammen.

    Zudem ist denke ich die schlichte "Durchnummerierung" der Ferienwohnungen eher unglücklich. Hier könnte man entsprechende Straßennamen und Hausnummern einsetzen, um es dem Besucher einfacher zu machen, zu erkennen, worauf er da klickt. Denn Suchmaschinen versuchen letztenendes Besucher zu emulieren. Will man die Seite für Suchmaschinen optimieren, sollte man sie für Besucher optimieren. Im Titel der Webseiten ist es besser geregelt, aber auch dort würde ich die schlichte Nummerierung weg lassen. In den Link zur Wohnung am Strandweg 5 also schlicht "Strandweg 5" schreiben, anstelle von "Wohnung 1". Wenn es auch Wohnungen außerhalb von Horumsiel gibt, möglicherweise auch den Ort mit rein nehmen. Wenn es mehrere Wohnungen an der selben Adresse gibt, Zimeranzahl spezifizieren. Und so weiter. Im Titel der Seite der Wohnung halt das "Wohnung 1" raus nehmen und durch relevante Informationen ersetzen - Sowas wie Adresse, Zimmeranzahl, Besonderheiten. "3 Zimmer - Strandweg 5 - Mit Balkon" klingt doch eher nach etwas, wonach man sucht, als "Wohnung 1 - Strandweg 5".
    Zudem sollte möglicherweise auf jeder Seite im Titel der Seitentitel mit drin stehen. Dieser wird mir bei der ganzen Seite nicht ganz klar. Heißt das Unternehmen "FeWO Nordsee"? Dann halt "FeWo Nordsee - Strandweg 5 - 3 Zimmer - mit Balkon" oder ähnliches.
    Der Balkon war jetzt nur ein Beispiel, da der (lt. Angabe auf der Hauptseite) bei jeder Wohnung dabei ist, keine wirkliches Highlight...
    Außerdem sollten natürlich auch die Seitennamen (wohnung1.htm, etc.) dementsprechend angepasst werden.

    Damit kommt man zum nächsten Punkt: Auf der Hauptseite wird (außerhalb der Navigation) zum Restaurant verlinkt, während die Ferienwohnungen nur erwähnt werden. Auch hier würde ich - möglichst dort, wo die Ferienwohnungen erwähnt werden - auch noch ein mal direkt dorthin verweisen. Ich lese mir beispielsweise die Seite durch und muss dann wieder nach oben scrollen, um zu den Ferienwohnungen zu gelangen. Als Besucher eher lästig, weil es den Fluss stört. Wenn dort ein Link wäre, würde ich mir die Hauptseite durchelsen und sehe - Ah, da ist das was ich suche, dort kann ich klicken. Die Suchmaschine fände das sicher auch ganz angenehm, da es aktuell schlicht danach aussieht, als würde da ein Restaurant betrieben, welches nebenbei, manchmal, wenn es Gelegenheit dazu hat, auch mal Ferienwohnungen vermietet. Und so nimmt es Google offenbar auch auf - suche ich nach "nordseehorumersiel", stoße ich zuerst auf die Restaurantseite.

    Ich bin kein SEO-Profi, möglicherweise sind meine Hinweise ja auch nur Quatsch. Aber immer, wenn ich mich über SEO informiere, wird mir eben folgendes gesagt: Suchmaschinen emulieren Besucher, optimiere deine Seite für Besucher, dann ist sie im groben auch für Suchmaschinen optimiert.
  • in: wie ich einen Webseiten Spammer in den Allerwertesten....

    geschrieben von noxious

    Ich würde einen Anwalt einschalten. Webseiten-Inhalte fallen unter das Urheberrecht. So kann man den Inhaber der Webseite, auf welcher der "gestohlene Content" platziert ist, abgemahnt werden.

    Wobei es mir persönlich in den meisten Fällen egal ist. Wenn ich etwas schreibe, dann ist es meistens sowieso via CC-0-Lizenz freigegeben. Aber angenommen, mir läge etwas daran...
  • in: YouTube Livestream in Homepage einbetten

    geschrieben von noxious

    muellerlukas schrieb:
    Da schmierts aber ab wenn eine Kamera Probleme hat. ;)
    Natürlich gehe ich von normal funktionierender Hardware aus. Man könnte hat auch argumentieren, dass einem so ein Fehelr schneller auffällt, um ihn ggf. beheben zu können.

    Man kann es natürlich auch mit mehreren Instanzen regeln. Der dabei produzierte Overhead ist nun nicht so gravierend. Dennoch hielte ich es für "sauberer", es über eine Instanz zu regeln.

    Ist aber wohl eine Geschmacks-Frage, wie man das regeln möchte. Dennoch wollte ich mal auf die Möglichkeit hinweisen.
  • in: YouTube Livestream in Homepage einbetten

    geschrieben von noxious

    muellerlukas schrieb:
    Fefile an deinen Linux-Kentnissen. Du kannst problemlos auch 2 Instanzen von ffmpeg laufen lassen.
    Z.B. über Terminal und "screen".
    Du kannst bei ffmpeg auch einfach zwei Inputs auswählen. (Zum Beispiel über Mosaik) So brauchst du nur eine Instanz, einen Stream... Oder - wenn du kein Mosaik willst - kannst du auch einfach zwei Outputs auswählen.,.
  • in: OBS Studio für Linux

    geschrieben von noxious

    invalidenturm schrieb:
    Es gibt einen "Energierechner" für PC's http://www.meisterkuehler.de/content/energierechner-fuer-computer-79.html der kommt mit dem Phenom x3 und durchschnittlicher Ausstattung auf 240 Watt.
    Naja, was solche Rechner ausspucken ist immer eine Sache, was am Ende tatsächlich verbraucht wird eine andere. Letztenendes muss man tatsächlich messen, um ein zuverlässiges Ergebnis zu bekommen.
    Es kann natürlich stimmen. Es würde mich jedoch sehr überraschen.

    invalidenturm schrieb:
    Naja, Linux frisst ebenfalls kaum Leistung, ist zudem das sicherere System, und die kleinen Hürden, um OBS zum laufen zu bringen, überwindet turmfalken-nikolai schon.
    Das kommt doch sehr auf die verwendete Distribution an. Die Systemanforderungen werden bei Ubuntu in der Desktop-Edition mit 1Ghz-CPU, 1GB RAM und Radeon HD 3xxx/GeForce 5xxx GPU angegeben. Während du bei Windows XP mit 233 Mhz CPU, 64MB RAM und jeder SVGA-Grafikkarte gut fährst. Tinycore hingegen läuft auf jedem i486 mit 46MB RAM, ich hab schon von selbstkompilierten Kernel gehört, welche ca. 5MB fressen. (Ich für meinen Teil bin nie unter den 2-Stelligen Bereich gekommen, wobei ich allerdings auch nie so richtig darum gekämpft hab.)

    Aber recht hast du in sofern, dass Linux denke ich grundsätzlich eine bessere Idee ist, als ein veraltetes Windows ohne echten Support.

    invalidenturm schrieb:
    Im Einplatinencomputerbereich gibt es Systeme mit Intel-Architektur und auch ARM-Prozessoren, die ARM-Systeme laufen nicht unter Windows
    Windows 10 läuft ganz gut auf einem ARM (zT mit x86-Emulation). Windows XP wohl kaum.

    turmfalken-nikolai schrieb:
    Naja auf Dauer sicher nicht aber moimentan habe ich noch keine Alternative. Zumal der Rechner ja nur in der Saison - sprich von März bis August läuft. Danach ist im Kasten eh tote Hose. Im Moment läuft das alles nur zu Testzwecken
    Zum Testen ist das denke ich noch okay, aber selbst, wenn es nur 5 Monate im Jahr 24/7 läuft, hast du (gemäß obigen Angaben von Invalidenturm) noch Kosten von ~170€ im Jahr. Ein RaspberryPi hat Anschaffungskosten von ~60€ und frisst (nach obiger Rechnung) 5€ an Strom im Jahr. Du hättest also zwar einmalige Anschaffungskosten, aber würdest am Ende des Jahres noch 100€ sparen und jedes Folgejahr halt gut 165€. (Wobei ich jetzt nicht genau weiß, ob ein RaspberryPi da ausreichen würde - die haben da einige Probleme mit dem Netzwerkanschluss, der nur 100Mbit/s liefert... Vielleicht doch eher einen BananaPi?)
    Aber es ist denke ich vollkommen okay, erstmal einen normalen Desktop-PC zu benutzen, um sich in das Thema einzuarbeiten, bevor man am Ende Geld für etwas ausgibt, was man am Ende möglicherweise gar nicht zum laufen bekommt. Aber langfristig sollte man das ganze im Auge behaten. Denn wie schon gesagt: Man hat ne Menge Einsparpotenzial. (Ganz zu schweigen davon, dass geringerer Stromverbrauch auch immer gut für die Umwelt ist.)
  • in: OBS Studio für Linux

    geschrieben von noxious

    invalidenturm schrieb:
    Der von turmfalken-nikolai auserkorene Pphenom x3 wird vermutlich zwischen 200 und 300 Watt verbrauchen, also wäre das Einsparungspotential bei einer Einplatinen Lösung wesentlich grösser.
    Ich bezweifel das stark - mein AMD-FX +6100 verbraucht (gemessen) 160 Watt. Aber du hast natürlich recht: Ich gebe da nur Schätzwerte an. Wie viel man am Ende genau einspart, hängt natürlich von den verwendeten Geräten ab.

    invalidenturm schrieb:
    Der Youtube Account ist bei einer derartigen cloudbasierten Lösung nicht erforderlich.
    Ein rein semantischer Unterschied, denke ich. Während dein Youtube-Account über eine (überspitzt ausgedrückt) 11-Wege-Authentifizierung gesichert sein kann, hast du grade bei solchen Anbietern gerne Sicherheitslücken, welche Massenhaft ausgenutzt und - wenn überhaupt - nut sporadisch geschlossen werden. Während man heute also von Millionenden von eben solchen Kameras liest, welche aufgrund von (unter anderem) solchen Diensten DDOS-Atacken durchführen, sollte man sich wohl überlegen, ob es sinnvoll ist, da auf kleinere Anbieter zu setzen.

    Denn obwohl ich Youtube keineswegs empfehlen möchte, sind sie doch recht schnell darin, Lücken zu schließen. (Es ist schließlich Google...)

    Abgesehen davon, wurde ja explizit gewünscht, zu youtube zu streamen.
  • in: OBS Studio für Linux

    geschrieben von noxious

    invalidenturm schrieb:
    noxious schrieb: Dennoch: Wozu mehr Last verursachen, als unbedingt nötiag? Letztenendes kannst du - wenn du genug Last durch fehlende Frontends einsparst, das ganze auch auf schwache Einpaltinencomputer auslagern, welche die laufenden Kosten, speziell die Stromkosten eines solchen Streams, der dauerhaft laufen soll, drastisch verringert. (Wahrscheinlich um mindestens 90%) Was bei einem "sozialen Projekt" niemals vernachlässigt werden sollte.
    Da gebe ich dir recht, ein Einplatinencomputer wäre bei 24/7 Einsatz dem Phenom x3 vorzuziehen. Übrigens gibt es in diesem Bereich auch leistungsfähige Produkte wie z.B. Lattepanda o.ä. https://www.heise.de/make/meldung/Lattepanda-Windows-10-Einplatinenrechner-mit-Arduino-an-Bord-3033611.html. Übrigens bieten einige IP-Kamerahersteller einen Clouddienst an, welcher das selbst streamen überflüssig macht, wenn man die Kamera-Cloud per iframe in die Webseite einbindet.
    Solch ein Dienst ist natürlich bequem. Ich würde sogar empfehlen, ein paar Euro dafür zu investieren, mich an einen kostenpflichtigen Dienst zu wenden - falls es jemanden gibt, der sowas anbietet. Aber: Du setzt dabei immer ein Stück Sicherheit aufs Spiel. Wenn jemand eine dieser Plattformen böswillig hackt, hat er am Ende ziemlich viel Kontrolle über deinen youtube-Account und was der zeigt. Während du also im Eigenbetrieb auf einem Einplatinencomputer (Wie dem RaspberryPi) nur Stromkosten veranschlagen musst (Das Ding braucht keine nach außen erreichbare Dienste) hast du bei solchen Diensten immer ein gewisses Risiko, dass dein Account geknackt wird, etc..

    Und so ein Einplatinenrechner verbraucht - bei mir - in der Spitze 2,5 Watt. Das sind 50€ im Jahr. Die Anschaffungskosten amortisieren sich also innerhalb kürzester Zeit, wenn man bedenkt, dass ein wirklich sparsamer Rechner 20-30 Watt verschlingt. (Also etwa das 10-Fache)
  • in: input type = "file" gestalten

    geschrieben von noxious

    Also ich hab grad so etwa 4 (+/-2) Promille, aber so schnell von Hand geschrieben...
    <!DOCTYPE html>
    <html>
    <head>
    <style>
    	#file{
        	display:none;
        }
        #inputfilelabel{
        	display:block;
            text-align: center;
        	padding: 5px;
            border: solid 1px #000;
            color: #f00;
        }
        
        #inputfilelabel2{
        	display:block;
            text-align: center;
        	padding: 5px;
            border: solid 1px #000;
            color: #0f0;
        	
        }
        #file:invalid ~ #inputfilelabel2{
        	display: none;
        }
        #file:valid ~ #inputfilelabel{
        	display: none;
        }
        
    </style>
    </head>
    <body>
    <input type="file" name="file" id="file" required>
    <label for="file" id="inputfilelabel">Datei auswählen</label>
    <label for="file" id="inputfilelabel2">Fertig</label>
    </body>
    </html>


    Ist es das, was du wolltest? Ansonsten hab ich gefühlt zwei Stunden umsonst nachgedacht :D

    Hier zum testen.

    Natürlich ist es mit Javascript einfacher. Ich würde aber - falls möglich und der Schrott, den ich da produziert habe funktioniert - immer versuchen, es möglichst ohne zu lösen.
  • in: OBS Studio für Linux

    geschrieben von noxious

    invalidenturm schrieb:
    So kompliziert ist es unter Ubuntu (kbuntu,ubuntu Mate, Mythbuntu...) und auch Mint nicht. OBS-Studio ist in den Repositorys enthalten und kann über den Paketverwalter installiert werden, die Abhängigkeiten werden automatisch mitinstalliert.
    Was nur gilt, wenn es sich tatsächlilch in den Repositories befindet. Bei Ubuntu 14.04 scheint das nicht der Fall zu sein. Bei Ubuntu 15.04 ebenso wenig.
    Zudem woltle ich hauptsächlich ein wenig erklären, was so rund um das ganze passiert, damit der Nutzer ein wenig abstrahieren und sein Wissen in Zukunft möglicherweise auch auf andere Distributionen umsetzen kann.

    invalidenturm schrieb:
    Solange turmfalken-nikolai Linux Anfänger ist, würde ich schon zu einer Lösung über OBS-Studio raten. Die Hauptlast wird doch durch das Video encoding verursacht. Ich habs mal mit 720p HD Stream zu youtube getestet und ca. 15% Prozessorlast auf allen 4 Kernen durch das encoding. Der Stream läuft mit ca. 30 Fps.
    Dennoch: Wozu mehr Last verursachen, als unbedingt nötig? Letztenendes kannst du - wenn du genug Last durch fehlende Frontends einsparst, das ganze auch auf schwache Einpaltinencomputer auslagern, welche die laufenden Kosten, speziell die Stromkosten eines solchen Streams, der dauerhaft laufen soll, drastisch verringert. (Wahrscheinlich um mindestens 90%) Was bei einem "sozialen Projekt" niemals vernachlässigt werden sollte.

    Zudem halte ich es prinzipiell für falsch, dass Linux-Anfänger grundsätlich nur GUI-Zeug verwenden sollten. Im Gegenteil: Nirgends bekommt man besser Einblick und hat mehr Lernpotenzial als im Terminal. Und darum soltle es am Anfang doch gehen: Das Betriebssystem kennen zu lernen. Nicht etwa, das GUI kennen lernen.

    Dazu kommt, dass das Terminal niedrigschwelliger ist - es können 90% des Systems zusammen brechen und der Stream läuft dennoch weiter. Man kann Terminalanwendungen als Dienst einstellen, was dafür sorgt, dass der Stream - sollte das System vollständig zusammen brechen - so früh wie möglich wieder online ist. Bei einer GUI-Anwendung muss erst das DE starten, bis wieder irgendwas geht.

    Letztenendes bleibt also die Frage: Will man es "irgendwie" machen, oder will man es "richtig" machen? Ich für meinen Teil habe es immer bevorzugt, es "richtig" zu lernen.
  • in: OBS Studio für Linux

    geschrieben von noxious

    turmfalken-nikolai schrieb:
    Auf dem Portal von OBS ( Open Broadcast Software ) viel mir jetzt auf das es auch eine linuxfähige Version von OBS Studio gibt. Die Kompatibilität ist mit Linux 0.16.2 angegeben.

    Dann würde ich darüber nachdenken meinen 24/7 Webserver für meine Kameras mit Linux laufen zu lassen.

    Nun gibt es ja zig verschiedene Linuxdistributionen. Welche wäre da die Richtige?
    Ich kann es immer wieder nur wiederholen: Die Linux-Distributionen sind im wesentlichen schlicht Softwaresammlungen. Das System ist immer Linux. Also gibt es im Prinzip keine "richtige" oder "falsche" Distribution.

    Zudem hat so ziemlich jede Linux-Distributionen eigene Software-Quellen, sogenannte Repositories, in denen entsprechende Software zur Verfügung gestellt und deren Abhängigkeiten verwaltet werden. Hier gibt es häufig gravierende Unterschiede in Sachen Aktualität und Vorgehensweise.

    Du kannst also OBS unter so ziemlich jeder Distribution laufen lassen, jedoch unterscheidet sich der Weg, wie es installiert wird. Bei Ubuntu beispielsweise musst du z.T. sogenannte Personal Packet Archives, kurz PPA verwenden, um Software zu installieren, welche nicht in den offiziellen Quelen vorhanden ist. Unter anderen Distributionen musst du die Software von Hand kompilieren oder - im Fall von Arch-Linux kannst du es im prinzip schlicht aus den offiziellen Quellen installileren.

    Eine wichtige Abhängigkeit scheint ffmpeg zu sein, wobei ich mich frage, weshalb man überhaupt OBS nutzt, wenn es am Ende doch nur ein Speicher- und Leistung-Fressendes Frontend dazu ist. Aber sei's drum.

    Unter Ubuntu 14.04 musst du hier beispielsweise erst ein PPA hinzufügen, in der Kommandozeile:
    sudo add-apt-repository ppa:kirillshkrogalev/ffmpeg-next
    , ehe du es mit
    sudo apt-get update && sudo apt-get install ffmpeg
    installieren kannst.

    Ab Ubuntu 15.04 ist es offenbar in den offiziellen Paketquellen und man braucht es nur noch installieren, mit
    sudo apt-get instal ffmpeg


    Damit hat man dann die Abhängigkeiten geklärt und kann mit OBS fortfahren. Hier muss man unter Ubuntu offenbar in jedem Fall ein PPA nutzen.
    sudo add-apt-repository ppa:obsproject/obs-studio
    sudo apt-get update && sudo apt-get install obs-studio


    Das Vorgehen sollte sich übrigens auf alle Ubuntu-Derivate (Kubuntu, Xubuntu, Lubuntu, etc..) übertragen lassen.

    Unter Arch-Linux gestaltet sich das einfacher, da dort beides in den offiziellen Paketquellen ist und die Abhängigkeiten so automatisch geklärt werden.
    sudo pacman -S obs-studio


    Wie dort auffält, ist der Weg unter Arch-Linux sehr kurz. Aber im Prinzip macht beides dasselbe. Nur, dass bei Arch halt die Paketquellen etwas "weiter" sind. Aber auch dort gibt es Software, weche nicht in den offizielen Paketquellen sind, dort nutzt man dann Arch User Repositories, was im wesentlichen ähnlich wie die PPA von Ubuntu ist. (Ein wenig anders, weil die dann - wenn überhaupt - über einen anderen Paketmanager installiert werden.)

    Kurzum: Alle Linux-Distributionen machen halt quasi das gleiche - sie schauen in ihren jeweiligen "Software-Llisten" nach, wie die entsprechende Software installiert werden muss und installieren sie dann so. Der Umfang der jeweiligen Listen ist natürlich immer ein wenig unterschiedlich. Das installieren übernimmt im Normalfall ein Paketmanager - dieser verwaltet, welche Software instaliert wird, wo sie installiert wird, was benötigt wird, um diese Software zu benutzen, installiert auch das, in der jeweilg benötigten Version... Usw.. Bei Ubuntu (bzw. allgemein Debian-Derivaten) nennt sich der Paketmanager für gewöhnlich apt, bei Arch pacman, und es gibt noch viele mehr. (yum, ZYpp, dnf, ...)

    Wie schon gesagt: Ich würde ganz davon abstand nehmen, so ein Frontend zu benutzen, vor allem, wenn man (wie du in einem anderen Thread beschriebst) allgemein schon Performance-Probleme hast. Im wesentlichen sollte sich alles, was du mit OBS machst, auch allein mit ffmpeg lösen lassen. (Ich hatte dazu in einem anderen Thread ja schon etwas geschrieben.) Man muss dabei dann natürlich ein wenig recherchieren, aber mit ffmpeg schafft es auch mein kleiner Dualcore-Winz-Laptop, problemos neben der Arbeit daran nen 720p-Video zu youtube zu schubsen. Aber letztenendes steht es ja jedem sebst frei, was man nutzen möchte.
  • in: Hardwarevoraussetzungen LiveStream YouTube

    geschrieben von noxious

    [/quote]
    turmfalken-nikolai schrieb:
    na da könntest Du hier fündig werden: http://www.instar.de/ip-aussenkameras/ip-kamera-in-2905-serie/in-2905-v2-black.html
    Ja, auf der Seite bin ich schon. Nur finde ich da wenig darüber, wie das ganze aufgebaut ist. Man erfährt halt, dass es wohl eine Weboberfläche gibt, dass ActiveX benötigt wird, aber nicht, was "dahinter" steckt.

    Ich würde da nun so vorgehen, dass ich mir das Webinterface nach einer Video-URL durchsuche und ggf. das ActiveX-Zeugs debugge, um zu sehen, was für Zugriffe auf welche Ressource da passiert. Oder ich würde mir die Software herunter laden und via tcpflow mal nachsehen, was da genau passiert. Wahrscheinlich wird ja irgendwo auf eine videostreamdatei zugriff genommen werden, welche dann wiedergegeben wird. (Ist ja keine Magie, die da von statten geht...) Diese Datei könnte man dann in ffmpeg verwenden. Aber dafür müsste man es halt sehen.

    ffmpeg gibt es übrigens auch für Windows.

    computergottshomepage schrieb:
    Da bietet sich der B-Pi an. Der hat meines Wissens nach 1Gbit.
    Mit dem hab ich leider keine Erfahrungswerte - aber denkbar wäre das durchaus.

    EDIT: Ich habe etwas gefunden.
    http://admin:admin@192.168.1.0/videostream.asf?user=admin&pwd=admin&resolution=32&rate=0
    ist die URL zu deiner Webcam (IP, Nutzernamen, Passwort % co müssen natürlich angepasst werden.)
    Mit der Information kann man nun via
    fmpeg -f alsa -ac 2 -i hw:1,0 -f v4l2 -s 1280x720 -r 10 -i http://admin:admin@192.168.1.0/videostream.asf?user=admin&pwd=admin&resolution=32&rate=0 -vcodec libx264 -pix_fmt yuv420p -preset ultrafast -r 25 -g 50 -b:v 2500k -codec:a libmp3lame -ar 44100 -threads 6 -b:a 11025 -bufsize 512k -f flv rtmp://a.rtmp.youtube.com/live2/APIKEY
    von der kamera zu Youtube streamen können. (Benötigt natürlich noch diverse Anpassungen an Auflösung, etc.)
  • in: Hardwarevoraussetzungen LiveStream YouTube

    geschrieben von noxious

    turmfalken-nikolai schrieb:
    Zum Einen hab ich momentan von INSTAR die IN2905V2. Da die keinen rtsp Stream unterstützt da VGA will ich umsteigen auf die IN5905 HD 720p. Die 2. Kamera ist ne Floureon HD 1028p mit 18x Zoom. Weniger als 720p sollte die Auflösung auch nicht betragen.
    Mit IP-Kameras hab ich leider wenig Erfahrung. Grundsätzlich sollte das ganze - wenn man die Technischen Einzelheiten kennt - aber kein Problem darstellen. Bei 720p fällt dann irgendwann die Option des Raspberry Pi weg, da dieser lediglich 100mbit-Lan hat.

    Dennoch ist (so denke ich) ffmpeg die ressourcensparenste Methode, da es halt kein Ressourcenverschwendendes Frontend hat, keine komische "Vorschau" oder ähnliches - es streamt halt direkt von der Eingabequelle zu Youtube. (Was natürlich auch ein Nachteil sein kann, wenn man eben oben genanntes unbedingt braucht.)

    Es ist relativ schwer zu sagen, wie man genau vorgeht, wenn man die technischen Einzelheiten der Kameras nicht kennt. RTMP ist natürlich grundsätzlich immer das einfachste (Da könnte man im Prinzip auch gleich zu Youtube pipen, was minimal Leistung verbraucht) Aber auch andere Eingabeformate erkennt ffmpeg eigentlich recht zuverlässig. Man muss halt nur wissen, welches Format verwendet wird. Wenn das ganze also eine Weboberfläche hat, einfach mal via
    ffmpeg -i http://pfad.zum.ip/cam/video
    ausprobieren.

    Wie man da nun genau vorgeht... Dafür müsste man nun davor sitzen. Leider finde ich auf die Schnelle keine genauen Spezifikationen der Kameras.
  • in: Hardwarevoraussetzungen LiveStream YouTube

    geschrieben von noxious

    Ich denke das hängt ganz stark an deinen "Bedürfnissen", was den Steam angeht. Ein Stream in 3D-UHD mit 120fps kostet halt mehr Leistung, als etwas kleines. Was verwendest du denn sonst für Hardware - spezieller: Was für eine Kamera?

    Ich persönlich nutze (unter Linux - ich kann dir leider keine Windows-Software empfehlen.) simples ffmpeg.
    fmpeg -f alsa -ac 2 -i hw:1,0 -f v4l2 -s 1280x720 -r 10 -i /dev/video1 -vcodec libx264 -pix_fmt yuv420p -preset ultrafast -r 25 -g 50 -b:v 2500k -codec:a libmp3lame -ar 44100 -threads 6 -b:a 11025 -bufsize 512k -f flv rtmp://a.rtmp.youtube.com/live2/APIKEY
    tut im prinzip alles und ist so ressourcensparend, wie es meiner Meinung nach geht. (Youtube Frameraten jenseits von 25 sind denke ich unrealistisch...) Wenn man noch mehr ressourcen sparen will, kann man sofern nicht benötigt das Audio komplett raus nehmen oder, abhängig von der Hardware, die Bildauflösung verringern. Wenn die Kamera nen 720p-Bild liefert, kann das aber auch nachteilig sein... Halt so wenig umrechnen lassen, wie möglich.

    Zudem könntest du dir einen Raspberry-Pi anschaffen. Klar, kostet erstmal so um die 100€, aber das amortisiert sich relativ schnell, wenn man betrachtet, dass das ding weniger als 5 Watt frisst - damit kannst du aktuell wahrscheinlich grade mal die Power-LED an deinem Rechner betreiben (Überspitzt ausgedrückt) - amortisiert der sich in wenigen Monaten, sofern das Ding 24/7 läuft, was ja - so, wie ich deine Webseite verstehe der Fall sein soll. Hier gibt es eine Schritt-für-Schritt-Anleitung dazu.

  • in: Wird sich Windows 10 am Markt durchsetzen?

    geschrieben von noxious

    invalidenturm schrieb:
    Ja die Werte ähneln sich, allerdings wurde Windows 7 vom 1.Tag an verkauft, während Windows 10 1 Jahr lang verschenkt wurde. Das ist schon ein Unterschied. Nach Auslaufen der Gratis Update Option flacht die Kurve ab. Natürlich hast Du vermutlich Recht mit der Einschätzung, dass sich Windows 10 über kurz oder lang dann doch durchsetzen wird. Einen ersten Schritt die Datenschutzbedenken etwas auszuräumen hat Microsoft ja nun angekündigt. https://www.heise.de/newsticker/meldung/Windows-10-und-Datenschutz-Microsoft-will-Transparenz-verbessern-3593984.html. Ausser dem soll es seit November 2016 möglich sein, auch ohne Microsoft Konto kostenlose jugendfreie Apps aus dem Store herunterzuladen.
    Nun, was das beta release angeht, hast du zumindest in sofern recht, dass dies eigentlich die Auflage steigern sollte. Trotzdem steht Windows 10 halt seit offiziellem Release in ähnlicher Position, wie Windows 7 nach der selben Zeit.

    Dass am Ende (fast) alle Windows-Nutzer Windows 10 nutzen, ist nicht nur wahrscheinlich, sondern fast zwangsläufig. Nach Windows 10 soll es ja keine weitere Windows-Version, sondern nur noch weiterentwicklungen davon geben. Und in 3 Jahren soll ja auch schon Ende sein, mit dem Support von Windows 7.

    Dass Windows (geringfügig) einlenkt, was das Datenschutzzeug angeht, sehe ich nicht wirklich als Fortschritt. Ich bezweifel, dass die da weiter gehen werden, als es die Gesetze unbedingt vorschreiben. (Wenn sie diese dann überhaupt einhalten...) Auch das anbieten, irgendwelcher kostenloser Apps halte ich für Bauernfängerei. Ich habe kein Problem damit, für gute Software zu zahlen. Ich habe ein Problem damit, für schlechte Software - und nichts anderes ist Windows in meinen Augen - zu zahlen.
    Abgesehen davon, ist in meinen Augen absolut gar nichts, was auf einem Windows 10 System läuft wirklich kostenlos. Nur die Art, wie man es bezahlt ändert sich. Microsoft ist nun mal ein Konzern - ein Konzern, der Gewinne produzieren will. Software kostet Geld, dieses Geld muss irgendwoher kommen. Zu denken, dass die irgendwas tatsächlich verschenken, halte ich für naiv. (Damit meine ich nicht primär dich, sondern all die Leute, die eben darauf rein fallen.)

    Kurzum: Je mehr "kostenloses Zeug" Microsoft anbietet, desto mehr kannst du darauf wetten, dass denen der Schutz deiner Daten dort vorbei geht, wo keine Sonne scheint.
  • in: Wird sich Windows 10 am Markt durchsetzen?

    geschrieben von noxious

    invalidenturm schrieb:
    Ich würde vorschlagen, ihr macht zu Unterschieden zwischen Linux und Windows einen extra Thread auf, Das würde auch anderen, welche nach einem derartigen Thema suchen eher weiterhelfen, als unvermutet in "Wird sich Windows 10 am Markt durchsetzen?" auf Unterschiede zwischen Linux und Windows zu stossen.
    Es ist halt eine Diskussion, sowas entwickelt sich. Aber irgendwo hast du natürlich recht.

    invalidenturm schrieb:
    Hier sollte es hauptsächlich um die Frage gehen, ob sich Windows 10 am Markt durchsetzen kann. Im Moment sieht es dafür allerdings schlecht aus, Windows 10 hat noch nicht mal 25% Marktanteil erreicht, während noch knapp 50% auf Windows 7 setzen. http://www.giga.de/downloads/windows-10/news/windows-10-marktanteile-stagnieren-muss-das-kostenlose-upgrade-zurueckkehren/ Auch das Weihnachtsgeschäft hat keine wesentlichen Zuwächse gebracht.
    Deutlich besser lief es für Windows 7 da auch nicht. Offiziell erschien Windows 10 im August 2015, das ist jetzt etwa 15 Monate her. Windows 7 erschien etwa November 2009. 15 Monate später, März 2011 (Entschuldigt, wenn ich mich da verschätzt habe) stand Windows 7 bei 30,6%. (Quelle)

    Ich denke über kurz oder lang wird sich Windows 10 (unter den Windowsen) durchaus durchsetzen - notfalls forciert durch Microsoft. Ob es aber bis dahin noch andere, ernstzunehmende Konkurrenten gibt, ist wohl spekulation.
  • in: Wird sich Windows 10 am Markt durchsetzen?

    geschrieben von noxious

    tobiaswinter schrieb:
    Das trifft zumindestens bei meinem Linux Mint kaum zu. Die Ordner-Sktruktur, in der ich arbeite, (Benutzerverzeichnis) ist eigentlich aufgebaut, wie bei Windows (Dokumente, Bilder, Musik, ... -Ordner). Kommandozeile habe ich ehrlich gesagt, noch nie gebraucht.
    Nun, bei Windows gibt es den Ordner
    /home/$username/
    nicht. Unter Linux gibt es
    C:\Programme (x86)\
    nicht. Das sind schon zwei gravierende Unterschiede in der Ordnerstruktur. Dazu kommt, dass Ordner unter Linux Case-Sensitive sind, unter Windows ist - oder war es zumindest bis Windows 7 - egal, ob du einen Ordner "Testordner" oder "testordner" nennst. Bei Linux ist das nicht der Fall. Es ist also unter Linux schon möglich, Ordnerstrukturen zu basteln, die unter Windows gar nicht funktionieren können. Die Ordnerstruktur ist also grundlegend anders.

    tobiaswinter schrieb:
    Ebenfalls weisen die Programme, dich ich als einfacher Anwender (Firefox, LibreOffice, Thunderbird) in der Benutzerschnittstelle gar keine Unterschiede zu Windows auf.
    Dann sprichst du im wesentlichen ja von der Verwendung der jeweiligen Software (Firefox, LibreOffice, Thunderbird) und nicht von der Verwendung des Betriebssystems. Selbstredend ist die Bedienung der gleichen Software auch (weitestgehend) identisch.
  • in: Wird sich Windows 10 am Markt durchsetzen?

    geschrieben von noxious

    tobiaswinter schrieb:
    Dem kann ich nur bedingt zustimmen. Ich verwende seit etwa 2 Monaten Linux Mint mit Cinnamon-Deskop. Ich habe das ISO-Image (schon inkl. Cinnamon) von der offiziellen Homepage heruntergeladen, mit einem Tool einen bootfähigen USB-Stick erstellt, davon gebootet und dem grafischen Installations-Assistenten gefolgt.

    Die wichtigsten Programme, wie Firefox und LibreOffice sind ja schon installiert, also konnte ich sofort starten. Die Bedienung ist meiner Ansicht nach nicht weniger komfortabel als Linux.

    Meine Meinung: Wenn man auch nur minimales Know-How hat, sollte es kein Problem sein, auch ohne viel Zeit zu investieren, Linux zu verwenden.
    Natürlich gibt es Distributionen, bei welchen die Installation relativ einfach gestaltet ist. Aber bei der Installation hört die Bedienung des Betriebssystems ja nicht auf. Es fängt an, bei einer anderen Ordnerstruktur, bei anderen Grundprinzipien, bei der Tatsache, dass viel Software für Linux dem KISS-Prinzip folgt, dabei, dass man im wesentlichen deutlich häufiger die Kommandozeile braucht, wie das System funktioniert (was beispielsweise systemd ist, welche Schwierigkeiten sich durch Kernelupdates ergeben können, ...) welche Pitfalls es gibt, wie man Benutzerkonten und Zugriffsrechte verwaltet...

    Also hast du meiner Meinung nach lediglich mit einem Punkt recht: Die Bedienung von Linux ist in keinem fall weniger komfortabel als bei Windows, (Ich nehme mal an, dass du das meintest) ganz im gegenteil: Linux ist so viel komfortabler zu steuern. (Unabhängig von Distribution und Desktop-Environment) Aber sie ist eindeutig anders. Und die muss man erstmal verstehen - was Zeit kostet.
  • in: Fragen zur Linux Live CD / DVD

    geschrieben von noxious

    turmfalken-nikolai schrieb:
    mit gewöhnungsbedürftig meinte ich a:wink:uch keinesfalls schlecht

    jaja, mit dem zerschießen komm ich schon gut hin :biggrin: bin grad am neu aufsetzen weil ich den snapshot natürlich nicht gemacht hatte :wall:

    Aber wie heißt es so schön: Aus Schaden wird man klug :cool:
    Exakt. Und wie schon gesagt: Ein bisschen Übung schadet nicht. Dennoch wird es ja irgendwann lästig.

    Nochmal zu den oben von muellerlukas erwähnten Guest-Auditions: Hier gibt es eine detaillierte Anleitung, wie man sowas installiert. (Falls du Ubuntu benutzt, lässt sich aber auch relativ einfach auf andere Systeme übertragen.) Dies verbessert viele Sachen, vor allen in Sachen Performance, Auflösung & Co.

    Wenn du dann ein mal die Snapshots gemacht hast, kannst du ja rumsauen, wie du willst. Durch die VM besteht (fast) keine Gefahr für das Hostsystem. Einfach kaputt spielen, bis nichts mehr geht, und wieder zurück setzen.
  • in: Fragen zur Linux Live CD / DVD

    geschrieben von noxious

    turmfalken-nikolai schrieb:
    Ist auf jeden Fall sehr gewöhnungsbedürftig.
    Natürlich, es ist Linux, nicht Windows. Wobei du hoffentlich bald merkst, dass "Gewöhnungsbedürftig" nicht zwangsweise "schlechter" heißen muss. So gibt es Oberflächen, welche Windows sehr ähnlich sind, wie Cinnamon, welches "Windows 7 Themes" hat, KDE oder ähnliches, Oberflächen mit einem (entfernt) ähnlichen Bedien-Konzept wie iOS, wie beispielsweise Xfce oder halt ganz anderen, wie Gnome3...

    Das darunter liegende System bleibt natürlich immer weitestgehend gleich - und das ist schlussendlich ja auch gut so. Schließlich wechselt man nicht ohne Grund zu Linux. Auch, sich daran zu gewöhnen, wird sicher einige Zeit brauchen. Vor allem so Konzepte wie Everything is a File oder gar - gerade am Anfang schwer nachvollziehbare Ideologien wie das KISS-Prinzip, brauchen halt Zeit, bis man sie verstanden hat. Aber ich für meinen Teil bin inzwischen vollkommen davon überzeugt.

    turmfalken-nikolai schrieb:
    Ne Dauerlösung ist das jedenfalls so nicht ( kleines Fenster, schlechte Auflösung ) aber zum testen sollte es reichen.
    Das ist alles auch nicht als dauerhafte Lösung konzipiert - allein die Tatsache, dass du nun zwei Systeme am laufen hast, erzeugt ja jede Menge redundante Last. Aber zum ersten reinschnuppern und als Vorbereitung für eine dauerhafte Installation ist es so deutlich flexibler, als ein Live-System. Zudem kannst du nun - quasi mit identischen Einstellungen - verschiedene Distributionen austesten. (Einige sind sehr klein und leichtgewichtig, andere sind extreme Schwergewichte und fressen Leistung bis zum geht nicht mehr...)

    Zudem gibt es - ich schätze auch bei VirtualBox - die Möglichkeit, einen Snapshot von einer sauberen Installation zu erstellen und später zurück zu setzen, falls du es "kaputt spielst". Mir ist das am Anfang häufig passiert. (Maschine -> Snapshot erstellen...)

    So brauchst du das System nicht immer wieder von neuem aufsetzen, um wieder ins Ausgangssystem zu kommen. (Wobei auch da sicher ein wenig Übung hilfreich ist...)

    Ansonsten: Bei Fragen möglichst immer angeben, welche Distribution du nutzt. Grundsätzlich gibt es zwar Lösungen, welche praktisch Distributionsübergreifend funktionieren, aber verschiedene Distributionen haben beispielsweise auch verschiedene Paketmanager, verschiedene grafische Oberflächen, verschiedene Hilfs-Tools. So braucht man nicht ständig die "Konsolen-Lösung" vorschlagen, welche vor allem am Anfang teils sehr kompliziert erscheinen mag, sondern kann ggf. auch auf GUI-Lösungen (falls vorhanden) verweisen.

    Ansonsten: Viel spaß mit Linux.

    muellerlukas schrieb:
    Was deine jetzige Installation angeht: Mein letztes virtuelles Ubuntu ist schon ein Stück her. Aber vor einigen Jahren musste man man die Gasterweiterungen installieren.
    Guter Punkt. Kenne ich von damals auch noch.
  • in: Lifetime Pakete von Vorteil oder Nachteil?

    geschrieben von noxious

    Grundsätzlich lehne ich es als Kunde ab, mir sowas zu kaufen. Ich habe in kein Unternehmen ausreichend Vertrauen, dass ich meinen würde, dass es noch in 50 Jahren erfolgreich existiert.
    Als Betreiber können solche Pakete aber dennoch Vorteile haben. So ließe sich mit kurzen finanziellen Schüben halt schnell die Infrastruktur ausbauen. Mehr Server = mehr Nutzer können verwaltet werden = mehr zukünftiges Einkommen. Vorausgesetzt natürlich, du kannst realistisch auf ein wachsendes Interesse spekulieren.

    Dabei muss man natürlich im Auge behalten, dass man erstmal eine stabile Nutzer-Basis braucht, um erstmal einen Server bezahlen zu können. Wenn du nur einen Benutzer hast, der sich dann schlimmstenfalls noch so ein Lifetime-Paket besorgt hat, hast du ganz schnell Schwierigkeiten. D.h. du musst am Anfang erstmal wirtschaften - Gewinn produzieren, welcher deine Kosten für die "Normalnutzer" abdeckt und bestenfalls weit übersteigt. Dann - und nur dann - solltest du meiner Meinung nach über "Lifetime-Pakete" nachdenken, möglicherweise erstmal nur als "Aktion", mit einem festen Kontingent, um zu testen, wie viele Nutzer tatsächlich darauf anspringen. Fangen dann all deine Nutzer an, zu den Lifetime-Paketen zu wechseln, bist du am Ende abgesichert, dass du auch weiterhin deine Server betreiben kannst.

    Und du darfst natürlich nicht außer Acht lassen, dass sich solch ein Vorhaben nicht selbst verwaltet. Das heißt: Man muss auch noch mit einplanen, dass man bestenfalls selbst noch davon leben oder gar weitere Leute einstellen kann.

    Bevor ich also über solche Lifetime-Projekte nachdenke, muss ich einen ordentlichen Plan haben, wie ich alles langfristig finanziere. Wenn das steht, sich auch als durchführbar erweist, also es tatsächlich ausreichend Nutzer gibt, welche die vorhandenen Ressourcen sprengen, dann würde ich über solche Lifetime-Pakete nachdenken, um meine Infrastruktur schneller ausbauen zu können.
  • in: Fragen zur Linux Live CD / DVD

    geschrieben von noxious

    turmfalken-nikolai schrieb:
    hm, hört sich sogar für mich plausibel an! Also werd ich mich mal mit dem Thema VM befassen denn auch das ist völliges Neuland für mich :cool:
    Und dann schaun mer ma wie sich das so entwickelt :biggrin:
    Das Thema VM ist eigentlich recht einfach. Was du brauchst ist:
    * Einen möglichst starken PC - er muss schließlich zwei Betriebssysteme gleichzeitig handhaben.
    * Eine Virtualisierungssoftware, wie VirtualBox (Kostenlos, es gibt aber auch weitere, zT. kommerzielle..)
    * Ein beliebiges Installationsimage.
    * ggf: Aktivierte Hardwarevirtualisierung im Bios. (VT-x/AMD-V)

    Dann erstellt man eine VM, Festplattentyp ist relativ trivial, bei der Hardware sollte man darauf achten, mindestens einen GB an Arbeitsspeicher zu reservieren. (Ubuntu, eines der schwereren Systeme braucht mindestens so viel.)

    Ggf. muss man nach fertigstellung noch ein mal die Maschine bearbeiten und das heruntergeladene Image als Quelle eintragen. (Das geht für gewöhnlich ohne Probleme.) Die VM starten... Und warten, bis er von der CD bootet. Installierem, fertig.

    Im Netz finden sich diverse Schritt-für-Schritt-Anweisungen. (z.B. hier ) Oder einfach im Netz nach der jeweils präfarierten Distribution suchen. (Einfach Ubuntu durch die jeweilige Distribution ersetzen.)

    Das ganze sollte eigentlich auch für Laien keine Herausforderung darstellen. Und schon hast du eine Lösung, in der du beliebig mit den verschiedenen Distributionen herumspielen kannst.
  • in: Fragen zur Linux Live CD / DVD

    geschrieben von noxious

    Prinzipiell ist es möglich, die Konfiguration für WLAN, etc. auf einen USB-Stick oder eine Festplatte auszulagern. Aber das ist eine eher... Mittelmäßige Lösung. Live-Systeme sind für gewöhnlich dafür gedacht, dass eben nichts verändert wird - und so halt bestens für Rettungs-Aktionen geeignet sind. Ansonsten sind sie... Weniger gut geeignet.

    Ich würde also von einer Live-CD weg, zu einer VM. Das hat den Vorteil, dass du nebenbei halt im Hauptsystem surfen, googeln, wasweißich machen kannst, während du dich in das System einarbeitest.

    Aber zurück zu deinem Problem: Es ist schwierig, das ganze in einem Live-System zu implementieren. Denn: Schließlich soll das ganze auf unterschiedlichster Hardware, z.T. auch ohne Festplatte laufen. Du kannst also schwierig eine Konfiguration basteln, welche gleichzeitig die Netzwerkdaten auf einer Festplatte speichert, andererseits aber auch ohne Festplatte läuft.

    Du könntest nun aber beispielsweise die Wlan-Config auf eine Festplatte kopieren und dann (beispielsweise per Script) jedes mal zurück kopieren. Aber selbst, wenn du da ein Script schreibst, musst du das jedes mal von Hand starten - da das System keine Ahnung hat, dass es die Datei starten soll.

    Eine alternative wäre, halt Linux auf einen USB-Stick zu installieren. Hat den Nachteil, dass du zum ersten einen USB-Stick brauchst, zum zweiten dass du - bei einem Fehler - jedes mal ein anderes System starten musst, um eine Lösung zu finden. Deshalb würde ich zu einer Installation in einer VM raten.

    Möglicherweise implementieren bestimmte Live-Systeme auch noch andere Möglichkeiten. Um zu wissen, ob und wie das geht, müsste man wissen, welches Live-System du benutzt.
  • in: Wird sich Windows 10 am Markt durchsetzen?

    geschrieben von noxious

    turmfalken-nikolai schrieb:
    Naja mir fehlt einfach die Zeit und das Hintergrundwissen um auf Linux zu wechseln.
    Bin aber heilfroh das ich meinen alten Medion Akoya Laptop mit WIN7 noch habe. Der läuft Gott sei Dank relativ stabil!
    Grundsätzlich würde ich davon abraten, Linux zu verwenden, wenn einem die Zeit fehlt, sich damit wirklich auseinander zu setzen. Linux, gesteuert von einem unversiertem Nutzer, ist in etwa so gefährlich, wie ein Windows-Nutzer.

    turmfalken-nikolai schrieb:
    Edit: Shit, da gibts ja 26 verschiedene "Linuxe" :scared:
    Wie schon gesagt: Linux-Distributionen sind im wesentlichen Softwarezusammenstellungen. Und davon gibt es nicht nur 26. Alleine sicher 40+ Ubuntu-Derivate, sicher noch mal so viele Debian-Derivate... Und viele, viele mehr. Hier eine kleine Liste. Faktisch braucht man aber für den Anfang gar nicht alle kennen. Für einen "ersten Eindruck" reicht es erstmal aus, sich auf eine einfache festzulegen. Für ein Live-System wäre Knoppix für einen ersten Blcik ganz okay - aber zu viel mehr taugt es meiner Meinung nach nicht. Eine Installation - auch neben einem existierenden Windows - gestaltet sich Ubuntu recht einfach. Zu Ubuntu kannst du dir dann selbstredend jede Oberfläche installieren, die du möchtest.

    Letztenendes läuft es sicher darauf hinaus, dass du dir deine eigene Software zusammen stellst - für "hübsche" Systeme nutze ich zum beispiel gerne Cinnamon, in verbindung mit gdm, ... Entscheidet man am Ende selbst, was einem am besten gefällt. Dann hast du nur das, was du auch wirklich willst und pfeiffst auf eine vorgegebene "Sammlung".

    Also meine Empfehlungen zusammen gefasst:
    * Knoppix für den "Ersten blick".
    * Ubuntu für den Einstieg. (Ich muss immer mit den Zähnen knirschen, wenn ich das jemandem empfehle...)
    * Auf Ubuntu dann auch andere Oberflächen/etc. ausprobieren.
    * Dann ein minimalsystem (Debian-Minimal, Arch, whatever.) mit eigener Zusammenstellung.

    Man sieht: Man muss Zeit investieren, wenn man Linux verwenden möchte.
  • in: Wird sich Windows 10 am Markt durchsetzen?

    geschrieben von noxious

    micropower schrieb:
    (Wenn die Linux-Distributoren mal an einem Strang ziehen würden, dann gäbe es auch die ganzen Spiele für Linux ... und spätestens dann wäre MS mit Windows am Ende da es den Leuten egal ist welches OS im Hintergrund läuft.)
    Das hat wenig mit den Distributionen zu tun, viel mehr mit den Entwicklern der Spiele. Eine Software, welche auf Ubuntu läuft, läuft genau so unter Arch oder (fast) jeder anderen Linux-Distribution. Distributionen sind nämlich - praktisch gesehen - nichts anderes als Softwaresammlungen.

    Was die meisten Spieleentwickler bisher davon abgehalten hat, Spiele für Linux zu veröffentlichen, ist die Tatsache, dass sie relativ viel arbeit darein stecken müssten, eine relativ geringe Anzahl von Nutzern zu erreichen. Arbeit kostet - und wenig Nutzer wiegen diese Kosten leider nicht wirklich auf. (Es gibt im Prinzip noch ein paar andere Unterschiede, aber die sind im wesentlichen Technischer Natur und spielen bei Spielen keine Rolle.)

    Dennoch gibt es diverse (z.T. kleine) Firmen, welche nun auch für Linux publishen. Das kommt daher, dass Steam sich so langsam von Windows los sagen möchte, da die es ja anderen Marktsoftwares immer schwieriger machen, auf Windows zu laufen, um ihren eigenen Markt durchzusetzen.
    Auch, wenn ich bezweifel, dass da nun plötzlich haufenweise Windows-Nutzer auf Linux umsteigen, habe ich die Hoffnung, dass Windows sich da selbst in Bein schießt. Denn: Mehr Nutzer bedeutet mehr Spiele, mehr Spiele bedeutet mehr Nutzer. Realistischer ist wohl, dass sich die Nutzer eher langsam, wenn überhaupt, von Windows trennen.

    Des weiteren wäre es absolut kontraproduktiv, wenn "alle Linux-Distributionen an einem Strang ziehen würden" - denn das macht in meinen Augen eine der Stärken von Linux aus: Man hat die Wahl! Und ich hab echt keine Lust, so einen überladenen Einheitsbrei zu benutzen.

  • in: Donald Trump ist Präsident

    geschrieben von noxious

    kigollogik schrieb:
    Woher hast du denn deine Zahlen . Mich würde dazu mal die Quelle interessieren!

    The Atlantic schreibt von 150 Firmen, bei welchen er Schulden hat. Das Wallstreetjournal schreibt von mindestens 2,5 Milliarden von der Deutsche Bank AG. (War nicht meine Quelle, aber die müsste ich nun raussuchen...)

    kigollogik schrieb:
    Auch bei dieser Aussage. Woher die Info. Er will Verantwortung im Bereich Klimaforschung von der NASA auf die NOAA schieben und dabei geht es dann wohl um die Kürzung von Forschungsgeldern . Von einem umwerfen der Bemühungen um Klimakonventionen, ist da wirklich die Rede? Bin nicht ganz im Bilde. Das Paris-Abkommen hat doch Bestand, seit Marrakesch?
    Nun, sein großer Plan (Original-Seite) besagt halt unter anderem,
    We’re going to cancel the Paris Climate Agreement and stop all payments of U.S. tax dollars to U.N. global warming programs.
    Ich kann mich ja irren, aber das klingt für mich ein wenig so, als hätte er Pläne, das Pariser Abkommen zu verwerfen.

    kigollogik schrieb:
    Weil die Menschen scheinbar auf Populismus stehen.
    Wohl wahr...
  • in: Donald Trump ist Präsident

    geschrieben von noxious

    invalidenturm schrieb:
    Dass bei den Amis das Prinzip gilt wer die Mehrheit im Bundesstaat erzielt, erhält alle Wahlmännerstimmen des Bundesstaates, ist nicht undemokratischer als das in Deutschland übliche Verfahren. Auch bei Abstimmungen im Bundestag herrscht gelegentlich Fraktionszwang, und deutsche Wähler haben noch nicht mal das Privileg ihre(n) Kanzler(in) / Präsidenten direkt zu wählen. Trotzdem würde ich nicht soweit gehen Deutschland als Oligarchie zu bezeichnen, obwohl natürlich auch in Deutschland einige wenige ein erhebliches Beeinflussungspotential auf politische Entscheidungen haben.
    Deutschland ist auch kein Paradebeispiel für Demokratie, da würde ich eher Norwegen oder Island anführen. Aber Deutschland steht - was die Demokratie angeht - noch deutlich über den USA. (Was den Demokratieindex angeht, ganze 6 Plätze.) Was du als "Fraktionszwang" bezeichnest, würde ich neutraler als Fraktionsdiszipliln bezeichnen.

    invalidenturm schrieb:
    Was Meinungsbildung angeht, billigst Du dem Internet mehr Einfluss zu, als es im Moment auf Wahlentscheidungen ausübt. Die Jugend geht nämlich kaum zur Wahl. Und auch das Internet, und die dadurch gebildete Meinung, ist mit dem entsprechenden finanziellen Engagement, genauso beeinflussbar wie alle anderen Medien. Natürlich wird es immer irgendwo den einsamen Blogger geben, der eine unabhängige Meinung äussert, und von 1000 Leuten gelesen wird, allerdings ist das nichts im Vergleich zu der Zuschauer/Leserschar unserer Medienkonzerne, welche übrigens auch das Internet für sich entdeckt haben.
    Natürlich haben die großen Medien auch Internetseiten, aber das Internet stellt halt ein deutlich größeres Angebot dar, was sich schon dadurch zeigt, dass eben jeder kleine Blogger seine Seite eröffnen kann. 1000 Nutzer sind für einen organisierten Blogger eigentlich nichts. Und da kommt halt der Stein ins rollen: Du kannst sie nicht alle kontrollieren.(Zumindest, solange wir nicht aus Angst alle die Hände in die Luft werfen und die Freiheit ad acta legen.)
    Mir fällt jedoch immer wieder auf, dass eben Leute, welche die "Die Medien werden zensiert/gesteuert"-These unterstützen eben den Punkt nicht sehen: Wenn die Medien Tatsächlich kontrolliert werden würden, würden sie nichts davon wissen. Denn woher sollten sie davon erfahren? Aus dem Internet?

    invalidenturm schrieb:
    Gab dir die fast übereinstimmende Berichterstattung (Trumps Entgleisungen und Hillarys Glanzparaden) und die einhellige Meinung, welche in den deutschen Medien in Bezug auf einen möglichen Wahlsieg Donald Trumps vertreten wurde, sowie die Überraschung als er den Sieg davontrug, nicht auch das Gefühl, dass nur ein paar Leithammel die Meinung vorgeben, welche dann brav vom Rest der deutschen Journalisten übernommen wird?
    Also ich hab in den Medien fast genau so viel schlimmes über Hillary gehört, wie über Trump. Klar, Trump ist nen Mediengeiler Futzi, der sicher auch einiges von dem, was er sagte, eben nur sagte, um in die Medien zu kommen. Aber das hat ja nichts mit "gesteuerten Medien" zu tun, sondern eher mit Sensationsjournalismus. Die Überraschung, dass Trump siegte, ist ja auch vollkommen gerechtfertigt: Es haben deutlich weniger Menschen Trump gewähl, als Hillary.

    invalidenturm schrieb:
    Dazu wie arm oder reich Donald Trump ist, würde ich mich an Forbes und andere halten, wonach Trump vermutlich Anfang 2016 4,7 Mrd. US Dollar schwer war, seine eigene Angabe von 10 Mrd. halte ich für unglaubwürdig. Durch den Wahlkampf und Abwertungen bei Immobilien dürfte er heute möglicherweise 1 Mrd. weniger haben. Allerdings klingt das für mich noch nicht nach Pleite...
    Erfasst denn die Forbes-Liste auch die offenen Schulden? Allein an die Deutsche Bank sind noch über 2 Milliarden USD offen. Dazu kommen noch ca. 60 andere Kreditgeber. (Die Deutsche Bank ist nur einer der größten.) Ziehst du jene heran, welche ihm Geld geliehen haben - und die sollten dies doch ziemlich gut einschätzen können, lag es 2015 netto bei ca. 700 Millionen.
    Mag sein, dass sein Imperium aktuell vielleicht 5 Milliarden, vielleicht sogar 10 Milliarden wert ist. Aber zieht man die Schulden davon ab, bleibt davon nicht viel.

  • in: Donald Trump ist Präsident

    geschrieben von noxious

    invalidenturm schrieb:
    Ja mit dieser Einschätzung wirst Du vermutlich leider recht haben, für's Klima war Trump die schlechtere Variante. Wie das ganze wohlstandstechnisch ausgeht ist schwer einzuschätzen, es ist ja erstmalig so, dass einer der bisher indirekt über Lobbyisten mitregierenden nun direkt als Präsident am Werk ist. Falls er den Bogen überspannt, kann das ganz schnell nach hinten losgehen. Ich denke die Amis werden da auch ziemlich stark darauf achten, ob Trump sich und seinesgleichen zusätzliche Privilegien einräumt, oder vielleicht sogar einige Steuerschlupflöcher schliesst.
    Ich fürchte, ich habe mich da nicht eindeutig ausgedrückt: Das Problem ist, dass in den USA halt gegen den Mainstream entschieden wurde. Hillary hatte mehr Stimmen. In einer Demokratie - einer "echten" Demokratie ist sowas undenkbar. Deshalb kann die USA keine Demokratie, sondern bestenfalls eine Oligarchie sein. Und da spielt es keine Rolle, auf wie verkommene Weise sich der "Mainstream" gebildet hat.

    Was die Meinungsbildung angeht - ich höre dies immer wieder, aber trotzdem ich viele Journalisten im engen Freundeskreis habe, niemals von denen. Bestenfalls von jemandem, der mit der "Veröffentlichung" dieser Information Geld verdient. Abgesehen davon, dass die "Medienmonopole" immer mehr an Relevanz verlieren, was die Meinungsbildung angeht, sondern das im prinzip führende Leitmedium das Internet ist, was die "Kontrolle" durch irgendwelche Monopolisten ziemlich schwer macht. Klar, solche Sachen wie die Transatlantikbrücke machen einem Angst, aber die - meiner Meinung nach - einzige ernsthafte Gefahr besteht in Menschen, welche nie gelernt haben, ihre Meinung zu bilden, sondern diese schlicht zu assimilieren. Ich denke da liegt der Hund nämlich eigentlich begraben: Die Leute glauben, was sie hören. Kein "Infragestellen", alle anderen Quellen lügen, kein Begriff davon, dass die Wahrheit wahrscheinlich irgendwo in der Mitte liegt.
    So wird von Leuten, welche die These der "Meinungsmache durch die Medien" unterstützen, häufig angemerkt, dass zu bestimmten Themen sehr einseitg berichtet wird. Bei näherer Betrachtung ist dies gar nicht der Fall. Aber man selektiert halt nur das aus, was einem grad in den Kram passt. Wettern die Medien gegen Russland, sind sie USA-Hörig, wettern sie gegen die USA, sind sie Mainstream, berichten sie negativ über den Mainstream, steckt eine andere Verschwörung dahinter. Ignoriert wird dabei immer, dass das eine der Theorie vorher schlicht widerspricht.

    Damit will ich nicht sagen, dass es nie vorkommt, dass ein Senderchef Berichte ablehnt, ja, dass dort sogar hin und wieder gesteuert wird. Aber davon auszugehen, dass die gesamte Medienlandschaft gesteuert wird, halte ich doch für weit her geholt. Denn dafür gibt es viel zu viele Medien - und deutlich größere, als kümmerliche Konzerne wie Springer oder ähnliches.

    invalidenturm schrieb:
    Ja mit dieser Einschätzung wirst Du vermutlich leider recht haben, für's Klima war Trump die schlechtere Variante. Wie das ganze wohlstandstechnisch ausgeht ist schwer einzuschätzen, es ist ja erstmalig so, dass einer der bisher indirekt über Lobbyisten mitregierenden nun direkt als Präsident am Werk ist. Falls er den Bogen überspannt, kann das ganz schnell nach hinten losgehen. Ich denke die Amis werden da auch ziemlich stark darauf achten, ob Trump sich und seinesgleichen zusätzliche Privilegien einräumt, oder vielleicht sogar einige Steuerschlupflöcher schliesst.
    Natürlich lässt sich da nur spekulieren, aber wenn Trump diese Steuerschlupflöcher schließt, ist er doch praktisch augenblicklich bankrott.(Nicht, dass er das bei genauer Betrachtung nicht sowieso ist...) Wie schon geschrieben: Er steht bei der Deutschen Bank allein mit über 2 Milliarden USD in der Kreide. Selbst, wenn er all seine Besitztümer veräußert, bleibt - so meine ich gelesen zu haben - noch über eine halbe Milliarde an Schulden. Ganz davon abgesehen, dass er halt die US-Bevölkerung schon mehr als ein mal komplett über den Tisch gezogen hat. Seine Unternehmen wurden zum großen Teil von der US-Bevölkerung bezahlt - die Unternehmen, die er in die Pleite manövriert hat und die er nur noch besitzt weil - andere Menschen seine Unfähigkeit bezahlt haben. (Rettungsschirm von über 60 Banken, unter anderem die Deutsche Bank, woher halt die über 2 Mrd. USD schulden kommen.) Und wenn ich das richtig mitbekommen hab, steht er mit seinen Unternehmen schon wieder vor dem Bankrott.

    Jemand, der so ausgiebig versagt hat, Steuern hinterzogen (Okay, "Vermieden") hat, der so offensichtlich nur auf den eigenen Profit im Auge hat, soll sich nun selbst ins Bein schießen, indem er die Steuerschlupflöcher schließt, die dafür sorgen, dass er nicht unter der Brücke haust? Ich denke ich lehne mich da nicht weit aus dem Fenster, wenn ich das doch stark bezweifel.

    Wie schon gesagt: Alles reine Spekulation, aber für mich klingt das alles nicht sehr plausibel.
  • in: Donald Trump ist Präsident

    geschrieben von noxious

    invalidenturm schrieb:
    Donald Trump ist President, und ich finde es schön. Zeigt doch dieser unerwartete Wahlausgang dass Demokratie doch noch eine Chance gegen Mainstream hat, und auch Meinungsforscher manchmal irren. Ich weiss, dass es hier viele gibt die lieber Hillary Clinton vorne gesehen hätten und möchte nun hier mit Euch über die möglichen Auswirkungen eines Präsident Trump diskutieren.
    Findest du es nicht ein wenig abstrakt, Mainstream als Gegensatz zur Demokratie zu nennen? Schließlich ist doch Demoikratie genau dies: Die Macht des Mainstream. Denn Mainstream bezeichnet nun mal die Meinung der meisten.

    Aber ich verstehe die Verwirrung: Schließlich wurde in den USA gegen den Mainstream entschieden. Deshalb kann nur eine Aussage stimmen: Die USA sind eine Demokratie, oder es wurde gegen den Mainstream entschieden. Dass die USA eine zweifelhafte Demokratie sind, steht ja schon länger fest. Die Mehrheit hat Hillary gewählt. Trump ist Präsident. Ergo: Die USA sind keine Demokratie.

    Aber davon abgesehen: Hillary hatte zumindest geringfügig politische Vorkenntnisse. Das größte, was Trump zustande gebracht hat, ist sein Erbe gegen die Wand zu fahren. Und das auf Kosten der US-Bevölkerung, denn diese haben durch Steuererleicherungen, die er erhalten hat, quasi sein gesamtes "Imperium" finanziert. Und nicht nur die - Trump steht mit über 2 Milliarden USD bei der Deutschen Bank in der Kreide. Also wird jemand, der sein Millionenerbe an die Wand gefahren hat, wirtschaftlich also vollkommen versagt hat, "America great again" machen? Ich habe da so meine Zweifel.

    Dazu kommt, dass er dieses Ziel im wesentlichen so erreichen will, dass alle anderen "America great again" machen sollen. Nicht die USA, Mexico soll für seine Mauer aufkommen. Deutschland soll für die Angriffskriege der USA zahlen.

    Und dann kommt die Tatsache, dass er die Bemühungen der Klimakonventionen umwerfen und so die Arbeit von 20 Jahren zunichte machen. Klar, kurzfristig wird das sicher eine gute möglichkeit für zwielichtige Geschäfte am Klimaschutz vorbei sein, wo eben grade solche Unternehmen wie Kfz-Hersteller Profite sehen. Während ein Hurricane nach dem anderen die US-Bevölkerung dezimiert.

    Man könnte die Liste nun endlos fortsetzen. Trump wird - so denke ich - die ganze Welt um Jahrzehnte zurück werfen. Sowohl Menschenrechtlich, als auch Umweltpolitisch und - nicht zuletzt - Wohlstandstechnisch. Ich wette, am Ende profitiert nur einer davon: Trump.

    Nicht, dass ich gerne Hillary an seiner Stelle gesehen hätte. Sie ist in etwa genau so schlecht für das Amt geeignet, wie er. Aber immerhin hat sie bisher irgendwas auf die Reihe bekommen. Das gibt ihr einen geringen Vorsprung. Zudem fände ich es gut, wenn dort auch mal 'ne Frau im weißen Haus versagen würde, womit dann das feministische Märchen, Männer seien an den Missständen in der Welt schuld, aus der Welt wäre.

    Aber letztenendes war es die Wahl zwischen Pest und Cholera. Egal wie sie ausgegangen wäre - die Welt hätte verloren. Mit Trump nur halt ein bisschen mehr.
  • in: Kombi-Prüfung mit JS

    geschrieben von noxious

    tobb10001 schrieb:
    Was dazu immer wesentlich beiträgt sind kommentare, damit auf "menschlich" nochmal festgehalten ist, was der Codeschnipsel macht/machen soll, da gibt es in Javascript die Möglichkeit mit
    /*abc*/
    zu deklarieren (das Komenntar geht bis zu den schließenden Zeichen) oder mit
    //abc
    das Kommentar geht bis zum Zeilenende.

    LG tobb10001
    Natürlich sind Kommentare ein gutes Mittel, um den Code auszuzeichnen. Aber es ist schwierig, da das richtige Maß zu finden. Ich für meinen Teil bevorzuge es, Kommentare bei eigenen Funktionen und Objekt-Methoden zu belassen, aber bei einfachen If-Conditions halte ich das meist einfach für übertrieben, alles zu kommentieren. Hier gilt es - meiner Meinung nach - eher darauf zu achten, dass der Code möglichst selbsterklärend ist. Also aussagekräftige Variablennamen, etc..

    Vor allem bei Javascript, wo die Datei ja (ohne ordentliches Caching schlimmstenfalls sogar bei jedem Aufruf) schließlich ausgeliefert werden muss, sollte man denke ich auch darauf achten, dass Kommentare eine große Javascript-Datei schnell mal 10-15-mal so groß werden lassen können. Da (leider) auch heute noch viele Menschen mit relativ begrenzer Bandbreite und Datenvolumen zu kämpfen haben, sollte man letztenendes darauf achten, dass man dem Nutzer, dem der Programmierhintergrund eigentlich nicht interessiert, keinen Bärendienst erweist.

    Ist aber wohl letztenendes eine Frage des Programmierstils und wird sicher von jedem ein wenig anders gehandhabt.
  • in: HDMI funktioniert am Raspberry Pi

    geschrieben von noxious

    Klingt erstmal kurios, aber mein Problem ist tatsächlich, dass HDMI auf dem Raspberry Pi funktioniert. Viel mehr: Ausschließlich dort. Ich habe mich schon damit abgefunden, dass der HDMI-Anschluss an meinem Monitor kaputt ist. (Funktioniert weder am Laptop, noch am PC) Seltsamerweise funktioniert es aber mit dem Raspberry Pi. Nun stellt sich mir die Frage: Warum ist das so? Was macht der Raspberry Pi anders, als andere Geräte?

    Es kann weder am Kabel liegen (Ich habe verschiedene ausprobiert) noch daran, dass die anderen Geräte kaputt sind (An anderen HDMI-Geräten funktionieren die reibungslos.)
  • in: Kombi-Prüfung mit JS

    geschrieben von noxious

    Die ausgeweitete Form:
    var ergebnis = false;
    var monat_val       = document.getElementById('monat_id').value != "";
    var jahr_val        = document.getElementById('jahr_id').value != "";
    var checkbox_val    = document.getElementById('checkbox_id').checked;
    
    if(monat_val){
        if(jahr_val){
            if(!checkbox_val){
                ergebnis = true;
            }
        }
    }
    
    if(!monat_val){
        if(!jahr_val){
            if(checkbox_val){
                ergebnis = true;
            }
        }
    }
    
    if(ergebnis){
        ...
    }
    Kurze Erklärung. Ich setze als erstes das Ergebnis auf false, da es im wesentlichen mehr false-Fälle gibt, als true-Fälle. (Ich nehme an, wenn Jahr, aber nicht Monat und nicht Checkbox wäre es auch falsch, usw.) So sparst du dir, jeden abstrusen Falsch-Fall zu prüfen und änderst es nur, wenn es halt richtrig ist. Dann speicher ich die Fälle in variablen, dadurch erspare ich mir nicht nur ein wenig Tipparbeit, sondern - falls ich am Ende etwas an den Bedingungen ändern will, muss ich das nur ein mal im Code machen und es wird für alle Stellen, wo das abgefragt wird, geändert.
    Danach halt nur noch verschachtelte If-Abfragen, welche eigentlich selbsterklärend sein sollten.

    Nun kann man das ganze - um Platz zu sparen - natürlich noch zusammen fassen. So könnte man schreiben
    if((monat_val)&&(jahr_val)){
        if(!checkbox_val){
            ergebnis = true;
        }
    }
    Der &&-Operator überprüft, ob beide Aussagen wahr sind. Bzw. wenn ich mich nicht irre, ob die rechte Aussage mit der Linken übereinstimmt - was wichtig wäre, wenn man halt noch weiter auflösen will. Die Klammern lasse ich der Übersichtlichkeit halber mal drin, auch, wenn die nicht zwangsweise notwendig sind. So könnte man nun noch weiter auflösen:
    if(((monat_val)&&(jahr_val))&&(!checkbox_val)){
        ergebnis = true;
    }
    Das sollte ebenfalls funktionieren. So prüft er als erstes, ob
    monat_val
    und
    jahr_val
    wahr sind. Nehmen wir an, dem ist so, wird daraus dann ein
    if((true)&&(!checkbox_val))
    . Als nächstes prüft er, ob
    checkbox_val
    nicht wahr ist. Nehmen wir an, dem ist nicht so, wird daraus dann ein
    if((true)&&(true))
    Beim letzten kommt "wahr" bei rau, weil eben abgefragt wird, ob es nicht wahr ist - durch das
    !
    . Dann überprüft er, ob wahr und wahr wahr sind, woraus sich ergibt:
    if(true)
    . Und schon hast du drei Dinger auf ein mal geprüft.

    Dazu sei jedoch gesagt, dass es nicht immer Sinn macht, Dinge so zusammen zu fassen. Der Anspruch an Code sollte sein, dass er gut lesbar ist. Wenn jemand einen Blick auf den Code wirfst, sollte möglichst immer auf den ersten Blick offensichtlich sein, was gemeint ist. Dadurch entsteht gut wartbarer Code.
  • in: Daten aus Datenbank ablesen

    geschrieben von noxious

    Ich würde mal als Tip:
    echo $sql;
    einschieben. Dort kommst du wahrscheinlich darauf, dass du einen Fehler bei
    [...]verein_id='.$vID.'[...]
    hast. (Quotationmark vs. Doublequotationmark)

  • in: automatisches Löschen von Dateien älter als

    geschrieben von noxious

    Hallo,

    Keine Ahnung, ob Lima-City diese Funktion anbietet - kich bezweifel das, da es doch ein sehr spezifisches Anliegen ist.

    Aber: Es gibt diverse Ansätze, dies manuell zu lösen. Der einfachste wäre, das ganze über PHP zu lösen - da ja die Bilder hoffentlich via PHP abgerufen werden, könnte man ein kleines Script basteln, welches beim Aufrufen der Seite alle Dateien, welche älter, als ein bestimmter Zeitrahmen sind, löscht. Eine Quick&Dirty-Lösung:
    $daysalive = 7;
    $now   = time();
    
      foreach ($files as $file)
        if (is_file($file))
          if ($now - filemtime($file) >= 60 * 60 * 24 * $daysalive)
            unlink($file);

    Man sollte halt dafür sorgen, dass dieses Script minestens ein mal am Tag ausgeführt wird.

    Ansonsten könnte man noch mit FTP direkt arbeiten. Für Linux wurde hier ein Bash-Script erstellt, welches dies erledigt. Für Windows-Batch gibt es hier ein Beispiel geschrieben. (Beides ungetestet, sieht aber plausibel aus.)

    Ansonsten gibt es noch weitere Möglichkeiten, sowas lokal über diverse Programmier- oder Script-Sprachen umzusetzen.

    Ich hoffe, ich konnte helfen.
  • in: Dieser Anbieter Seriös ? .one Domain

    geschrieben von noxious

    n3tcode schrieb:
    Ja das habe ich mir so auch gedacht , mit Seo und die Google Suchkonsole kenne ich bereits alles.
    Aber halt das was mir Sorgen macht das da was drane sein könnte da .one Domains vielleicht eine andere Reglung haben könnten were das irgendwie möglich?
    Nein, eine .one Domain ist schlicht eine gTLD Domain. Google selbst sagt, dass es keine Nachteile in Sachen Wertung oder ähnlichem geben wird. Eine .one TLD ist nichts anderes, als eine .de oder .com TLD.

    Wie schon von qnavry geschrieben wurde, werden die dir dort schlicht einen (wahrscheinlich überteuerten, wenn nicht sogar betrügerischen) Dienst anbieten, wo sie deine Domain bestenfalls bei Google eintragen. Möglicherweise haben die auch Bots am laufen, welche deine Seite verlinken, wodurch du einerseits bei Google aufsteigen kannst, andererseits aber auch ganz schnell geblacklisted werden kannst.
  • in: Upload einer Datei über C# Progrann

    geschrieben von noxious

    Ohne das jetzt testen zu können:
    FtpWebRequest request = (FtpWebRequest)WebRequest.Create(new Uri("ftp://dultus.lima-ftp.de"));


    Das ":21" am Ende ist der Standard-Port, den sollte man eigentlich weg lassen können. Das "dultus@" ist die Benutzerkennung, welche du ja über die NetworkCredentials setzt.

    Wäre es denn aber nicht allgemein einfacher, wie hier beschrieben, via WebClient? Oder gibt es einen besonderen Grund, darauf zu verzichten?
  • in: Fedora Bluetooth beschleunigen

    geschrieben von noxious

    Ich kenne Fedora nicht, aber wie wird die Maus denn aktuell gestartet? Ohne dies zu wissen, kann man schwer sagen, ob es früher geht.

    Aber prinzipiell kenne ich zwei Methoden, möglichst früh auf das Gerät zuzugreifen. Zum einen wäre da systemd, wo du einen service schreibst, den du dann autostartest.. Dafür legst du die Datei
    /etc/systemd/system/btmouse.service
    an. In diese schreibst du etwas wie
    [Unit]
    Description=systemd Unit to automatically start a bluetooth mouse
    Requires=dbus-org.bluez.service
    After=dbus-bluez.org.service
    ConditionPathExists=/usr/bin/hcitool
    ConditionPathExists=/usr/bin/hciconfig
    
    [Service]
    Type=oneshot
    ExecStart=
    ExecStart=/usr/bin/hciconfig hci0 up
    # ignore errors on connect, spurious problems with bt? so start next command with -
    ExecStart=-/usr/bin/hcitool cc 00:00:00:00:00:00
    
    [Install]
    WantedBy=multi-user.target
    Anstelle von
    00:00:00:00:00:00
    sollte die MAC deiner Maus stehen, möglicherweise musst du auch hci0 durch den namen deines bluetooth-adapters ersetzen. Wenn du es noch einfacher machen willst, kannst du das ganze auch auf eine externe Config-Datei auslagern, aber darauf gehe ich hier erstmal nicht ein.
    Danach kannst du via
    systemctl enable btmouse.service
    das ganze aktivieren.

    Die zweite Methode wäre über ne udev-regel. Dafür erstellst du eine Datei wie etwa
    /etc/udev/rules.d/10-local.rules
    in welche du schreibst
    # Set bluetooth power up
    ACTION=="add", KERNEL=="hci0", RUN+="/usr/bin/hciconfig hci0 up"
    Wobei auch hier wieder den bluetooth-adapter ersetzt werden muss.

    Deinen Adapternamen bekommst du über
    hcitool dev
    , die mac deiner Maus bekommst du über
    bluetoothctl
    und dann
    scan on


    Ich hoffe ich konnte helfen.
  • in: Gamexpoint.com

    geschrieben von noxious

    WBB kostenlos?! Aja.....seit wann denn das? Die lite Version vllt aber nicht die große version...

    Sieht halt danach aus. Der Nutzer sieht deine Kosten nicht. Dementsprechend...

    Interviews sind schon in Verhandlung mit EA.

    Sprich: Du hast keinen der versprochenen Contents?

    Bezüglich des Aufbaues der Bereiche, sind wir intern gerade am Umplanen, nächstes Jahr wird sich hier viel ändern.

    Warum dann jetzt schon eröffnen? Sorry, aber so ruiniert man sich die reputation.

    Zudem ist EA zuletzt weniger Entwickler als Publisher von Spielen. Die haben mit der Entwicklung wenig am Hut... Und wenn überhaupt bekommste da wahrscheinlich nen Pressesprecher - der seinen Scheiß als erstes bei den großen Seiten ablädt. Ne kleine Seite mit weniger als 10 Millionen Hits wird da wohl kaum in Frage kommen.

    Ich will dich nicht runter machen - ich will dir die Realität vor Augen führen. Ein "exklusives" Interview zu bekommen ist für eine kleine Seite schier unmöglich - sofern keine persönlichen Beziehungen zum Entwickler bestehen. Frag doch mal Menschen, die bei etablierten Medien arbeiten, wie schwer es ist, ein Interview zu bekommen. Selbst Medien wie der ARD werden regelmäßig zurück gewiesen, weil "Der deutsche Markt nicht relevant genug ist". Und die erreichen quasi 80 Millionen Menschen täglich. Wie schätzt du also die Chance auf exklusive Inhalte für deine Seite ein?
    Ergo bekommst du - wenn überhaupt - deine Inhalte aus offiziellen Quellen, wenn du schnell genug bist, möglicherweise gleichzeitig mit den großen Konzernen. Und das wäre tatsächlich der beste Fall, wahrscheinlicher ist, dass du den großen Medien immer einige Tage hinterher hinkst.

    Ich will dir damit nicht sagen "Gib auf!" sondern eher: Wenn du dort etwas werden willst, muss du dich erheblich mehr anstrengen. Denn: Mit dem, was du da hast, wirst du nicht viel.

  • in: Gamexpoint.com

    geschrieben von noxious

    Meine Meinung: Nen billiges (und kostenloses) Fertigforum. Da ist nichts individuelles - außer möglicherweise das Design, aber ich fürchte selbst das ist irgendwo fertig kopiert. Das Thema ist nicht besonders... Besonders. Es gibt postfaktisch etwa ne milliarde Seiten, welche exakt dasselbe versprechen, aber letztenendes aufgrund mangelnder Relevanz schlicht nicht halten können. Es ist also - ganz deutlich - jenseits der Seiten, die ich für Informationen aufsuchen würde. Die Seite scheint sich also einzureihen in jene unzählige Seiten, welche einem schlicht das Suchergebnis versauen.

    Wenn du/ihr etwas von Relevanz erzeugen wollt, empfehle ich ganz klar eine persönliche Note - etwas woran man die Seite wiedererkennt. Ein schlichtes Design reicht da - meiner Meinung nach - nicht aus. Schau dir Professionelle Seiten dazu an - sie alle haben einen ganz persönlichen Stil, einen Wiedererkennungswert.

    Das würde sich selbstredend auch auf die Qualität des Inhalts auswirken, da dieser ja offensichtlich von dritten abhängt, welche dazu bereit sein müssen, mit euch auch Interviews zu führen. Bisher macht es halt einfach den Eindruck eines Fanforums, aufgesetzt von einem 12-Jährigen, der seine Texte irgendwo raubkopiert. Denn ich bezweifel, dass irgendein Spielehersteller auch nur ansatzweise Interesse daran hat, ein Interview mit jemandem zu führen, der sich so präsentiert. Dazu kommt die mangelnde Relevanz - 100, 200 oder gar 1000 Besucher sind für (große) Spielehersteller vollkommen irrelevant. Wenn ein Spiel von 1000 Menschen gespielt wird, ist es ein unsäglicher Flop.

    Also meine Empfehlung: Macht eine tatsächliche Seite draus. Das Forum darf - wenn überhaupt - lediglich ein Nebenprodukt sein. Meinst du Lima-City würde existieren, wenn der einzige Nutzen das Forum wäre? Da gibt es deutlich bessere.

    Kurzum: Zurück ans Zeichenbrett. Seite aufsetzen, ansprechendes Design entwickeln, forum als Nebensache. Bis dahin wird es wohl kaum Nutzer oder Anbieter geben, welche diese Seite unterstützen.
  • in: ImageJ startet nicht mehr nach Upgrade auf Linux Mint 18

    geschrieben von noxious

    Ich kenne mich mit Linux Mint nicht aus - aber grundsätzlich:
    a) Starte das entsprechende Programm aus dem Terminal. Grundlegende Fehlermeldungen werden dort dann ausgegeben.
    b) Für mich klingt das ganze nach einem Software-Problem der entsprechenden Software. Auch, wenn das eigsentlich trivial sein sollte - hast du schon mal nach entsprechenden Bugs gegoogelt?

    Ansonsten lässt sich halt - ohne explizite Fehlermeldung - wenig dazu sagen. Möglicherweise ist deine Java-Version inkompatibel mit der im Repository veröffentlichten Version. Wenn das Repository Java noch nicht aktuell hat, das Programm aber schon, wird es schwierig. Wenn das Repository das Programm noch nicht aktuell hat, Java aber schon... Ist es weniger wahrscheinlich, aber möglich, dass Fehler auftreten.

    Also würde ich versuchen, erstmal aus dem Terminal zu starten, ansonsten halt nach Logs zu suchen. (Keine Ahnung, wie konform Mint da ist, deshalb lassen sich spezifische Pfade nicht nennen, aber alternativen wären ~/.config/.java oder ähnliches)
  • in: Spielvorschläge und Lieblingsspiele

    geschrieben von noxious

    Ich spiele aktuell hauptsächlich
    - Faeria, ein Free2Play Kartenspiel, ähnlich Magic - The Gathering & Co, welches sich im Prinzip noch in der Beta befindet. Es erweitert das Konzept von 08/15-Kartenspielen wie Hearthstone mit einer erweiterten Spielfeldmechanik, wodurch meiner Meinung nach deutlich mehr Tiefe und strategische Möglichkeiten entstehen.

    - Life is Strange(vorsicht, kein HTTPS), ein Adventure, welches meiner Meinung nach zu den besten dieses Genres der letzten 20 Jahre gehört. Auch, wenn die Grafik nicht Top-Modern ist, ist die Geschichte doch äußerst schön.

    Da ich versuche, mich auch Spiele-Technisch vollständig von Microsoft zu trennen, investiere ich mein Geld lieber in Spiele, welche auch Linux-Support anbieten. Dennoch gibt es leider noch einige Titel, bei welchen ich Wine zur Hilfe nehmen muss, um sie unter Linux spielen zu können - dazu zählen die Dragon Age- und Mass Effect-Reihe. Wobei grade der im Frühjahr erscheinende vierte Mass Effect-Teil (Mass Effect: Andromeda) mich wohl wieder zwingen wird, ein Windows-System aufzusetzen. Wobei die Hoffnung nie stirbt, dass EA irgendwann auch die Nase voll davon hat, was Microsoft da mit ihrem Market-Place abziehen will...

    Ansonsten bin ich ein klarer Retro-Fan. Ob nun via ScummVM die Monkey Island-Teile, Day of the Tentacle oder Indiana Jones, oder via Emulator alte NES/SNES Spiele. Auch mal eine Runde OpenTTD oder Freeciv mit Freunden über's Netz kann mich hin und wieder überzeugen. Und wenn ich dann mal ganz retro drauf bin, log ich mich in Morgengrauen ein.
  • in: C oder C++ lernen?

    geschrieben von noxious

    davidlw schrieb:
    Wenn es nur darum geht, programmieren zu lernen, sollte man meiner Meinung nach weder C noch C++ lernen. Für den Alltagsgebrauch sind Sprachen wie Python einfach praktischer.

    Totaler Blödsinn, wenn du mich fragst. Python nimmt einem die Dinge ab, welche eben grade wichtig sind, wenn man programmieren will. Dazu kommen vollkommen schwachsinnige/unintuitive Operator-Überladungen. Python ist so ziemlich das schlimmste, was je geschaffen wurde. Es ist der Green-Lantern-Movie unter den Programmiersprachen, lediglich so häufig vertreten, weil es so viele schwachsinnige gibt, welche den blödsinn auch noch hypen. Ich meine: Warum ist
    a = [1, 2, 3, 4]
    b = a
    a = a + [5]
    b=[1, 2, 3, 4]
    aber
    a = [1, 2, 3, 4]
    b = a
    a += [5]
    b=[1,2,3,4,5]
    ?
    Dann kommen semantische Whitespaces... Ich mein: Wenn ich semantische Whitespaces will, lern ich Whitespace, aber doch nicht so ein "Mal so, mal so"-Ding wie Python...

    Aus eigener Erfahrung kann ich sagen, dass die Grundprinzipien, die man mit den "urtümlichen" Sprachen lernt und das logische Verständnis, was man dadurch erhält, sich sehr gut auf andere Sprachen übertragen läßt.

    Halte ich für Blödsinn. Es ist ein deutlicher Unterschied zwischen funktionalen, imperativen und objektorientierten Sprachen. Der Unterschied geht so tief, dass viele, welche mit funktionalen/imperativen Sprachen beginnen, sich am Ende deutlich schwerer tun, objektorientierte Sprachen zu lernen. Umgekehrt liefern mehr Abstraktionsebenen immer weniger Performance. Ich für meinen Teil würde - wenn ich mich heute entscheiden müsste - mit einer objektorientierten Sprache beginnen und mich dann - je nach bedarf - zurück arbeiten.

    Objektorientierung impliziert alles andere irgendwo, aber es vermittelt halt ein Verständnis für das, was heute (und im Beruf) wichtig ist: Abstraktion. Bei aktuellen Projekten ist Hardwarenähe meist gar nicht mehr sooo wichtig und kann ggf. fast immer relativ einfach durch entsprechende Sprachbindungen implementiert werden.

    Der Unterschied "C" oder "c++" besteht also denke ich weniger in der Semantik, als viel mehr in der Struktur der daraus entstehenden Programme. Und das ist es, was Leute von Anfang an lernen sollten - denn später wird das schwierig.

    Meiner Meinung nach sollten Leute also mit einer rein Objektorientierten Sprache wie beispielsweise Java beginnen. Man kann damit am Ende wenig sinnvolles machen, aber man beginnt mit einer guten Grundlage in Sachen Objektorientierung, hat eine C-ähnliche Syntax und kann dann damit fortsetzen, dinge wie die Garbage-Collection auszuhebeln (C++) schnelle, imperative (C) Programme einzubinden oder ganz hardwarenah zu arbeiten (ASM)
    Je tiefer man in die Materie will, desto tiefer geht man. Aber man hat ein ordentliches "Grundgerüst" erlernt, welches gemeinsames Arbeiten ermöglicht.
  • in: Uefa Zensur

    geschrieben von noxious

    12 Sekunden langes youtube Video sperren
    Offizielle Begründung der Sperrung sind Fehlende Bildrechte.
    Da es nur ein 12 Sekunden Video ist das alle elf Meter der Deutschen auf einmal zeigt und eins mit den Italienern ist die Offizielle Begründung einfach quatsch.
    Mit der Länge/Größe der Daten haben Bildrechte doch gar nichts zu tun! Ein Foto hat eine Länge von 0 Sekunden und dennoch gibt es dort Bildrechte. Wenn die UEFA ein Bild/Video macht, hat es die Bildrechte daran, ebenso wie jeder Fotograd die Bildrechte an seinem Bild hat. Wenn andere dies auf Youtube stellen, handeln sie schlichtweg kriminell.

    Dass es nicht okay ist, dass ein (im Prinzip) öffentlich finanziertes Sport-Ereignis so zu reglementieren, sei mal dahin gestellt. Es handelt sich hier aber um Gesetze, welche in ener Demokratie beschlossen worden. Die Mehrheit war dafür, dass es eben genau so läuft.
  • in: Technische Hilfe für ein Internetcafè

    geschrieben von noxious

    bruchpilotnr1 schrieb:
    An deiner stelle würde ich das lieber lassen und mit dem geld eine sinnvollere investition tätigen. Zb ein neues auto oder sonstiges. Ein internetcafe hatten wir auch mal. Das hat auch zu gemacht. Es lohnt sich einfach nicht mehr so wie früher. Heute hat jeder wirklich jeder ein handy mit internetzugang.
    Und das Handy hat immer ein Datenvolumenlimit. In den nächsten Monaten soll ein neues Gesetz zur Störerhaftung beschlossen werden, welches beispielsweise Internetcafes stark bevorteilt. Als ehemaliger Internetcafe-Besitzer kann ich sagen: Die restriktive Störerhaftung in Deutschland war der Grund, weshalb ich meine dicht gemacht hab. Ich würde nun nicht behaupten, dass es sinnlos wäre, bei der neuen Gesetzeslage erneut darüber nachzudenken.

    Vor allem in ländlichen Gebieten, wo die Netzabdeckung doch sehr gering oder sehr teuer ist, wäre ein Internetcafe doch sehr erfolgsversprechend. In Zeiten, wo die Telekom das Geld, welches ihnen für den Netzausbau gegeben wird, doch lieber in die Bürokratie für Volumenlimits fließen lässt, um mehr Geld von ihren Kunden zu bekommen, weil alles andere den Profit mindern würde, könnten Internetcafes doch bald sehr gefragt sein.
  • in: Web-Chat über XMPP-Client

    geschrieben von noxious

    hackyourlife schrieb:
    Eine recht interessante Argumentation. Danach dürftest du niemals in PHP programmieren, da du dort die PHP-Bibliothek nutzt usw. Und wegen Open Source usw: es handelt sich hier um ein unter MIT-Lizenz stehendes Projekt, also ist das weder ein Problem, noch nicht gewünscht, sogar ganz im Gegenteil! Aber gut, es gibt eben Leute, die das Rad ganz gern neu erfinden wollen usw., wobei die Anzahl der Fehler im dabei entstehenden Programmcode fast mit Sicherheit größer ist als z.b. bei der eben verlinkten Bibliothek.
    Ich darf schon, ich möchte nur nicht. Und wenn es sinnvolle Argumente gäbe, Serverseitig auf Bibliotheken zu verzichten, würde ich auch dies tun. Da ich aber sowohl einen HTTP-Server, als auch einen Scriptspracheninterpreter geschrieben habe, gäbe es da nicht ein mal den Lern-Effekt. Bei Javascript, BOSH sieht das ganze anders aus. Meine Weigerung, mich auf OpenSource-Projekte zu stützen beruht auch nicht auf ein "Ich darf nicht", sondern auf ein "Ich möchte nicht". Dementsprechend ist es auch vollkommen egal, dass es theoretisch möglich wäre. Und offenbar ist dir meine regelmäßige Äußerung, dass es mir auch um den Lern-Effekt geht entgangen. Und in der Hinsicht sind gemachte Fehler ein Vorteil, denn nur aus Fehlern lernt man.

    Wir können also weiterhin die Dinge behandeln, um welche ich explizit nicht gebeten habe, um das ganze dann in eine Grundsatzdiskussion münden zu lassen, welche überhaupt nichts mehr mit dem Thema zu tun hat, oder wir vertrauen mal darauf, dass ich meine Gründe dafür habe, dass ich Dinge so machen möchte, wie ich sie machen möchte. Es gibt wohl keine zwei Meinungen, was produktiver ist.

    hackyourlife schrieb:
    Wenn du dir nun sicher bist, das Rad neu erfinden zu wollen: BOSH sind nur XML-Daten, die du via HTTP überträgst, vermutlich via XMLHttpRequest o.ä. Wenn du willst kannst du dir da auch eine der gefühlten 1000 JS-XMPP-Bibliotheken ansehen, um davon zu lernen.
    Kurz gesagt: Du weißt es nicht? Hätten wir damit angefangen, wären wir schon fertig.

    hackyourlife schrieb:
    Die Sache mit Port 80: dafür gibt es ein Proxy-Modul (mod_proxy) im Apache, welches die BOSH-Anfragen an den BOSH-Server (an einem anderen Port und/oder Host) umleiten kann.
    Danke, ich werde mir das mal ansehen.
  • in: Web-Chat über XMPP-Client

    geschrieben von noxious

    hackyourlife schrieb:
    Viel einfacher ist es BOSH zu nutzen: sieh dir strophe.js an, das kann mit solch einem Endpunkt kommunizieren und ist nicht mehr als eine XMPP-Bibliothek. Das ist wohl das einfachste und auch sinnvollste, wie du deinen Chat bauen kannst ? PHP o.ä. ist dabei übrigens nicht nötig.
    Der einfachste Weg wäre wohl, etwas fertiges zu nehmen. Jedoch würde dabei der Lern-Effekt vollständig flöten gehen. Deshalb will ich es selbst machen. Zudem müsste ich mich dann wieder durch etliche Zeilen fremdcode wälzen. Und es bringt viele Funktionen mit, welche ich möglicherweise gar nicht brauche, was die Webseite dann wieder riesig macht - was ich vermeiden möchte. Dazu kommt dann noch, dass ich ungern OpenSource-Projekte für möglicherweise irgendwann kommerzielle Produkte... "Zweckentfremden" möchte. Deshalb (Und aus einigen anderen Gründen) kommt eine fertige Bibliothek für mich nicht in Frage.

    hackyourlife schrieb:
    Wenn du serverseitig die Verbindungen zum XMPP-Server verarbeiten willst (wie z.B. bei WebSockets auch nötig wäre), dann kann das auch mit sehr vielen Verbindungen noch effizient funktionieren. Allerdings müsstest du dabei dann schon einige Gedanken investieren.
    Mein anfänglicher Gedanke war ja, auf dem Server eine jeweilige Instanz eines minimalen Clients für jeden Benutzer zu starten - und das wäre wohl nicht sehr effizient umzusetzen. Eine Instanz jedoch, welche alle Verbindungen entgegen nimmt und an den XMPP-Server weiter leitet, wäre denkbar.

    hackyourlife schrieb:
    Viel einfacher ist es BOSH zu nutzen:
    Über BOSH habe ich schon häufiger was gelesen. Ist das nicht quasi eine HTTP-Schnittstelle zum XMPP-Server? Wenn ich mir die XEP-0206 durchlese, sieht das ganze nicht sehr kompliziert aus. Wobei ich mich da frage, wie das ganze mit dem Cross-Domain-Zeugs läuft. Schließlich kann ja der XMPP-Server nicht gleichzeitig wie der Apache auf Port 80 lauschen, wodurch ich wieder eine andere Domain angeben müsste, was Javascript ja meines Wissens nicht so mag.
  • in: Web-Chat über XMPP-Client

    geschrieben von noxious

    Hallo!

    Ich schreibe das mal hier bei Javascript rein, weil ich nicht so genau weiß, in welche Kategorie es passen könnten - das Problem ist relativ umfangreich und beinhaltet viele Komponenten. Aber Javascript ist letztenendes das Frontend, bzw. das Frontend soll in Javascript geschrieben sein.

    Zum Problem: Ich möchte auf einer Webseite einen (Light-)XMPP-Client einbauen. Das Problem ist, dass ich aktuell gar nicht so richtig weiß, wo ich da anfangen soll. Einen XMPP-Server(Prosody) habe ich bereits aufgesetzt, der läuft auch ohne Probleme. Das Protokoll ist mir bekannt. Aber wie fahre ich dann fort? Wie bekomme ich die Nachrichten von der Webseite am elegantesten zum XMPP-Server?

    Ich habe bereits überlegt, mit python/perl ein Backend zu schreiben, welches dann zum XMPP-Server verbindet und Nachrichten empfängt/liest. Das Problem ist, dass - wenn ich 1000 Benutzer habe, im wesentlichen auch 1000 Instanzen laufen müssten, was weniger vorteilhaft für die Ressourcen des Servers wäre. Auch die Möglichkeit, ,das ganze über eine Instanz, welche nur die benötigten Daten aus einer SQL-Tabelle ausliest und dann an den Server sendet, während ein php-Script diese dann liest/schreibt wäre denkbar. Allerdings hätte ich da Bedenken, was die Privatsphäre der Nutzer angeht.

    Eine weitere Möglichkeit wäre wohl, die Verbindung komplett mit PHP zu initiieren, was jedoch das Problem aufwirft, dass diese Verbindung dann ja nicht persistent wäre, der Benutzer also nur kurz online käme, eine Nachricht sendet und dann wieder offline geht, was ja nun auch nicht Sinn und Zweck der Sache sein soll. (Das ganze soll schließlich auch mit handelsüblichen XMPP-Clients nutzbar sein.)

    Auch den Umgang mit Web-Sockets habe ich in Betracht gezogen, wobei alles, was ich darüber bisher gelesen habe, nicht besonders aussichtsreich war. Dazu kommt, dass eine Webseite ja für gewöhnlich auch hin und wieder mal neu geladen werden muss, wodurch die Verbindung abbricht.

    Hat sich schon mal jemand damit beschäftigt? Kann mir da jemand nützliche, ausführliche Tipps geben oder zumindest Lektüre dazu empfehlen?

    Was ich nicht möchte:
    - Ich möchte keinen fertigen XMPP-Client wie Converse.js oder JWChat oder ähnliches nutzen.
    - Ich möchte keinen reinen SQL- oder sonstigen Chat.

    Danke im Voraus.
  • in: Dragon Age: Inquisition

    geschrieben von noxious

    Also ich finde, Bioware hat mit dem dritten Teil der Saga erfolgreich bewiesen, wie man eine Spielreihe versauen kann, indem man die Teile immer schlechter werden lässt.

    Die Quests in DA:I sind stumpf, es gibt kaum große Entscheidungen zu treffen, welche das Spiel auch wirklich beeinflussen.Die Nebenmissionen laufen alle nach dem Schema "Sammel X von Y" ab, was deutlich erleichtert wird, da es für alles mögliche Questhelper gibt - so viele, dass die größte Herausforderung in dem Spiel wohl ist, sich auf der Minimap überhaupt zurecht zu finden. Hat man dies aber geschafft, bekommt man kaum noch etwas von der schönen Grafik mit, da man praktisch nur noch nach der Minimap läuft.

    Entscheidungen aus den vorherigen Spielen haben praktisch gar keinen Einfluss auf das Spiel, wodurch man sich fragt, welchen Sinn es überhaupt macht, die vorherigen Spiele gespielt zu haben. Auf die Spitze hat Bioware es dann mit der DragonAgeKeep gebracht, wo man sich seine Hintergrundgeschichte zusammen klicken kann. Wahrscheinlich extra für Leute, welche sich nicht diese Talfahrt mitansehen wollen - wenn man den ersten Teil nicht kennt, ist man vom dritten vielleicht nicht so enttäuscht.

    Die Charaktere sind auch alle sehr oberflächlich. Während man im ersten Teil noch mit den NPCs mitgefiebert hat, ist man im dritten Teil nun endlich an der Schwelle, wo sie nur noch besseres Kanonenfutter darstellen. Ob nun einer von denen fällt, oder in Star Craft metzelt einer einen Spacemarine über den haufen - läuft auf dasselbe hinaus.

    Positiv ist lediglch die Grafik. Auch mit dem Design der Gegner haben sie sich eine Menge mühe gegeben. Aber sonst... Auch das Crafting hat sich deutlich verbessert. Dennoch sehe ich auch da viel Luft nach oben.

    Ich würde mir das Spiel nicht noch einmal kaufen.

    kaff schrieb:
    Leider hat die ganze Account-Umstellerei von BioWare auf Originkonten meine Vergangeheit "etwas" zerlegt, sodass ich die beiden ersten Teile nochmal spielen werde, um im dritten auf meine eigene (neue) Geschichte blicken kann.
    Wie schon erwähnt: In der DragonAgeKeep kannst du dir deine Hintergrundgeschichte auch zusammenklicken und dann in das Spiel importieren.
  • in: Linux Mint Bildschirm übertragen

    geschrieben von noxious

    rocococo schrieb:
    MeinLaptop hat auch einen Anschluss das Problem ist das mein Laptop weit weg steht und ich kein kabel durch den ganzen Raum legen möchte.
    Verstehe mich jetzt bitte nicht falsch, aber dein Laptop steht falsch? Deshalb geht das nicht? Du könntest versuchen, den Laptop an einen anderen Platz zu stellen. Rufe dazu am besten vier bis fünfundfünfzig(je nach alter des Laptops. ) deiner stärksten Freunde zusammen, hebe ihn an und verschiebe ihn dahin, wo es sinn macht. Dir ist schon klar, dass "Laptop" für gewöhnlich impliziert, dass das gerät mobil ist, also bewegt werden kann?
  • in: Einzelne User in Mumble lauter stellen wie in TS

    geschrieben von noxious

    Soweit ich weiß ist das (ohne weiteres [ 1 ] ) nicht möglich. Mumble bedient sich meines wissens einer automatischen Erkennung der Lautstärke. Wenn also jemand sehr leise ist, sollte dieser automatisch lauter werden. Wenn dem nicht so ist, lässt das entweder auf einen Softwarebug schließen, oder - was wahrscheinlicher ist - derjenige ist gar nicht so leise, sondern sein Mikrofon einfach beschissen. So fließt beispielsweise auch Hintergrundrauschen als Lautstärke mit ein.

    Allgemein wäre solch eine Anpassung ja sowieso eher ein Problem auf Client-Seite. Das "Lauter stellen" wäre eher ein "Workaround". Quasi wie das Telefon mit Pizza-Liefer-Service-Kurzwahl in der Küche. Geht der Herd mal kaputt ist es hilfreich, aber langfristig... Sinnvoller wäre, das Problem bei seiner Ursache zu beheben. Und die liegt meiner unqualifizierten Einschätzung nach eher beim Client, also bei demjenigen, dessen Mikrofon zu leise ist. Dieser sollte es meiner Meinung nach auch beheben.

    [ 1 ] Mumble steht afaik unter BSD-Lizenz und ist quelloffen. Du könntest den Quellcode studieren, die jeweilige Funktion isolieren und umschreiben. Aber ist es das wert?
  • in: Linux Mint Bildschirm übertragen

    geschrieben von noxious

    Also ich habe keinen Smart-TV. Aber prinzipiell ist es mit Linux doch immer dasselbe Prinzip: VNC. Wenn Smart-TVs nun so funktionieren, wie ich mir das vorstelle, dann müsstest du halt in einem App-Store ( Oder was auch immer ) nach einem VNC-Client suchen. Zudem müsstest du natürlich nen VNC-Server auf deinem Rechner installieren. ( Da Mint afaik auf Ubuntu basiert könnte sowas schon vorinstalliert sein. Kein Plan. )

    Die genaue Konfiguration ergibt sich dann aus der jeweiligen VNC-Server und -Client Software.

    Aber: Wäre bei sowas nicht eher ein Anschluss über HDMI ( Oder VGA/DVI ) sinnvoller? Ich meine: Die meisten Viele Grafikkarten haben es, mein Fernseher hat es... Da wird so ein modernes Smart-TV doch auch sowas haben, oder?
  • in: Optimiertes Neuordnen von MySQL-Row

    geschrieben von noxious

    berlin208 schrieb:
    Was soll den dort für ein Server benutzt werden, dass das so langsam ist? Wenn man nicht eine Milliarde Einträge ausgibt oder unendlich viele Queries macht, ist daran auch nichts langsam.
    Die Effizienz fängt beim Server an, an foreach() & Co. ist nichts unproduktiv, blöd oder langsam.
    Eine milliarde? Wenn mein Query meinetwegen 30 Zeichen lang ist, meine tabelle 10000 Einträge hat und 1000 Nutzer das gleichzeitig benutzen, kommen da alleine ~300mb Traffic auf den Server zu. Und das bei nur je einem Sortiervorgang.

    Wenn das ganze jedoch mit meiner bisherigen Variante gemacht wird, sind es ~60kb. Ein deutlicher Effizienz-Vorteil. Zudem kostet JEDER SQL-Befehl Rechenzeit. Je weniger, desto besser. Angenommen, ich benutze das ganze in einem Shared-Hosting-Enviroment wie Lima-City, verstoße ich mit 10 Millionen SQL-Befehlen wohl durchaus gegen das Fair-Use-Konzept, während 2000 wohl durchaus zumindest noch machbar sind.

    Der Thread heißt "Optimiertes Neuordnen von MySQL-Row", nicht "Wie belaste ich den SQL-Server möglichst gravierend". :rolleyes:
  • in: Optimiertes Neuordnen von MySQL-Row

    geschrieben von noxious

    berlin208 schrieb:
    Oh man, fällt mir schwer dir da zu folgen.
    Versuch doch einfach, die Daten in ein Array zu speichern
    und je nachdem wie du es verschieben willst in ein anderes Array zu machen.
    Dann kannst du sie per foreach oder anderem ausgeben.
    Wie am Quelltext ersichtlich wird, geht es nicht darum, sie auszugeben. Es geht darum, eine Ordnung in der Tabelle herzustellen und aufrecht zu erhalten. Eine Foreach-Schleife wäre dort absolut unangebracht, weil das erheblichen Traffic und Mehr-Aufwand für den Server bedeuten würde.

    Die von mir beschriebene Funktion funktioniert! Die Frage wäre also, wie es effizienter ginge.

    Zudem stehe ich vor dem Problem, dass beim Aufgabensteller offenbar nur ein UPDATE-Befehl ausgeführt wird. Ich weiß nicht so genau warum. Im Moment steht da
    CLIENT_MULTI_STATEMENTS
    im Verdacht, aber bestätigt werden konnte das bisher nicht. Und wenn das Problem nicht behoben wird, ob es eine Möglichkeit gibt, das ganze mit nur einem UPDATE-Befehl hin zu bekommen.
  • in: Überbevölkerung

    geschrieben von noxious

    aaron-grabowy schrieb:
    Ich befürworte es auch nicht, deswegen habe ich ja auch schon von fraglich geredet ;)
    Interessant finde ich es deshalb, weil es wirklich gleichmäßig verteilt ist und nicht darauf hinausläuft, dass es wiedermal nur eine Frage des Geldes ist.
    Aber ich denke genau das wird es am Ende sein. Eine Frage des Geldes. Wenn du dir leisten kannst, kannst du so viele Kinder haben, wie du willst.

    aaron-grabowy schrieb:
    Zu dem Verteilungsproblem: Es ist halt ein Buch, in dem ein Forscher einen solchen Virus entwickelt, der sich extrem schnell verbreitet und nicht ohne weiteres rückgängig machen lässt.
    Es ist ein Buch. Dabei wird von den Leuten halt gerne ignoriert, dass es quasi keinen Angriffspunkt für die gesamte Menschheit gibt. In entlegenden Orten der Welt leben Menschen oft so lange, weil sie schlicht keinen Kontakt zu anderen Menschen haben. Ein Virus braucht einen Wirt, du wirst aber keinen Wirt finden, der weltweit jeden Menschen erreicht. Es ist schlicht quasi unmöglich, alle Menschen zu erreichen. Wie solltest du auch? Eine modifizierte Grippe erreicht nur Menschen, welche damit in Kontakt kommen. Eremiten oder abgelegen wohnende Menschen erreichst du nicht. Wenn ich mich den Rest meines Lebens in meiner Wohnung einschließe, wirst du mich nicht erreichen. Dazu kommt, dass die "Regierung" nicht die absolute Autorität ist - im Gegenteil. Es sind meist Zivilisten oder zivile Organisationen, welche beispielsweise neue Viren aufdecken. Du wirst es nicht schaffen, die ganze Menschheit mit einem Virus zu infizieren.

    Und das wäre - wie oben beschrieben - auch gar nicht nötig. Warum sollte die Regierung sich die Hände schmutziger machen, als unbedingt nötig? Vor allem, wenn sie selbst das Ziel des Virus werden könnten? Viren sind klein und mutieren gerne. Wer sagt, dass sie nicht plötzlich die ganze Menschheit auslöschen? Ein einziger Sonnenstrahl genügt...
  • in: Überbevölkerung

    geschrieben von noxious

    aaron-grabowy schrieb:
    Über einen Virus wird das Erbgut der gesamten Menschheit so verändert, dass zufällig ausgewählt 1/3 der Menschen sterilisiert wird.
    In wie fern das zu Kinderhandel führen würde ist was anderes, aber ich finde diesen Ausgang auch interessant.
    Halte ich für eher unwahrscheinlich. Wie bei allen biologischen Waffen bekommst du da schnell ein Verteilungsproblem. So könntest du beispielsweise die ganze Menschheit mit einem Esslöffel Botulinumtoxin auslöschen. Aber du müsstest es halt verteilen können.

    Wahrscheinlicher ist, dass Menschen mit mehr Kindern einfach nicht mehr finanziell unterstützt werden. Keine kostenlose Schulbildung, kein Kindergeld, keine räumlichen Zugeständnisse... Am Ende würden nur noch jene mehr Kinder haben können, die es sich wirklich leisten können. Schlimmstenfalls werden mehr Kinder unter Strafe gestellt. In China hat sich durch die Ein-Kind-Politik sehr viel geändert. Ich denke, das könnte auch weltweit funktionieren. Da braucht man keine komplexen Viren. Nicht, dass ich sowas befürworten würde.
  • in: Überbevölkerung

    geschrieben von noxious

    Prinzipiell ist es ja ganz richtig so, dass es im Moment gar keine Ressourcen-Knappheit gibt. Wir sind noch weit davon entfernt, dass wir irgendwann nicht mehr genug Nahrung haben. Wie bereits erwähnt wurde, sind die Ressourcen lediglich äußerst ungleich verteilt. In den Industrieländern, also Europa, USA, usw. wird Nahrung verschwendet, bis zum Geht-Nicht-Mehr, während anderorts die Leute hungern. Das gilt aber nicht nur für die Industrie - auch der "Normale Bürger" isst im Prinzip sehr viel mehr, als notwendig.

    Problematisch wird es, wenn wir uns die Bevölkerungsentwicklung der letzten 200 Jahre ansehen. Um 1800 umfasste die Weltbevölkerung noch ca. 1 Milliarde Menschen, bis heute hat sich diese Zahl versiebenfacht. Wir könnten also durchaus in weiteren 200 Jahren bei einer Bevölkerung von weit über 50 Milliarden angelangt sein. Und dann werden die Ressourcen wirklich knapp - undzwar überall.

    Was die Frage nach der "Autmatischen Selbstregulation" angeht, halte ich das doch für sehr weit her geholt. Natürlich wird man in Ausnahmefällen immer irgendwo die Vernunft der Menschen erreichen können, dass beispielsweise Leute sich sagen, dass sie sich halt nicht mehr als ein bis zwei Kinder leisten können. Aber für den Großteil der Weltbevölkerung stellt es gar keinen Unterschied dar, ob sie nun ein hungerndes Kind haben, oder zehn.

    Letztenendes wird es denke ich darauf hinaus laufen, wo schon die Chinesen standen - eine Ein-Kind-Politik, und zwar umfassend.
  • in: Optimiertes Neuordnen von MySQL-Row

    geschrieben von noxious

    Hallo,

    gestern trat eine andere Person auf mich zu und fragte mich, wie man wohl am besten einzelne Elemente einer geordneten Tabelle verschieben könnte. Um das näher zu erklären: Ich habe eine MySQL-Tabelle, in welcher beispielsweise eine ID, eine Positionsspalte und halt irgendwelche Daten liegen. ( Letztere sind aber unerheblich. )
    Der Aufgabensteller hatte versucht, das ganze über eine Schleife in PHP, in welcher sämtliche Elemente einzeln geupdated werden zu lösen. Für mich klingt das aber nach ziemlich viel Stress für den jeweiligen SQL-Server, da - vor allem, wenn die Tabellen größer werden - eine nicht ganz unerhebliche Menge an Befehlen an den Server gesendet werden müssen.

    Nun hatte ich mir überlegt, dass das ganze doch sicher auch mit weniger Befehlen gehen würde. Um zum Punkt zu kommen - Ich habe folgende Lösung ersonnen:
    function moveTbRow($now, $goto){
        /* Sicher stellen, dass $now und $goto int sind */
        $now        = intval($now);
        $goto       = intval($goto);
        
        /* Tabellen-Einstellungen */
        $table_name         = 'somethingsomething';
        $unique_column      = 'id';
        $position_column    = 'position';
        
        if($now == $goto) return false; // Keine änderung der Position
        
        /* Get Unique-Key from $now */
        $sql = "SELECT `$unique_column` FROM `$table_name` WHERE `$position_column` = $now;";
        $result = mysql_query($sql);
        $unique = mysql_result($result, 0);
        
        if(!$unique) return false; // $unique nicht bekommen, Element $now existiert nicht?
        
        ($now < $goto) 
            ? $sql_move = "UPDATE `$table_name` SET `$position_column` = `$position_column`-1 WHERE `$position_column` > $now AND `$position_column` <= $goto;"
            : $sql_move = "UPDATE `$table_name` SET `$position_column` = `$position_column`+1 WHERE `$position_column` >= $goto AND `$position_column` < $now;";
        $sql_set = "UPDATE `$table_name` SET `$position_column` = $goto WHERE `$unique_column` = '$unique';";
        mysql_query($sql_move) or die(mysql_error()); // Bewege alle anderen
        mysql_query($sql_set) or die(mysql_error()); // Setze neue Position
        return true;            
    }
    Dazu habe ich nun zwei Fragen:
    - Zum einen: Funktioniert die Lösung? Bei mir schon, aber der Aufgabensteller meinte zu mir, dass ein ganz ähnlicher Ansatz bei ihm nicht funktioniert hätte. Vielleicht liegt es ja nur an meinem Fehlertoleranten System? ( Ich habe das mit 20 Zufälligen Verschiebungen von 3 Werten ausprobiert. Ausgabe
    - Zum anden - und was viel wichtiger ist: Fällt jemandem ein noch effizienterer Weg ein?
  • in: Ein Geek-Blog

    geschrieben von noxious

    geekfidelity schrieb:
    Was haltet ihr von der Idee und denkt ihr, man kann hier gut mit Wordpress arbeiten?
    Ansich sind solche Seiten häufig recht beliebt. Allerdings setzt das auch ordentliche Inhalte voraus. Allein am Thema kann man den Erfolg einer Seite denke ich nicht fest machen.

    Ich für meinen Teil halte nichts von Wordpress. ( Ein paar Erläuterungen dazu...) Man hat am Ende wahrscheinlich nicht viel weniger Arbeit damit, als mit einer selbst geschriebenen Seite.
  • in: HTTP Requests (GET/POST) mitlesen

    geschrieben von noxious

    dunkeltuten schrieb:
    danke für den Hinweis, aber genau sowas habe ich nicht gesucht :nosmile:
    Ich brauche wirklich nur die vom Browser gesendeten REQUESTs (GET bzw. POST) :wink:
    GET/POST sind keine Requests, sondern lediglich Daten im Request. Entweder, du willst die HTTP-Requests, welche sich beispielsweise durch tcpdump oder wie oben beschreiben durch tcpflow o.ä. ermitteln lassen, oder du willst die GET- bzw. POST-Daten, welche du, da wir ja im PHP-Forum sind, über
    $_GET[]
    ausliest. Wenn du genau beschreiben würdest, was du brauchst, könnte man dir sicher besser helfen. Ganz davon abgesehen davon, dass es für mich so aussieht, als wärest du im falschen Forum...

    dunkeltuten schrieb:
    Konnte man dafür nicht irgendwelche plugins in den Browser hängen?
    Für welchen Browser? Firefox bietet dafür zum beispiel Firebug an. Kann so ziemlich alles, was man braucht, um gesendete Daten und Requests zu untersuchen. Chrome kann sowas glaube ich sogar von Haus aus.
  • in: HTTP Requests (GET/POST) mitlesen

    geschrieben von noxious

    Wireshark ist quasi ein Frontend für tcpdump/winpcap. Unter Linux benutze ich tcpflow, wo man ohne weiteres den Netzwerkverkehr mitschneiden kann. Wenn ich mich nicht ganz irre:
    tcpflow -C port http
    Wie das ganze unter Windows mit winpcap funktioniert, kann ich jetzt nicht genau sagen.

    Wenn es um PHP geht, lassen sich die Requests über getallheaders oder apache_request_headers auslesen.
  • in: Textkotze - Lass dein frust raus!

    geschrieben von noxious

    Die seite sieht hübsch aus, ist sinnlos... Hat also eigentlich alles, was eine erfolgreiche Webseite heute braucht.

    Worüber ich mir da Gedanken machen würde wäre, wie du mit Rechtlich problematischen Inhalten umgehst. Im Prinzip ja nur eine Frage der Zeit, bis dort irgendwelche Spam-Bots o.ä. vorbei schauen, oder finstere Gestalten versuchen, dies als Plattform für ihre Propaganda zu nutzen. Wenn man sich ansieht, was für Massen da im Netz unterwegs sind, könntest du da schnell Probleme bekommen, das selbst zu moderieren.

    Ansonsten kann ich mich nur burgis Meinung anschließen: Braucht man nicht wirklich. Aber welche der großen Seiten werden schon echt gebraucht?
  • in: Problem mit modernem OpenGL und Windows...

    geschrieben von noxious

    darkpandemic schrieb:
    Hallo noxious,

    von glew kann man sich auch bereits kompilierte Binaries runterladen:
    http://glew.sourceforge.net/
    Das kann man. Aber...

    darkpandemic schrieb:
    Gleich im grauen Kasten in der Mitte ("Binaries Windows 32-bit and 64-bit").
    Eine ausführliche Anleitung findest Du hier:
    http://surflab.cise.ufl.edu/wiki/Getting_Started_with_OpenGL_in_VisualC%2B%2B_2010
    ... das Problem ist halt, dass ich kein Visual-Studio, sondern - wie oben erwähnt - MingW benutze. MingW kann offenbar mit den Binaries für Visual Studio wenig anfangen. ( Klingt für mich einleuchtend. )

    Und wie schon gesagt: Ich habe schon ganz erheblich nach einer Lösung in Form von Anleitungen gesucht. Und wenn ich nicht alles komplett falsch mache, sind diese nahezu alle Lückenhaft oder veraltet.
  • in: Problem mit modernem OpenGL und Windows...

    geschrieben von noxious

    Hallo!

    Also ich versuche mich in letzter Zeit ein wenig in C++ und OpenGL rein zu arbeiten. Nun habe ich aber keine Lust, mit dem uraltem, obsoletem OpenGL 1.0 zu arbeiten, sondern möchte gerne eine aktuellere Version nutzen. ( OpenGL 3 und aufwärts. ) Problematisch wird das ganze dann, wenn ich versuche, ein Beispielprojekt zu kompilieren. Dann bekomme ich solch schöne Fehlermeldungen wie
    error: 'glGenVertexArrays' was not declared in this scope

    Nachdem ich nun eine weile lang im Netz gesucht habe, bin ich nun so weit, dass fest steht: Es liegt an fehlenden Header-Dateien. Von sich aus nutzt Windows wohl nur die Uralt-Header, wo dann so hübsche Funktionen wie
    glGenVertexArrays
    nicht enthalten sind.

    Ich habe also weiter gegoogelt und heraus gefunden, dass man da wohl entweder Glew oder gl3w benötigt.
    Dadurch eröffneten sich nun aber weitere Probleme. Bei gl3w scheint das Problem zu sein, dass das Python-Script, welches die Header-Datei generieren sollte, entweder nicht oder nicht mehr funktioniert.
    Bei Glew muss man sich das wohl selbst kompilieren, wobei ich keine Ahnung habe, wie ich das anfange. Es gab dafür einige Anleitungen im Netz, welche entweder veraltet oder Lückenhaft waren. MSys installieren, Dateien entpacken, Befehl bei Msys eingeben... Funktioniert natürlich nicht, da MSys die entpackten Dateien nicht gefunden hat. Dumm gelaufen.

    Also zu meiner Frage:
    Kennt sich jemand damit aus und kann mir möglichst genau erklären, was ich wann genau machen muss?

    Ein paar Erläuterungen: Ich nutze Windows 7 , MingW als Compiler ( Code::Blocks als IDE ) ... Ich glaube das sollte so an Eckdaten reichen,
  • in: Der Weg zur Dezentralität

    geschrieben von noxious

    kalinawalsjakoff schrieb:
    Was bringt Datendezentralität überhaupt noch bei dieser Spähaffähre von NSA und anderen Geheimdiensten?
    Nun, der Datenverkehr zwischen den Clients/Servern kann verschlüsselt werden. Da ist im Prinzip auch die NSA mehr oder weniger machtlos.

    Das Abfangen der Daten zwischen allen Servern ist zudem enorm aufwändig, das hinzuzügliche Entschlüsseln, was selbst mit den Superrechnern der NSA wenn überhaupt äusserst lange dauert, wäre im Prinzip ein unrealistischer Aufwand. Viel häufiger trifft man auf das Problem, dass Serverbetreiber gezielt mit der NSA zusammenarbeiten. ( Google, Microsoft, Facebook, ... ) So bringt die beste Verschlüsselung auch nichts.

    Bei dezentralen Diensten ist der Vorteil, dass die NSA schlicht nicht mehr nur eine Hand voll Server überwachen muss, um eine mehr oder weniger umfassende Überwachung zu realisieren, sondern der Aufwand enorm steigt. Natürlich stellt auch das keine 100%ige Sicherheit vor Überwachung dar, aber es ist schon mal ein Schritt in die richtige Richtung.
  • in: Der Weg zur Dezentralität

    geschrieben von noxious

    Hallo,

    spätestens seit dem NSA-Skandal wird in meinem Freundeskreis der Schrei nach Sicherheit der Daten immer lauter. Meiner bescheidenen Meinung nach, sollte man das Problem der Sicherheit der eigenen Daten nicht ausschließlich auf die Regierung delegieren, sondern bei sich zuhause damit anfangen. Zum Beispiel, indem man auf dezentrale Alternativen ausweicht.

    Leider heisst es viel zu häufig, dass es ja keine echten Alternativen gäbe. In meinen Augen vollkomener Stuss. Aber anstatt den Leuten jetzt immer wieder Rede und Antwort stehen zu müssen, welchen Dienst sie denn nun durch welchen ersetzen könnten, würde ich mir im Vorfeld gerne eine Art "Liste" zusammen stellen, von Diensten, mit welchen man andere, zentrale Datensammler ersetzen könnte.

    Ich für meinen Teil bin inzwischen hartnäckig auf das XMPP umgestiegen, habe dort diverse Benutzerkonten und habe diverse Clients ausprobiert, um ihre Stärken und Schwächen kennen zu lernen. Das XMPP hat in meinen Augen ( nicht zuletzt dank der großartigen Mitwirkung von Google ) in letzter Zeit enorm an Fahrt aufgenommen und kann durchaus diverse Messenger ersetzen. So sind Telefonie, Video-Telefonie und die Freigabe von Arbeitsflächen inzwischen auch mit XMPP kein Hexenwerk mehr. Durch Multiprotokoll-Messenger wird einem der Umstieg besonders leicht gemacht - solange noch nicht viele Nutzer auf XMPP umgestiegen sind, können weniger rebellische Nutzer durchaus weiter mit ihren Freunden in Kontakt bleiben und XMPP nutzen, ohne dass sie einen zusätzlichen Client installieren müssen.
    Mein bisher bevorzugter Messenger ist dabei Jitsi, da es meiner Meinung nach die meisten Funktionen unterstützt ( Chat, Telefonie, Videotelefonie, ... ) ohne auf Anwendungsspezifische Plugins zurück zu greifen. ( Sagt mir ruhig, falls ich mich irre. )

    Was soziale Netzwerke angeht, habe ich leider noch nicht viele Erfahrungen, aber ich habe bisher von Friendica und einigen weiteren gelesen. Der Nachteil dabei ist wohl hauptsächlich, dass es relativ schwierig sein soll, diese ordentlich aufzusetzen.

    Was ich nun von euch wissen möchte ist: Welche "Alternativen", zu was auch immer, würdet ihr empfehlen? Ein besonderes Augenmerk sollte dabei auf Datenschutz, Dezentralität und alles was dazu gehört gelegt werden.

    Da dies im Prinzip ein Sammelthread ist, eröffne ich ihn vorsichtshalber gleich im Spam-Forum. Ich bitte dennoch darum, das ganze möglichst ernst zu behandeln. Und obwohl es ein Sammelthread ist, darf natürlich auch gerne über die Vorzüge und Nachteile philosophiert und diskutiert werden. Schließlich sollte sowas ja der Qualität einer solchen Liste am Ende nur zuträglich sein.

Login zum Webhosting ohne Werbung!