Ankündigung

Einklappen
Keine Ankündigung bisher.

Oracle Lizenzierung in virtueller Umgebung

Einklappen

Neue Werbung 2019

Einklappen
X
  • Filter
  • Zeit
  • Anzeigen
Alles löschen
neue Beiträge

  • #16
    Zitat von Perry Staltic Beitrag anzeigen
    Das mit dem lesenden Zugriff habe ich nicht verstanden. Du willst die Umstellung selbst machen?
    Bissu Du verrückt??? Nein, natürlich nicht, ich möchte nur gerne solche Dinge verstehen. Ich gebe mich selten mit "isso" zufrieden, deshalb informiere ich mich.

    Danke euch für eure rege Teilnahme.

    Competence-Center -> Enjoy the Informatrix
    PHProcks!Einsteiger freundliche TutorialsPreComposed Packages

    Kommentar


    • #17
      Hallo zusammen,

      ich bin derjenige, der das Projekt „Lagerverwaltungssoftware auf Oracle-Datenbank“ auf der administrativen Seite betreuen soll. Ich bin allerdings erst vor kurzem in dieses Projekt einbezogen worden, sodass jetzt ein paar Hürden ergeben...

      Die Virtualisierung läuft unter Hyper-V und mein eigentlicher Plan sieht vor Richtung KVM mit ceph zu gehen aber nicht in greifbarer Zukunft. Ich bin vor rund zwei Jahren in die Firma gekommen und sie hat ausreichend Potential damit einem nicht langweilig wird…
      Die aktuelle Backup-Software kann nur VMs sichern und ist bei allen nicht Windows-Servern nicht in der Lage „Application-Consistent“ zu arbeiten – müsste mit der Einführung von KVM eh ersetzt werden aber das sollte eigentlich nicht jetzt passieren.

      Sie Server, die momentan an dem Standort stehen, sind zu schwachbrüstig, um als Oracle-Datenbank-Server genutzt zu werden (weder direkt auf der Hardware und dann natürlich auch nicht als VMs). Aktuell laufen dort nur zwei Domain-Controller und ein paar kleine Linux-Maschinen.

      Soweit ich die Oracle-Lizenzbestimmungen verstanden habe, ist mit der SE2 eine RAC möglich wenn die beteiligten Server nur eine CPU besitzen - in einer virtualisierten Umgebung eher unüblich.
      Zudem dürfte dann keiner der Virtualisierungsserver mehr als eine CPU besitzen, da man sie per Live-Migration oä. verschieben könnte.
      Heißt also: wenn in eigener Virtualisierung dann wohl nur mit der Enterprise-Variante und diese ist unabhängig von CPU- oder NUP-Lizenzierung irre teuer.

      Oracle-Appliances sind als HA-Verbund ebenfalls kein Schnäppchen.

      Ich habe gestern Abend noch Oracle in der AWS gesehen aber nicht weiter recherchiert, was der Spaß kostet und welche Services angeboten werden; auch die Oracle-Cloud habe ich mir bisher nicht angesehen und auch nicht auf dem Schirm gehabt.

      Oder man kauft eben neue Hardware nur für die Oracle- Datenbank und neue für die Virtualisierung – preislich sicher günstiger als die gesamte Umgebung zu lizenzieren...

      In allen Fällen bleibt das Thema „Backup“ offen – für RAC-Sicherungen finde ich nur bei den üblichen Verdächtigen (IBM Spectrum Protect usw.) aber ähnlich wie Oracle-Datenbanken sind das keine Systeme, in die man sich irgendwie nebenbei einarbeiten könnte. Wie man ansonsten per rman Sicherungen durchführt, weiß ich nicht.

      Wie üblich soll das Ganze besser gestern als morgen fertig sein aber es fehlt die ein oder andere Voraussetzung.

      Auch von mir vielen Dank für die Teilnahme.

      Bunte Grüße

      PS: Bevor jemand nach IOPs, geplanter Speicherzuwachs, Anzahl konkurrierender Zugriffe etc. fragt – „sie benötigen 500GB Festplatten-Platz, 32GB RAM und eine Intel CPU“; die genaue Bezeichnung des Prozessors ist mir entfallen.

      Kommentar


      • #18
        Zitat von Arne Drews Beitrag anzeigen
        Bissu Du verrückt???
        Ok, beruhigend.
        Im Prinzip kann man ja an einem DB Schema schon viel ablesen. Aber je mehr es einfach Datastore ist, desto weniger lohnt sich das. Oracle bietet noch so Funktionen wie Source Wrapping. SP Code oder Views bekommt man dann tatsächlich nicht zu sehen bzw. nur verschlüsselt, auch als dba.

        Ich behaupte mal, wenn die ein oder andere OS Datenbank soetwas anböte, würde der Zuspruch stark steigen.

        Kommentar


        • #19
          Zitat von Perry Staltic Beitrag anzeigen
          Ok, beruhigend.
          Im Prinzip kann man ja an einem DB Schema schon viel ablesen. Aber je mehr es einfach Datastore ist, desto weniger lohnt sich das. Oracle bietet noch so Funktionen wie Source Wrapping. SP Code oder Views bekommt man dann tatsächlich nicht zu sehen bzw. nur verschlüsselt, auch als dba.

          Ich behaupte mal, wenn die ein oder andere OS Datenbank soetwas anböte, würde der Zuspruch stark steigen.
          werd bei uns Kunde & mache ein Feature-Request
          Und wenn Du dann noch sagst, Du bezahlst das, dann geht es noch schneller
          PostgreSQL Development, 24x7 Support, Remote DBA, Training & Services

          Kommentar


          • #20
            Zitat von Enrico Lahl Beitrag anzeigen
            .. 500GB Festplatten-Platz, 32GB RAM und eine Intel CPU“; die genaue Bezeichnung des Prozessors ist mir entfallen.
            Also da würde ich mal sagen, muss man nicht lange über eine Standby Hardware nachdenken. Komplette Ora Lizenzen für die Virtualisierung sind wahrscheinlich teuerer als die 2. Hardware. .. muss man nicht über Cloud, AWS, .. nachdenken.

            Ansonsten grob- grad nicht auf dem Laufenden:
            ich meine schon bei SEone oder SE wäre/waren 2 CPU möglich. Hast Du die Preisliste und die Factortabelle(!) für die CPU?
            Backup: Im Prinzip brauchst Du nur ein paar Dateien zu sichern und die Archive Logs
            alternativ, nebenher, sicherheitshalber kann man noch ein proprietäres Export erzeugen
            Das Schöne ist: Welche Dateien, weiß die DB selbst, kann man abfragen. Oder besser soll man abfragen, damit man nichts vergisst. Es ist jedenfalls nicht statisch, je nach Konfiguration natürlich.
            Für RMAN findet man sicher auch schicke Scripte.

            Insgesamt klingt das alles etwas konkreter als bei Arne, der von "..Entscheidung..abhängig von den Lizenzkosten..." sprach.

            Hastig sollte man sowas jedenfalls nicht machen.

            Blöde Frage: Schon mal über OpenSource WAWI /ERP .. nachgedacht?


            Kommentar


            • #21
              Zitat von akretschmer Beitrag anzeigen
              werd bei uns Kunde & mache ein Feature-Request
              Und wenn Du dann noch sagst, Du bezahlst das, dann geht es noch schneller
              Wir haben momentan kein C/S Projekte wo sowas nötig wäre. Aber bestimmt ist es für andere interessant.
              Wir machen meistens TomEE gegen PG. Das meiste ist also stumpf aus der JPA generiert.

              Kommentar


              • #22
                Zwei CPUs sind möglich wenn man bspw. Cold-Standby macht - für die RAC darf jeder aber nur eine haben und die Cold-Standby-Maschine darf 10Tage im Jahr laufen...vielleicht bringe ich aber mittlerweile etwas durcheinander.
                Auf die Factor-Table schaue ich nochmal wenn ich die Server zusammengestellt habe...darauf läuft es ja wohl am Ende hinaus.

                Bei anderen Linux-Server mit kleinen Datenbanken und keiner richtigen Bedeutung für den Betrieb, dumpe ich die Datenbank und baue damit und ein paar Verzeichnissen ein Archiv, dass ich wegschreibe.
                Aus der Hüfte traue ich mich nicht zu etwas zu bauen - wenn das am Ende nicht passt - uiuiui
                Ich mache gerade die ersten zaghaften Gehversuche mit der Oracle-DB - das soll lieber jemand mit Erfahrung zusammenbauen; dann kann man auch gleich den Desaster-Fall durchdenken.

                Arne hat natürlich im Ohr, dass es auch sehr teuer werden kann - die Kosten sind je nach Konstellation doch sehr unterschiedlich..ach ja - er verwaltet das ERP - prinzipiell finde er das bestimmt gut

                Grob über den Daumen gepeilt sind 2,5 Monate für die Inbetriebnahme der Lagerverwaltungssoftware geplant und Saisonstart ist Ende Februar.
                Wenn ich nur einige neue Server und Zugänge bereitstellen muss, ist das sicher kein Problem - wenn ich mir aber noch vernünftiges Datenbank- oder Backupsoftware-Wissen anfressen muss, wird es schon wieder eng.

                Wir haben am Montag noch ein Gespräch mit einem Oracle-Partner - ich warte mal ab, was das an Erkenntnissen bringt.

                Kommentar


                • #23
                  Zitat von Perry Staltic Beitrag anzeigen
                  Insgesamt klingt das alles etwas konkreter als bei Arne, der von "..Entscheidung..abhängig von den Lizenzkosten..." sprach.
                  Is' nicht mein Thema, ich bin Entwickler, kein Admin
                  Ich wusste, das es hier im Forum jemanden gab/gibt, der sich mit Oracle auskennt, wusste aber nicht mehr genau, wer es war. Darum und aus eigenem Interesse habe ich hier mal gefragt.

                  Jetzt, wo Enrico selbst dazu gekommen ist, ist das ne interessante Diskussion geworden, was will man mehr.


                  Competence-Center -> Enjoy the Informatrix
                  PHProcks!Einsteiger freundliche TutorialsPreComposed Packages

                  Kommentar


                  • #24
                    Hallo zusammen,

                    die Lösung scheint Dbvisit zu sein - das wird dann zwar nicht richtig HA aber mit verschmerzbarer Ausfallzeit.
                    Dann kann man die SE2 nutzen, 2 CPUs pro Server verbaut haben und braucht für die virtualisierte Umgebung nur die 40-60 NUP-Lizenzen.

                    Aus meiner Sicht scheint es ein vernünftiger Ansatz zu sein.

                    Kommentar


                    • #25
                      Ich kenne mich wie gesagt da nicht aktuell bei den Tools aus, aber ich könnte mir vorstellen, dass es verschiedenste Lösungen gibt.
                      Und "HA":
                      Alle Tablespaces werden im Archivelog Mode betrieben und für Backups kurz offline genommen (kurz=so lange, wie die Dateisicherung der Tablespace Files dauert).
                      Die Sicherung der Tablespacefiles + Rest (Archive Logs) + Controlfiles ergeben ein Backup. Dies erfolgt natürlich ohne Ausfallzeit.

                      Ausfallzeit= Die Zeit, die es dauert, die Datenbank mit den Tablespace Backup Files hochzufahren (auf nicht aktuellen Stand) und den "Rest" aus den Archive Logs nachzuspielen.

                      An dem Verfahren kann man erkennen, dass man durch die Häufigkeit der Backups der Tablespace Files und den anschließend aufgelaufenen Archive Files die Ausfallzeit (Recovery Zeit) selbst bestimmen kann.

                      Außerdem erkennt man, dass man ganz unterschiedliche Strategien haben kann, wie man die Daten in Tablespaces und Files ablegt, sichert und notfalls recovered.

                      Dabei ist ein Tablespace eine Logische Einheit von beliebig vielen Files, die nach unterschiedlichen Vorgaben wachsen können/dürfen. Es gibt verschiedene Typen davon (Sys, Temp, "normal", ..) und spannend sind vor allem die normalen mit den eigenen Daten.

                      Ein Thirdparty Tool macht das vielleicht alles ganz bequem mit one click, 3 Strategien wählbar oder so. Hab ich noch nie gesehen.

                      Kommentar

                      Lädt...
                      X