FortiGate-VMX:FAQ: Unterschied zwischen den Versionen

Aus Fortinet Wiki
Zur Navigation springen Zur Suche springen
Keine Bearbeitungszusammenfassung
(Die Seite wurde geleert.)
Markierung: Geleert
 
(4 dazwischenliegende Versionen von einem anderen Benutzer werden nicht angezeigt)
Zeile 1: Zeile 1:
FortiGate-VMX:FAQ


[[Category:Fortinet]]
  <font size="6">'''24 X 7 <span style="color: #FF0000;">PROMOTION</span> bis 30. Juni 2016</font>
 
                        <font size="2">[[Fortinet:24x7Promotion|'''Weitere Informationen finden Sie hier!''']]</font>
__TOC__
== Vorwort ==
Diese FAQ's sind für Fortigate Systeme basierend auf FortiGate-VMX basierend auf FortiOS 5.2 und VMware ESXi 5.5 Update 2 sowie NSX Manager 6.1
<br/>
== Datenschutz ==
<pre>
        *********************************************************************
        *                                                                  *
        *  THIS FILE MAY CONTAIN CONFIDENTIAL, PRIVILEGED OR OTHER LEGALLY  *
        *      PROTECTED INFORMATION. YOU ARE PROHIBITED FROM COPYING,      *
        *    DISTRIBUTING OR OTHERWISE USING IT WITHOUT PERMISSION FROM    *
        *                  ALSO SCHWEIZ AG SWITZERLAND.                    *
        *                                                                  *
        *********************************************************************
"Die in diesen Artikeln enthaltenen Informationen sind vertraulich und dürfen ohne
schriftliche Zustimmung von der ALSO Schweiz AG gegenüber Dritt-Unternehmen nicht
                        bekannt gemacht werden"
</pre>
== FAQ ==
== Documentation ==
=== Wo findet ich die Dokumente wie Datasheets, Quick Start Guide, User Guide etc. ? ===
Ueber folgenden internen Link findet man das Datasheet betreffend Fortigate-VMX:
        [[Fortinet:ProduktInfo]]
Auf folgender Seite findet man alle orginal Dokumente betreffend Fortigate-VMX resp. FortiGate:
        http://docs.fortinet.com/fortigate/admin-guides
        '''FortiOS 5.2'''
        [[Datei:FortiGate-VMX V1 Installation Guide.pdf]]                    (FortiOS 5.2 Handbook - FortiGate-VMX Installation - v1.0]
        [[Datei:FortiGate-VMX_V2_Installation_Guide.pdf]]                    (FortiOS 5.4 Handbook - FortiGate-VMX Installation - v2.0]
       
        [[Datei:Deploying_FortiGateVMX_v1.pdf]]                              (Deploying FortiGateVMX v1.0]
        [[Datei:FortiGate-VMX-Deployment-Use-Cases.pdf]]                      (FortiGate-VMX Deployment Use Cases]
        [[Datei:Fortinet_NSX.pdf]]                                            (FortiGate-VMX Integration with NSX]
        [[Datei:FortiGate_VMX_Recorded_March_2015.pdf]]                      (New FortiGate-VMX Firewall for VMware secures the SDDC)
== Wie sieht ein Grundsetup vom Ablauf her aus für eine FortiGate-VMX Installation? ==
In der nachfolgenden Dokumentation wird Schritt für Schritt ein Aufbau einer FortiGate-VMX Installation gezeigt anhand einer VMware Installation ESXi Server, vCenter Server, vShield Manager sowie NSX Manager. Diese Installation geht nicht auf spezifische Konfiguration der einzelnen Komponenten ein sondern zeigt nur die "minimale Konfiguration" die zum Betrieb benötigt wird. Im Grundsatz wird ein NSX Manager sowie FortiGate-VMX im Zusammehang mit einem VMWare Cluster Installation betrieben. Die hier gezeigte Installation ist basierend auf einer Standalone Installation die einen Cluster vorgibt.
        '''NOTE''' Für die hier gezeigte Installation wurde IE sowie Firefox benutzt. Dabei wurde festgestellt das
            FireFox die bessere Wahl ist da es bei einigen Komponenten mit IE zu Problemen gekommen ist. Aus
            diesem Grund empfehlen wir für die gesamte Konfiguration den Einsatz von FireFox. Andere Browser
            wie zB Opera sollten nicht eingesetzt werden! Desweiteren sollte je nach Kapazität der Festplatten
            bei den Konfigurationen (Testinstallation) "Thin Provision" ausgewählt werden anstelle "Thick" dh.
            ansonsten reichen 250 GB nicht aus um alle Applikationen zu installieren.
Bei einer Implementation (Stand August 2015) ist es Wichtig zu wissen, dass eine "FortiGate VMX Instance" nur im "Transparent" Modus betrieben werden kann. Dabei stehen im "FortiGate VMX Service Manager" für die VDom "netx" die die "FortiGate VMX Instance" darstellt nur "internal" sowie "external" zur Verfügung. Dies bedeutet: Im heutigen Stand der Implementation können keine "virtuellenPortGruppen" der "DistributedSwitches" konfiguriert werden. Es stehen in der Firewall Policy Rule nur "external" sowie "internal" zur Verfügung. Die Defintion von "external" und "internal" ist aus Sicht der "Virtuellen Instanz" zu sehen. Unter Kommandozeile kann jedoch die Zugehörigkeit für "internal" und "external" durch das aktivieren des "Firewall Service" auf den entsprechenen "DistributedSwitches" aktiviert resp. deaktiviert werden. Die Installation des VShield ist "Optional" und wird für den Betrieb der "FortiGate VMX" nicht benötigt.
=== Vorbereitung/Bereitstellen der Software und Lizenzen für eine FortiGate-VMX Installation? ===
Für die hier gezeigte Installation einer FortiGate-VMX Installation standen folgende Komponenten zur Verfügung:
        <big>'''Server:'''</big>
        [[Datei:fortigate-vmx-install-1.jpg]]
       
        '''NOTE''' Ausgehend davon das ein Testinstallation durchgeführt wird sind die Minimum Anforderung des Servers
            32 GB Memory sowie mind. 250 GB HardDisk.
        <big>'''Software:'''</big>
        ESXi Server:                      VMware-VMvisor-Installer-201501001-2403361.x86_64.iso (VMware Spezifisch)
                                          VMware-ESXi-5.5.0-Update2-2403361-HP-550.9.2.30.9-Mar2015.iso (Hersteller Spezifisch)
        vCenter Server:                  VMware-vCenter-Server-Appliance-5.5.0.20500-2646489_OVF10.ova
        vShield Manager (Optional):      VMware-vShield-Manager-5.5.3-2175697.ova
        NSX Manager:                      VMware-NSX-Manager-6.1.4-2691049.ova
        FortiGate-VMX-Service-Manager:    FGT_VM64_SVM-v5-build8542-FORTINET.out.ovf.zip
        FortiGate-VMX-Instance:          FGT_VM64_VMX-v5-build8542-FORTINET.out.ovf.zip
       
        '''NOTE''' Basierend auf FortiGate-VMX muss aus Kompatibilitätsgründen der ESXi anhand der Version 5.5 Update2
            installiert werden. Die Version 6 ist nicht Kompatibel (Stand Augusut 2015) mit der FortiGate-VMX
            Version. Für den NSX Manager muss mind. die Version 6.1.2 installiert werden. Wenn ein spezifischer
            Server eingesetzt wird dh. wie in unserem Fall ein HP Proliant ist es Sinnvoll über den Download
            Bereich von "mywmware.com" zu kontrollieren ob ein Hersteller spezifisches ISO zur Verfügung gestellt
            wird für die Installation da diese ISO's speziell Treiber für den Server beinhaltet die zuständig sind
            das die Disk's über einen Array Controller korrekt erkannt werden. Das ISO des "NSX Managers" ist nicht
            frei erhältlich ohne entsprechende Zertifizierung. Ebenso existiert keine Evaluation License für den
            "NSX Manager" sondern die Evaluation License ist im ISO des "NSX Managers" enthalten (Stand 31. August
            2014 Version 6.1.4)
        <big>'''Dokumentation:'''</big>
       
        [[Datei:fortios-5.2.4-release-notes.pdf]]                                (FortiOS Release Notes 5.2.4)
        [[Datei:fortios-5.4.0-svm-vmx-release-notes.pdf]]                        (FortiOS Release Notes 5.4.0 SVM-VMX)
       
        [[Datei:vsphere-esxi-vcenter-server-552-installation-setup-guide.pdf]]  (Installations- und Einrichtungshandbuch für vSphere)
        [[Datei:vsphere-esxi-vcenter-server-552-host-management-guide.pdf]]      (vCenter Server und Hostverwaltung)
       
        [[Datei:vsphere-distributed-switch-best-practices.pdf]]                  (VMware vSphere Distributed Switch Best Practices)
       
        [[Datei:vshield_admin.pdf]]                                              (VMware vShield Administration Guide)
        [[Datei:vshield_installation.pdf]]                                      (VMware vShield Installation and Upgrade Guide)
       
        [[Datei:vmw-nsx-network-virtualization-design-guide.pdf]]                (VMware NSX for vSphere (NSX-V) Network Virtualization Design Guide)
        [[http://www.vmwarearena.com/2015/01/vmware-nsx-installation-part-1-nsx-overview-installation-prerequistes.html VMware NSX Installation und Uebersicht]]                          (VMware NSX Uebersicht und Voraussetzungen)
        <big>'''Lizenzen:'''</big>
        vCenter Server 5 Standard (enthält ESXi sowie vCenter sowie vShield)
        NSX Manager (Vorraussetzung vCenter Server sowie vShield Server)
        iLO Lizenz Advanced
        FortiGate-VMX-Service-Manager
        FortiGate-VMX-Instance (Muss nicht eingespielt werden da diese über den den "FortiGate VMX Service Manager" selber deployed wird)
       
        '''NOTE''' Da es sich um eine Test Installation handelt anhand eines physischen Servers reicht die
            vCenter Server 5 Standard Lizenz aus! Wenn das Setup des ESXi Servers über iLO durchgeführt wird
            so benötigt man eine iLO Lizenz. Diese kann über eine Eval angefordert werden. Dazu benötigt man
            jedoch einen "HP Passport Account". Um die Eval für iLO anzufordern benütze den nachfolgenden Link:
           
            http://hp.com/go/iloadvanced
           
            Nach der Anforderung der Eval über "HP Passport Account" wird über die Email Adresse die im "HP
            Passport Account" definiert ist eine Bestätigung mit dem Eval Key gesendet. Nachfolgend ein Beispiel:
           
            [[Datei:HP_iLO_Advanced_Evaluation_License_Z7550-00528.pdf]]
        <big>'''Netwerk Topologie:'''</big>
                                __________
                              |  ISP    |
                              |  Router  |
                              |  Bridge  |
                              |__________|
                                    |
                          _________|_________
                          |                  |
                          |  FortiGate 300C  | NTP Server: 198.18.0.1
                          |  VDom root      | DNS Server: 198.18.0.1
                          |___________________| DHCP Server: 198.18.0.2 - 198.18.06
                                    |
                                    | 198.18.0.1/27 (Secondary Address 198.18.0.57/29)
                                    |
                                    | 198.18.0.24/27 vmnic0 (ESXi)
                          _________|_______________________________                          _________
                          |                                        |                        |        | CenOS-Linux 10.10.10.2/24
                          |  HP Proliant GL-380 G9                |----------------------- |  DMZ  | (HTTP Service / FTP Service)
                          |                                        | vmnic1                |_________| 
                          |  vCenter              198.18.0.25/27  |                                    CenOS-Linux-1 10.10.10.3/24
                          |  vShield (Optional)    198.18.0.5/27  |                                    (HTTP Service / FTP Service)
                          |                                        |
                          |  NSX                  198.18.0.6/27  |
                          |  NSX Contoller IP-Pool 198.18.0.56/29  |
                          |                                        |
                          |  FGT SVMX              198.18.0.4/29  |
                          |  FGT SVMX Sync        198.18.0.65/29  |
                          |  FGT SVMX DHCP        198.18.0.66-78  |
                          |_________________________________________|
                                    |
                                    | 172.16.1.0/24 vmnic2
                          _________|__________
                          |                    |
                          |        LAN        |
                          |____________________|
=== Verbinden auf iLO und Setup/Vorbereitung der ESXi Server Installation? ===
Wie in der Toplogie abgebildet läuft im Segment 198.18.0.0/27 resp. auf dem Interface der FortiGate VDom "root" ein DHCP Server. Verbinde nun das iLO NIC des HP Proliant Servers mit diesem Segment damit das iLO NIC eine DHCP Adresse aus diesem Segment erhält. Schaue kurz über die FortiGate Web Mgmt. Interface welche IP Adresse dem iLO NIC zugewiesen wurde. Dies ist ersichtlich über folgende Position:
        System > Monitor > DHCP Monitor
Um sich auf dem iLO einzuloggen muss das Passwort von iLO eruiert werden. Dieses befindet sich als Label auf dem Server und ist ein 8 stelliger Alphanumersicher Code als iLO "Passwort" abgebildet:
        https://[DHCP Adresse]
       
        Username: Administrator
        Passwort:[Gemäss Aufkleber am Server Standard Passwort zB "P5HD42CS"]
Sofern eine statische IP vergeben werden soll gehe im iLO nach:
        Network > iLO Dedicated Network Port - IPv4 Settings
       
        [[Datei:fortigate-vmx-install-2.jpg]]
Deaktiviere die Position "Enable DHCPv4" und vergebe die statischen Informationen. In unserem Fall wäre dies folgende Angaben:
        IP Adresse: 198.18.0.24 255.255.255.224
        Gateway: 198.18.0.1
Sofern eine Eval für iLO eingespielt werden soll kann dies unter folgender Position durchgeführt werden:
        Administration
Starte nun die "Remote Console" und definiere das ISO Image um die Installation vom ESXi auszuführen:
        Remote Console > Remote Console
       
        [[Datei:fortigate-vmx-install-3.jpg]]
Danach konfiguriere das ISO image (Bedenke event. spezifisches ISO für spezifischen Hersteller):
        Virtual Drives > Image File
       
        [[Datei:fortigate-vmx-install-4.jpg]]
       
        [[Datei:fortigate-vmx-install-5.jpg]]
Führe danach aus der "Remote Console" folgendermassen einen Neustart aus:
        [[Datei:fortigate-vmx-install-6.jpg]]
Beim Neustart drücke F11 (nicht F9) und gehe auf die hier gezeigte Position unter der das ISO Image konfiguriert wurde:
iLO Virtual USB 2 : HP iLO Virtual USB CD/DVD ROM
       
        [[Datei:fortigate-vmx-install-7.jpg]]
        [[Datei:fortigate-vmx-install-8.jpg]]
Die Installation des ESXi Server wird nun ausgeführt:
        [[Datei:fortigate-vmx-install-9.jpg]]
        [[Datei:fortigate-vmx-install-10.jpg]]
        [[Datei:fortigate-vmx-install-11.jpg]]
        [[Datei:fortigate-vmx-install-12.jpg]]
        [[Datei:fortigate-vmx-install-13.jpg]]
        [[Datei:fortigate-vmx-install-14.jpg]]
        [[Datei:fortigate-vmx-install-15.jpg]]
        [[Datei:fortigate-vmx-install-16.jpg]]
        [[Datei:fortigate-vmx-install-17.jpg]]
        [[Datei:fortigate-vmx-install-18.jpg]]
        [[Datei:fortigate-vmx-install-19.jpg]]
        [[Datei:fortigate-vmx-install-20.jpg]]
Bevor nach der Installation des ESXi ein Neustart ausgeführt wird trenne das ISO File und verbinde NIC-1 des HP Proliant Servers mit dem Netz dh. in dem ein DHCP Server läuft resp. Segment 198.18.0.0/27:
        [[Datei:fortigate-vmx-install-21.jpg]]
        [[Datei:fortigate-vmx-install-21-1.jpg]]
=== Durchführen der Grundkonfiguration des ESXi Servers? ===
Nach dem Neustart gehe auf folgende URL (entsprechende IP wird in der Console nach dem Start des ESXi angezeigt):
        http://[DHCP IP]
       
        [[Datei:fortigate-vmx-install-22.jpg]]
Danach lade und installiere den VSphere Client:
        [[Datei:fortigate-vmx-install-23.jpg]]
Nach der Installation starte den vSphere Client und verbinde dich auf den ESXi:
        IP:[DHCP IP]
       
        Username: root
        Passwort: [Vergebenes Passwort bei der Installation ESXi]
Nachdem verbinden auf den ESXi Server und führe die Grundkonfiguration durch für:
Lizenzen
DNS und Routing
Netzwerk
        [[Datei:fortigate-vmx-install-24.jpg]]
        [[Datei:fortigate-vmx-install-25.jpg]]
        [[Datei:fortigate-vmx-install-26.jpg]]
        [[Datei:fortigate-vmx-install-27.jpg]]
        [[Datei:fortigate-vmx-install-28.jpg]]
        [[Datei:fortigate-vmx-install-29.jpg]]
        [[Datei:fortigate-vmx-install-30.jpg]]
        [[Datei:fortigate-vmx-install-31.jpg]]
=== Installation des vCenter Servers anhand des ova Files? ===
Nun installiere den vCenter Server anhand des ova Files:
        VMware-vCenter-Server-Appliance-5.5.0.20500-2646489_OVF10.ova
        [[Datei:fortigate-vmx-install-32.jpg]]
        [[Datei:fortigate-vmx-install-33.jpg]]
        [[Datei:fortigate-vmx-install-34.jpg]]
        [[Datei:fortigate-vmx-install-35.jpg]]
        [[Datei:fortigate-vmx-install-36.jpg]]
        [[Datei:fortigate-vmx-install-37.jpg]]
        [[Datei:fortigate-vmx-install-38.jpg]]
=== Grundkonfiguration des vCenter Servers und hinzufügen des Datacenter und Hosts? ===
Der vCenter Server bekommt über den DHCP Server des Segments 198.18.0.0/27 eine IP Adresse zugewiesen. Diese wird über die Console des vCenter Servers nach dem Neustart angezeigt mit dem Hinweis der URL:
        [[Datei:fortigate-vmx-install-39.jpg]]
Verbinde dich nun auf den vCenter Server anhand der IP die über DHCP zugewiesen wurde:
        https://[DHCP Ip]:5480
       
        Username: root
        Passwort: vmware
Nach der EULA Meldung die wir bestätigen brechen wir den Vorgang mit Cancel ab um den Hostnamen sowie die statische IP zu konfigurieren:
        [[Datei:fortigate-vmx-install-40.jpg]]
Gehe nun für die weitere Konfiguration auf:
        Network > Address
       
        [[Datei:fortigate-vmx-install-41.jpg]]
Nach der Konfiguraton verbinde dich erneut auf die konfigurierte IP Adresse in unserem Fall 198.18.0.25:
        https://198.18.0.25:5480
       
        Username: root
        Passwort: vmware
       
        [[Datei:fortigate-vmx-install-42.jpg]]
Nun starten wir den Wizard erneut:
        [[Datei:fortigate-vmx-install-43.jpg]]
        [[Datei:fortigate-vmx-install-44.jpg]]
        [[Datei:fortigate-vmx-install-45.jpg]]
        [[Datei:fortigate-vmx-install-46.jpg]]
        [[Datei:fortigate-vmx-install-47.jpg]]
        [[Datei:fortigate-vmx-install-48.jpg]]
        [[Datei:fortigate-vmx-install-49.jpg]]
        [[Datei:fortigate-vmx-install-50.jpg]]
        [[Datei:fortigate-vmx-install-51.jpg]]
Nachdem erfolgreichen Setup des vSphere kann der Web-Client von vSphere benutzt werden anstelle des lokalen Gui. Dies ist insofern wichtig da zukünftig VMware keinen lokales Gui mehr zur Verfügung stelle sowie anhand des lokalen Gui's resp. vSphere Client für NSX keine Konfiguration durchgeführt werden kann da der lokale vSphere Client die NSX Konfiguration nicht unterstützt. Um auf den vSphere Web Client zu verbinden benütze:
        https://198.18.0.25:9443/vsphere-client/
       
        Username: root
        Passwort: [Vergebenes Passwort im vCenter Server]
       
        '''NOTE''' Es kann ebenfalls mit User "Administrator@vsphere.local" eingeloggt werden denn neben User "root"
            wird dieser User ebenfalls per Standard erstellt:
Nun spiele die Lizenz ein für den vCenter Server:
        [[Datei:fortigate-vmx-install-52.jpg]]
        [[Datei:fortigate-vmx-install-53.jpg]]
        [[Datei:fortigate-vmx-install-54.jpg]]
        [[Datei:fortigate-vmx-install-55.jpg]]
Erstelle nun ein "Datacenter-VMX" für den vCenter Server:
        [[Datei:fortigate-vmx-install-56.jpg]]
        [[Datei:fortigate-vmx-install-57.jpg]]
        [[Datei:fortigate-vmx-install-58.jpg]]
Füge nun dem "Datacenter-vmx" den ESXi Host hinzu:
        [[Datei:fortigate-vmx-install-59.jpg]]
        [[Datei:fortigate-vmx-install-60.jpg]]
        [[Datei:fortigate-vmx-install-61.jpg]]
        [[Datei:fortigate-vmx-install-62.jpg]]
        [[Datei:fortigate-vmx-install-63.jpg]]
        [[Datei:fortigate-vmx-install-64.jpg]]
        [[Datei:fortigate-vmx-install-65.jpg]]
        [[Datei:fortigate-vmx-install-66.jpg]]
        [[Datei:fortigate-vmx-install-67.jpg]]
        [[Datei:fortigate-vmx-install-68.jpg]]
=== Erstellen eines neuen "Virtuellen Netwerkes" für das DMZ Segment im vCenter Server? ===
Im nächsten Schritt erstellen wir ein neues Virtuelles Netzwerk für das DMZ Segment. In dieses neuen Segment wird ein Linux Server für Testzwecke installiert. Um das neue Virtuelle Netzwerk zu erstellen führe folgendes durch:
        [[Datei:fortigate-vmx-install-69.jpg]]
        [[Datei:fortigate-vmx-install-70.jpg]]
        [[Datei:fortigate-vmx-install-71.jpg]]
        [[Datei:fortigate-vmx-install-72.jpg]]
        [[Datei:fortigate-vmx-install-73.jpg]]
        [[Datei:fortigate-vmx-install-74.jpg]]
        [[Datei:fortigate-vmx-install-75.jpg]]
        [[Datei:fortigate-vmx-install-76.jpg]]
=== Installieren der Test Server für das DMZ Segment im vCenter Server? ===
Nachdem das Virtuelle Netzwerk für das DMZ erstellt wurde installiere einen Testserver zB wie in unserem Fall einen "centos-linux" Server. Dieser sollte einige Service zur Verfügung stellen wie zB FTP und/oder HTTP. Sobald der neue Server installiert wurde resp. Netzwerktechnisch konfiguriert wurde weise dem Server im DMZ dieses neue Virtuelle Netzwerk hinzu:
        [[Datei:fortigate-vmx-install-77.jpg]]
        [[Datei:fortigate-vmx-install-78.jpg]]
Nach der erfolgreichen Installation der Testservers "clone" diesen und vergebe für diese Instanz eine IP im gleichen Segment wie der ursprüngliche Testserver dh. wir haben schlussendlich Zwei Server im gleichen Segement mit unterschiedlichen IP's. In unserem Fall wären dies:
        centos-Linux 10.10.10.2
        centos-Linux 10.10.10.3
Es spielt Grundsätzlich keine Rolle was für Test Server installiert werden. Ziel ist es den Traffic dieser zwei Test Server anhand der "FortiGate VMX Instanz" in einem späteren Zeitpunkt - obwohl beide im gleichen Segment sind - als Test zu kontrollieren.
=== Erstellen eines "Distributed Switches" und Migration "Virtuellen Netzwerke" im vCenter Server? ===
Wenn mit NSX in einem späteren Zeitpunkt gearbeitet wird ist die Voraussetzung das die Netzwerke auf dem ESXi über Distributed Switches konfiguriert sind dh. NSX unterstützt keine Virtuellen Netzwerke. Aus diesem Grund wird ein neuer Distributed Switch erstellt und die vorhandenen Virtuellen Netzwerke auf den neuen Distributed Switch migriert. Zum jetzigen Zeitpunkt gemäss dieser Dokumentation existieren folgende Virtuellen Netzwerke:
        vSwitch0      Management Netzwerk
        vSwitch1      DMZ
Logge dich erneut auf dem vSphere Web Client ein:
        https://198.18.0.25:9443/vsphere-client/
       
        Username: root
        Passwort: [Vergebenes Passwort im vCenter Server]
Erstelle den Distributed Switch:
        [[Datei:fortigate-vmx-install-79.jpg]]
        [[Datei:fortigate-vmx-install-80.jpg]]
        [[Datei:fortigate-vmx-install-81.jpg]]
        [[Datei:fortigate-vmx-install-82.jpg]]
        [[Datei:fortigate-vmx-install-83.jpg]]
        [[Datei:fortigate-vmx-install-84.jpg]]
Nun füge dem Distributed Switch den ESXi Host hinzu sowie migriere die Virtuellen Netzwerke "vSwitch0" sowie "vSwitch1". Dazu wähle "Host hinzufügen und vewalten":
        [[Datei:fortigate-vmx-install-85.jpg]]
        [[Datei:fortigate-vmx-install-86.jpg]]
Füge nun den ESXi Host hinzu dh. in unserem Fall 198.18.0.24:
        [[Datei:fortigate-vmx-install-87.jpg]]
        [[Datei:fortigate-vmx-install-88.jpg]]
Da wir in diesem Schritt das entsprechende Virtuelle Netzwerk migrierten wähle alle Positionen für die Konfiguration gemäss Abbildung:
        [[Datei:fortigate-vmx-install-89.jpg]]
Das Virtuelle Netzwerk "vSwitch0" ist momentan auf "vmnic0" konfiguriert dh. diese Interface kann nicht genommen werden da wir ansonsten die Verbindung verlieren würden zum ESXi Host. Aus diesem Grund weise dem ESXi Host auf dem Distributed Switch "vmnic1" zu und Uplink-1:
        [[Datei:fortigate-vmx-install-90.jpg]]
        [[Datei:fortigate-vmx-install-91.jpg]]
        [[Datei:fortigate-vmx-install-92.jpg]]
        [[Datei:fortigate-vmx-install-93.jpg]]
        [[Datei:fortigate-vmx-install-94.jpg]]
        [[Datei:fortigate-vmx-install-95.jpg]]
        [[Datei:fortigate-vmx-install-96.jpg]]
        [[Datei:fortigate-vmx-install-97.jpg]]
Benenne den Distributed Switch um in "DSwitch-DMZ":
        [[Datei:fortigate-vmx-install-98.jpg]]
        [[Datei:fortigate-vmx-install-99.jpg]]
Erstelle nun für das LAN ebenfalls einen Distributed Switch:
        [[Datei:fortigate-vmx-install-100.jpg]]
        [[Datei:fortigate-vmx-install-101.jpg]]
        [[Datei:fortigate-vmx-install-102.jpg]]
        [[Datei:fortigate-vmx-install-103.jpg]]
        [[Datei:fortigate-vmx-install-104.jpg]]
Weise dem neuen Distributed Switch "DSwitch-LAN" den Host hinzu sowie einen physischen Adapter (NIC) resp. "vmnic2":
        [[Datei:fortigate-vmx-install-105.jpg]]
        [[Datei:fortigate-vmx-install-106.jpg]]
        [[Datei:fortigate-vmx-install-107.jpg]]
        [[Datei:fortigate-vmx-install-108.jpg]]
        [[Datei:fortigate-vmx-install-109.jpg]]
        [[Datei:fortigate-vmx-install-110.jpg]]
        [[Datei:fortigate-vmx-install-111.jpg]]
        [[Datei:fortigate-vmx-install-112.jpg]]
        [[Datei:fortigate-vmx-install-113.jpg]]
        [[Datei:fortigate-vmx-install-114.jpg]]
Im Zusammenhang mit den erstellten Distributed Switches ist es "wichtig" für den späteren Einsatz im Zusammenhang mit NSX Manager die MTU Size "Minimum" auf 1600 zu setzen. Führe dies für beide Distributed Switches durch! Dies wird folgendermassen durchgeführt:
        [[Datei:fortigate-vmx-install-115.jpg]]
        [[Datei:fortigate-vmx-install-116.jpg]]
=== Installation des vShield Managers anhand des ova Files (Optional)? ===
Als nächsten Schritt wird nun der vShield Manager anhand des "ova" Files installiert (VMware-vShield-Manager-5.5.3-2175697.ova). Logge dich in den vSphere Web Client ein und Führe folgendes aus:
        https://198.18.0.25:9443/vsphere-client/
     
        Username: root
        Passwort: [Vergebenes Passwort im vCenter Server]
        [[Datei:fortigate-vmx-install-117.jpg]]
Damit das "ova" File installiert werden kann, muss ein "Client Integration Plug-In" installiert werden:
        [[Datei:fortigate-vmx-install-118.jpg]]
Schliesse alle aktiven Browser Sessions und installiere das Plug-In:
        [[Datei:fortigate-vmx-install-119.jpg]]
        [[Datei:fortigate-vmx-install-120.jpg]]
        [[Datei:fortigate-vmx-install-121.jpg]]
Nach der Installation logge dich erneut auf den vSphere Client ein:
        https://198.18.0.25:9443/vsphere-client/
     
        Username: root
        Passwort: [Vergebenes Passwort im vCenter Server]
       
        '''NOTE''' Wenn IE benutzt wird muss der "Geschützte Modus" unter "Internet Optionen > Sicherheit"
            deaktiviert sein.
Installiere nund das "ova" File und akzeptiere die Meldung für "Integration Access Control" mit "Allow":
        [[Datei:fortigate-vmx-install-122.jpg]]
        [[Datei:fortigate-vmx-install-123.jpg]]
        [[Datei:fortigate-vmx-install-124.jpg]]
        [[Datei:fortigate-vmx-install-125.jpg]]
        [[Datei:fortigate-vmx-install-126.jpg]]
        [[Datei:fortigate-vmx-install-127.jpg]]
        [[Datei:fortigate-vmx-install-128.jpg]]
        [[Datei:fortigate-vmx-install-129.jpg]]
Stelle sicher, dass sich die Netzwerkkarte des vShield Managers im selben Netzwerk befindet wie die vCenter und der ESXi Host (vSwitch0 Management Netzwerk).
        [[Datei:fortigate-vmx-install-130.jpg]]
        [[Datei:fortigate-vmx-install-131.jpg]]
        [[Datei:fortigate-vmx-install-132.jpg]]
=== Grundkonfiguration des vShield Managers (Optional) ===
Der vShield Manager wird für dieses Szenario nicht benötigt. Die VMX Installation basiert wahlweise auf vShield oder NSX, wobei NSX definitiv zu bevorzugen ist weil moderner.
Diese Schritte können übersprungen werden und sind nicht notwendig, um ein lauffähiges VMX Szenario zum laufen zu bekommen.
Nach dem Deployment: Überprüfe im vCenter die IP Adresse des vShield Managers sowie logge dich auf den vShield Manager anhand folgender Informationen ein:
        https://198.18.0.6
        [[Datei:fortigate-vmx-install-133.jpg]]
       
        '''NOTE''' Initial wird "nicht" mit dem vergebenen Passwort eingeloggt das bei der Installation des
            "ova" File gesetzt wurde sondern mit folgenden Angaben
           
            Username: admin
            Passwort: default
           
            Um auf den vShield zu zugreifen muss FireFox benutzt werden, denn bei IE (auch Version 11) gibt es
            Probleme und dieser scheint gemäss Admin Guide zwar Kompatibel scheint jedoch nicht korrekt zu
            funktionieren.
Im vShield Manager ändern des Passwortes des User admin:
        [[Datei:fortigate-vmx-install-134.jpg]]
        [[Datei:fortigate-vmx-install-135.jpg]]
Logge nach dem setzen des neuen "admin" Passwortes erneut ein:
        [[Datei:fortigate-vmx-install-136.jpg]]
Vergebe dem vShield Manager nun eine "statische IP" dh. in unsere Fall 198.18.0.6. Dies muss über die Console durchgeführt werden. Starte die Console damit die Konfiguration durchgeführt werden kann
        [[Datei:fortigate-vmx-install-140.jpg]]
       
        Username: admin
        Passwort: [Vergebenes Passwort bei der installation des vShield]
       
        '''NOTE''' Achtung in dieser Console gilt US Tastatur Layout!
Um die "statische IP" zu vergeben führe auf der Console folgendes aus::
        manager> enable
        Passwort: [Vergebenes Passwort bei der installation des vShield]
        manager# '''setup'''
        IP Address (A.B.C.D): '''198.18.0.5'''
        Subnet Mask (A.B.C.D): '''255.255.255.224'''
        Default gateway (A.B.C.D): '''198.18.0.1'''
        Secondary DNS IP (A.B.C.D): '''0.0.0.0'''
        DNS domain search list (space seperted): '''local.intra'''
        Old configuration will be lost
        Do you want to save new configurtion (y/[n]):'''y'''
        Do you want to reboot now (y/[n]):'''y'''
Nach dem Neustart logge dich zur Kontrolle auf die neu "statisch gesetzte IP" ein wobei zu berücksichtigen ist, dass der Service nach dem Neustart einige Zeit benötigt bis eingeloggt werden kann (1 - 2 Minuten):
        https://198.18.0.5/
       
        Username: admin
        Passwort: [Neu gesetztes Passwort im vShield Manager]
Nun muss der vShield anhand Username und Passwort mit dem vCenter IP 198.18.0.25 verbunden werden. Dafür wähle:
        Settings & Reports > configuration > vCenter > Edit
        [[Datei:fortigate-vmx-install-137.jpg]]
        [[Datei:fortigate-vmx-install-138.jpg]]
        [[Datei:fortigate-vmx-install-139.jpg]]
Konfiguriere nun im vShield Manager einen NTP Server:
        [[Datei:fortigate-vmx-install-141.jpg]]
        [[Datei:fortigate-vmx-install-142.jpg]]
=== Installation des NSX Managers anhand des ova Files sowie Grundkonfiguration ===
Installiere nun den NSX Manager anhand des "ova" Files "VMware-NSX-Manager-6.1.4-2691049.ova". Führe folgendes durch:
        [[Datei:fortigate-vmx-install-143.jpg]]
        [[Datei:fortigate-vmx-install-144.jpg]]
        [[Datei:fortigate-vmx-install-145.jpg]]
        [[Datei:fortigate-vmx-install-146.jpg]]
        [[Datei:fortigate-vmx-install-147.jpg]]
        [[Datei:fortigate-vmx-install-148.jpg]]
        [[Datei:fortigate-vmx-install-149.jpg]]
        [[Datei:fortigate-vmx-install-150.jpg]]
Bei der Definition des Netzwerks achte darauf das "VM Network" definiert wird das unser "vSwicht0" darstellt resp. das VMware Management Netzwerk:
        [[Datei:fortigate-vmx-install-151.jpg]]
Definiere nun die Passwörter des NXS Managers sowie Statische IP, Default Gateway, DNS sowie NTP Server. Aktiviere ebenfalls den SSH Service:
        [[Datei:fortigate-vmx-install-152.jpg]]
        [[Datei:fortigate-vmx-install-153.jpg]]
        [[Datei:fortigate-vmx-install-154.jpg]]
Nach der Installation kontrolliere den Zugriff des NSX Mgmt. Interface übers Web:
        https://198.18.0.6/
       
        Username: admin
        Passwort: [Vergebenes Passwort bei der installation des NSX Managers]
        [[Datei:fortigate-vmx-install-155.jpg]]
Gehe auf "Summary" und kontrolliere die Angaben:
        [[Datei:fortigate-vmx-install-156.jpg]]
        [[Datei:fortigate-vmx-install-157.jpg]]
Als Nächstes integrieren wir das vCenter Server zum NSX Manager dh. als Erstes SSO:
        [[Datei:fortigate-vmx-install-158.jpg]]
        [[Datei:fortigate-vmx-install-159.jpg]]
       
        '''NOTE''' Das Passwort das für den SSO Dienst angegeben werden muss wurde definiert im Setup "Wizard"
            des vCenter Servers:
           
            [[Datei:fortigate-vmx-install-47.jpg]]
        [[Datei:fortigate-vmx-install-160.jpg]]
        [[Datei:fortigate-vmx-install-161.jpg]]
Danach integriere den vCenter Server zum NSX Manager:
        [[Datei:fortigate-vmx-install-162.jpg]]
        [[Datei:fortigate-vmx-install-163.jpg]]
       
        '''NOTE''' Das Passwort des User "root" wurde beim Setup des vCenter Server über dessen Web Gui definiert:
           
            https://198.18.0.25:5480
            [[Datei:fortigate-vmx-install-42.jpg]]
        [[Datei:fortigate-vmx-install-164.jpg]]
        [[Datei:fortigate-vmx-install-165.jpg]]
Nach der erfologreichen Integration von "SSO" und dem "vCenter Server in den "NSX Manager" schliesse den Browser des "NSX Manager" Session sowie die Browser Session des "vSphere Web Client". Nach 2 - 3 Minuten logge dich erneut ein in in den "vSphere Web Client" und nach erfolgreicher Installation steht ein neuer Menüpunkt im "vSphere Web Client" zur Verfügung "Networking & Security". Dieser Menüpunkt erscheint nicht wenn das lokale "vSphere Client" benutzt wird das es keine Integration des "NSX Managers" im lokalen "vSphere Client" existiert dh. es muss für die weitere Konfiguration zwingend der "vSphere Web Client" benutzt werden:
        https://198.18.0.25:9443/vsphere-client/
       
        Username: root
        Passwort: [Vergebenes Passwort im vCenter Server]
        [[Datei:fortigate-vmx-install-166.jpg]]
        [[Datei:fortigate-vmx-install-167.jpg]]
=== Erstellen/Konfigurieren eines Clusters im vCenter Server? ===
Wie schon zu Beginn erwähnt basiert diese Testinstallation auf einer Standalone Maschine. Um jedoch das Testscenario zu erreichen muss ein Cluster konfiguriert werden. Logge dich auf dem "vSphere Web Clietn" ein und führe für die Konfiguration eines Clusters folgendes durch:
        https://198.18.0.25:9443/vsphere-client/
       
        Username: root
        Passwort: [Vergebenes Passwort im vCenter Server]
        [[Datei:fortigate-vmx-install-168.jpg]]
        [[Datei:fortigate-vmx-install-169.jpg]]
        [[Datei:fortigate-vmx-install-170.jpg]]
       
        '''NOTE''' Die Aktivierung der "DRS" Funktion (Distributed Resource Scheduler) gilt als Voraussetzung damit später
            die "FortiGate VMX Instanz" über den "FortiGate VMX Service Manager" deployed werden kann. Wird "DRS"
            nicht aktiiviert und man versucht ein "ova" File über die übliche Funktion "bereitzustellen" erscheint
            ein Warnhinweis "ova kann nicht bereitgestellt werden da kein Resourcenpool vorhanden". Da dieser
            Konfigurationspunkt eine Voraussetzung ist für "FortiGate VMX" Installation wird dies in einem späteren
            Schritt in dieser Dokumentation nochmals überprüft:
           
            [[FortiGate-VMX:FAQ#Aktivierung.2FUeberpr.C3.BCfung_der_.22DRS.22_Funktion_innerhalb_des_Clusters_f.C3.BCr_VCenter_Server.3F]]]
        [[Datei:fortigate-vmx-install-171.jpg]]
Verschiebe nun den ESXi Server in den neu erstellten "Cluster-1":
        [[Datei:fortigate-vmx-install-172.jpg]]
        [[Datei:fortigate-vmx-install-173.jpg]]
Danach ergiebt sich folgender Status:
        [[Datei:fortigate-vmx-install-174.jpg]]
=== Installation des "NSX Service" des "NSX Managers" auf den "Cluster-1"? ===
Nun installiere den "NSX Service" auf den "Cluster-1":
        [[Datei:Fortigate-vmx-install-232.jpg]]
        [[Datei:Fortigate-vmx-install-233.jpg]]
        [[Datei:Fortigate-vmx-install-234.jpg]]
        [[Datei:Fortigate-vmx-install-235.jpg]]
=== Konfigurieren eines "NSX Controller" im vCenter für den NSX Manager? ===
Nun muss ein "NSX Controller" Konfiguriert werden. Dazu benötigt wird ein "Controller IP Pool" anhand des IP Ranges  in unserem Beispiel 198.18.0.56/29. Dieser wird benutzt um die Kommunikation zwischen verschiedenen "NSX-Controllern" zu gewährleisten ähnlich eines "Hearbeat Links". Logge dich auf dem "vSphere Web Client" ein und führe folgende Konfiguration durch:
        https://198.18.0.25:9443/vsphere-client/
       
        Username: root
        Passwort: [Vergebenes Passwort im vCenter Server]
        [[Datei:fortigate-vmx-install-175.jpg]]
        [[Datei:fortigate-vmx-install-176.jpg]]
        [[Datei:fortigate-vmx-install-177.jpg]]
        [[Datei:fortigate-vmx-install-178.jpg]]
        [[Datei:fortigate-vmx-install-179.jpg]]
        [[Datei:fortigate-vmx-install-180.jpg]]
        [[Datei:fortigate-vmx-install-181.jpg]]
        [[Datei:fortigate-vmx-install-182.jpg]]
       
        '''NOTE''' Bei der Definition des Passwortes muss folgendes berücksichtigt werden:
           
            Zeichen 12-255 mind. Alphanumerisch, mind ein Grossbuchstabe/Kleinbuchstabe, Kein Teilpassowort sowie ein Sonderzeichen
           
            Ein Beispiel eines Passwortes wäre zB:
           
            Dasist1nScheiss!
           
            Desweiteren ist zu berücksichtigen, dass dieser "Controller IP-Pool" mit der "NSX Manager IP"
            in unserem Beispiel 198.18.0.6 kommunizieren kann dh. wenn diese zwei Segmente über eine Firewall
            geroutet/verbunden sind, muss eine entsprechende Firewall Policy Rule konfiguriert werden die
            diesen Traffic erlaubt!
Nach der Bestätigung der Konfiguration wird die Komunikation zwischen dem "Controller" (Controller IP Pool) sowie dem "NSX Manager" überprüft und danach abgeschlossen. Dieser Vorgang kann durchaus einige Minuten in Anspruch nehmen:
        [[Datei:fortigate-vmx-install-183.jpg]]
=== Aktivierung/Ueberprüfung der "DRS" Funktion innerhalb des Clusters für VCenter Server? ===
Als der "Cluster-1" erstellt wurde, wurde die "DRS" (Data Resource Scheduler) nicht aktiviert! Dies bedeutet: Wenn ein "ova" File bereitgestellt wird ohne Aktivierung der "DRS" Funkion innerhalb des Clusters erscheint ein Warninhweis, dass kein Resourcepool vorhanden ist um das "ova" File bereitzustellen. Kontrolliere deshalb die "DRS" Einstellung des "Cluster-1" und aktiviere die Funktion sowie setze diese auf "vollautomatisiert". Das DRS aktiviert wird auf "vollautomatisiert" ist eine Voraussetzung damit "FortiGate VMX Instance" später "deployed" werden kann:
        [[Datei:fortigate-vmx-install-204.jpg]]
        [[Datei:fortigate-vmx-install-205.jpg]]
        [[Datei:fortigate-vmx-install-206.jpg]]
=== Erstellen eines "Distributed Switches" für "Agent VM Network" (FortiGate VMS Service Manager Sync)? ===
Das "Agent VM Network" stellt das "sync" Interface/Segement auf der "FortiGate VMX Service Manager" dar. Dieses wird dezidiert für die Komunikation zwischen dem FortiGate VMX Service Manager und jeder FortiGate VMX Instanz benutzt sowie für den Datastore auf dem die FortiGate VMX Instanz "deployed" wird. Dieses "Agent VM Network" muss/wird nicht geroutet. Um einen  neuen "Distributed Switch" zu erstellen für das "Agent VM Network" führe folgendes durch:
        [[Datei:Fortigate-vmx-install-212.jpg]]
        [[Datei:Fortigate-vmx-install-213.jpg]]
        [[Datei:Fortigate-vmx-install-214.jpg]]
        [[Datei:Fortigate-vmx-install-215.jpg]]
        [[Datei:Fortigate-vmx-install-216.jpg]]
        [[Datei:Fortigate-vmx-install-217.jpg]]
Dem "Distributed Switch" muss nun der vCenter Host hinzugefügt werden:
        [[Datei:Fortigate-vmx-install-218.jpg]]
        [[Datei:Fortigate-vmx-install-219.jpg]]
        [[Datei:Fortigate-vmx-install-220.jpg]]
        [[Datei:Fortigate-vmx-install-221.jpg]]
        [[Datei:Fortigate-vmx-install-222.jpg]]
        [[Datei:Fortigate-vmx-install-223.jpg]]
        [[Datei:Fortigate-vmx-install-224.jpg]]
        [[Datei:Fortigate-vmx-install-225.jpg]]
        [[Datei:Fortigate-vmx-install-226.jpg]]
        [[Datei:Fortigate-vmx-install-227.jpg]]
        [[Datei:Fortigate-vmx-install-228.jpg]]
=== Konfigurieren des "Agent VM Network" auf dem ESXi Host für die "FortiGate VMX Sync Network"? ===
Nachdem das "sync" Netzwerk (Distributed Switch) für die "FortiGate VMX Service Manager" konfiguriert wurde, muss das entsprechende "Agent VM settings" auf dem "ESXi Server" erfasst werden. Dieses "Agent VM Network" wird dezidiert für die Komunikation zwischen dem "FortiGate VMX Service Manager" und jeder "FortiGate VMX Instanz" benutzt sowie für den "Datastore" auf dem die "FortiGate VMX Instanz" "deployed" wird. Dieses "Agent VM Netzwerk" muss
nicht geroutet werden da die Komunikation exklusiv für "FortiGate VMX Service Manager", "FortiGate VMX Instanz" sowie "Datastore" der VMX Instanzen benutzt wird. Jedoch muss auf dem "sync" Interface des "FortiGate VMX Service Manager" in einem späteren Schritt ein "DHCP Server" aktiviert werden. Führe folgendes aus:
        [[Datei:Fortigate-vmx-install-229.jpg]]
        [[Datei:Fortigate-vmx-install-230.jpg]]
        [[Datei:Fortigate-vmx-install-231.jpg]]
=== Installation des "FortiGate VMX Service Manager" anhand ova File sowie Grundkonfiguration? ===
Der FortiGate VMX Service Manager wird anhand eines "zip" Files installiert. Im "zip" File enthalten ist das entsprechende "ova" File für die Installation des FortiGate VMX Service Manager. Vor den nächste Schritten entpacke lokal auf dem Client das "zip" File "FGT_VM64_SVM-v5-build8542-FORTINET.out.ovf.zip" danach führe folgendes aus:
        [[Datei:fortigate-vmx-install-184.jpg]]
        [[Datei:fortigate-vmx-install-185.jpg]]
        [[Datei:fortigate-vmx-install-186.jpg]]
        [[Datei:fortigate-vmx-install-187.jpg]]
        [[Datei:fortigate-vmx-install-188.jpg]]
        [[Datei:fortigate-vmx-install-189.jpg]]
        [[Datei:fortigate-vmx-install-190.jpg]]
        [[Datei:fortigate-vmx-install-191.jpg]]
Beim nächsten Schritt muss das Netzwerk definiert werden. Dabei benötigt der FortiGate VMX Service Manager ein "Agent Sync" Netzwerk das dazu benutzt wird mit den FortiGate VMX Instanzen zu kommunizieren. Dabei definiere wir für beide Netzwerke "VM Network" dh. "vSwitch0" was wiederum unser "Management Netzwerk" darstellt:
        [[Datei:fortigate-vmx-install-192.jpg]]
        [[Datei:fortigate-vmx-install-193.jpg]]
Die Instance des FortiGate Service Managers wurde nicht automatisch aktiviert dh. da "DRS" in unserem Beispiel auf "manuell" steht holen wir dies nun nach:
        [[Datei:fortigate-vmx-install-194.jpg]]
Der FortiGate VMX Manager besitzt zwei NIC's. Diese sind nicht konfiguriert sprich keine IP Adresse ist gesetzt. Um die Grundkonfiguration durchzuführen benützen wir die Console resp. die CLI des FortiGate VMX Managers. Führe folgendes aus:
        [[Datei:fortigate-vmx-install-196.jpg]]
       
        '''NOTE''' Logge dich auf der Console ein mit folgenden Angaben:
           
            Username: admin
            Passwort: [Kein Passwort]
Für den Management Zugriff benutzen wir das Interface "mgmt". Setze eine statische IP in unserem Beispiel 198.18.0.4:
        # config global
        # config system interface
        # edit mgmt
        # set ip 198.18.0.4/27
        # set allowaccess https ssh ping
        # end
        # end
Der FortiGate VMX Service Manager muss über das Interface "mgmt" für die Registrierung der Linzenz und Updates Zugriff auf das Internet erlangen. Setze die entsprechende Route für das Interface "mgmt" in der "VDom root" in das Interface "mgmt" Mietglied ist (Per Standard):
        # config vdom
        # edit root
        # config router static
        # edit 1
        # set gateway 198.18.0.1
        # set device mgmt
        # end
        # end
Das logging ist für "Vdom root" (NAT Firewall) sowie "VDOM netx" (Transparent Firewall) per Standard auf "disk" gesetzt. Aktiviere zusätzliche Logs für beide Instanzen:
        # config vdom
        # edit root
        # config log setting
        # set resolve-ip enable
        # set fwpolicy-implicit-log enable
        # set local-in-allow enable
        # set local-out enable
        # end
        # config vdom
        # edit netx
        # config log setting
        # set resolve-ip enable
        # set fwpolicy-implicit-log enable
        # set local-in-allow enable
        # set local-out enable
        # end
Nun kann anhand der gesetzten "statischen IP" auf den FGT Service Manager eingeloggt werden:
        https://198.18.0.4
       
        Username: admin
        Passwort: [Kein Passwort]
Nachdem einloggen erscheitn ein "Lizenz Hinweis". Gebe das entsprechende "License File" (Beispiel: FGTVMX0000000127.lic) an damit der "FGT Service Manager" korrekt lizensiert wird. Nachdem einspielen des "License File" wird ein Neustart ausgeführt! Nach dem Neustart kann es einige Minuten dauern bis der Zugriff auf das Web Mgmt. Interface erlaubt wird. Dies geschieht erst dann wenn die Lizenz in FortiGuard verifiziert wurde! Achte ebenfalls darauf das bevor auf das Web Mgmt. Interface zu gegriffen wird der Cache des Browsers gelöscht wird da die Zertifikats Informationen sich durch die Einspielung der Lizenz verändern!
        '''NOTE''' Es ist "fundamental" Wichtig das der "FortiGate VMX Service Manager" Zugriff erlangt auf das Internet um das
            "License File" zu verifizieren sowie bei Fortinet zu registrieren. Dabei spielt DNS Auflösung eine entscheidende
            Rolle dh. per Standard sind auf dem "FortiGate VMX Service Manager" DNS Server von FortiGuard definiert die Ihren
            Zweck erfüllen um FortiGuard für die Registrierung der Lizenz zu erreichen. Kommt es zu Problemen mit der DNS
            Resolution sollte diese überprüft werden und zwar folgendermassen:
           
            # config vdom
            # edit root
            # execute ping update.fortiguard.net
           
            # end
           
            Ist der Server nicht erreichbar da dieser nicht aufgelöst werden kann überprüfe die DNS Einstellungen:
           
            # config global
            # diagnose test app dnsproxy -1
           
            # end
           
            Soll manuell ein DNS Server gesetzt werden kann dies folgendermassen durchgeführt werden:
           
            # config global
            # config System dns
            # set primary 198.18.0.1
            # end
            # end
           
            # end
           
            Um nach der Konfiguration ein Update zu erzwingen führe folgendes aus:
           
            # config global
            # execute update-now
            # end
Sobald die Lizenz verifiziert wurde und der Zugriff zum Web Mgmt. Interface gewährleistet ist konfiguriere auf dem "FGT VMX Service Manager" eine korrekten NTP sowie die Zeitzone:
        [[Datei:fortigate-vmx-install-197.jpg]]
        [[Datei:fortigate-vmx-install-198.jpg]]
Setze danach ein Passwort für den User "admin":
        [[Datei:fortigate-vmx-install-199.jpg]]
        [[Datei:fortigate-vmx-install-200.jpg]]
Aender den FortiGuard Port von "53" auf "8888":
        [[Datei:Fortigate-vmx-install-236.jpg]]
Konfiguriere den entsprechenden DNS Server in unserem Fall 198.18.0.1:
        [[Datei:Fortigate-vmx-install-237.jpg]]
Danach setze in der "Global Zone" innerhalb der Interfaces für das Interfac "sync" eine IP sowie aktiviere in diesem Interface den DHCP Server. In unserem Fall benützen wir den IP Range 198.18.0.65/29. Dieses "sync" gewährleistet die Komunikation zwischen dem "FortiGate VMX Service Manager" sowie den "FortiGate VMX Instanz" dh. es ist zu vergleichen mit einem "Heartbeat Link":
        '''NOTE''' Im Grundsatz muss dieses "sync" Netzwerk nicht geroutet werden. Je nach Einsatz ist es jedoch zu
            empfehlen dieser IP Range zu routen!
        [[Datei:fortigate-vmx-install-201.jpg]]
        [[Datei:fortigate-vmx-install-202.jpg]]
=== Vorbereitung und Deployment der "FortiGate VMX Instanz" anhand ova File? ===
Nun muss der "FortiGate VMX Service Manager" mit dem vCenter sowie mit dem "NSX Manager" verbunden werden. Dazu muss folgende Seite konfiguriert werden:
        [[Datei:Fortigate-vmx-install-240.jpg]]
Damit das "ovf" File der "FortiGate VMX Instanz" deployed werden kann muss das entsprechende "zip" File "FGT_VM64_VMX-v5-build8542-FORTINET.out.ovf.zip" entpackt werden und der Inhalt auf einen WebServer gespielt werden. In unserem Beispiel wäre dies:
        http://alsochlu-web.also-solutions.local.intra/vmx/FortiGate-VMX.ovf
Sobald der "FortiGate VMX Service Manager" Kontakt aufgenommen hat werden zusäztliche Informationen vom vCenter zum "FortiGgate VMX Service Manager" gespielt. Die zuständigen Befehle auf Kommandozeile betreffend der Verbindung wären folgende:
        # config global
        # config netx setting
        # set status disable
        # set rest-sport 9443
        # set rest-interface mgmt
        # set vcenter-hostname "198.18.0.25"
        # set vcenter-username "root"
        # set vcenter-password "only4also"
        # set netx-manager-hostname "198.18.0.6"
        # set netx-manager-username "admin"
        # set netx-manager-password "only4also"
        # set vmx-image-url "http://alsochlu-web.also-solutions.local.intra/vmx/FortiGate-VMX.ovf"
        # end
        # end
Per Standard wird für "config netx setting" der Status auf "disable" gesetzt. Nun müssen die einzelnen Status Informationen überprüft werden sowie der Firewall Service in den entsprechenden "vDSwitches" aktiviert werden. Dies wird folgendermasse durchgeführt:
        '''NOTE''' Die einzelnen Informationen in der Konfiguration sollten nicht manuell manpuliert werden da diese
            vom vCenter stammen! Aktiviere/Deaktiviere nur in den einzelnen Konfigurationen den "Firewall"
            Service!
        # config global
        # config netx
        cluster        List of NetX Clusters.
        datacenter    List of datacenters.
        dvportgroup    List of NetX dvPortGroups.
        dvswitch      List of NetX dvSwitch.
        setting        Configure system NetX information.
        # config netx cluster
        # get
        == [ domain-c61 ]
        id: domain-c61    firewall-service: disable    status: present   
        # edit domain-c61
        # set firewall enable
        # end
        # config netx datacenter
        # get
        == [ datacenter-2 ]
        id: datacenter-2    status: present   
        # end
        # config netx dvportgroup
        # get
        == [ dvportgroup-54 ]
        id: dvportgroup-54    firewall-service: disable    status: present   
        == [ dvportgroup-58 ]
        id: dvportgroup-58    firewall-service: disable    status: present   
        == [ dvportgroup-83 ]
        id: dvportgroup-83    firewall-service: disable    status: present   
        # edit dvportgroup-54
        # set firewall-service enable
        # next
        # edit dvportgroup-58
        # set firewall-service enable
        # next
        # edit dvportgroup-83
        # set firewall-service enable
        # next
        # end
        # config netx dvswitch
        # get
        == [ dvs-52 ]
        id: dvs-52    status: present   
        == [ dvs-56 ]
        id: dvs-56    status: present   
        == [ dvs-81 ]
        id: dvs-81    status: present   
        # end
Die Status Informationen sowie der Firewall Status ist in der Konfiguration nun gesetzt. Damit das Ganze mitverfolgt werden kann sprich das Deployment, Erstelle anhand des "local" vSphere Client eine Verbindung zum vCenter. Die Informationen resp. Logging des Deployment werden im vSphere Web Client nicht abgebildet. Zusätzlich erstelle eine SSH Verbindung zum "FortiGate Service Manager" und aktiviere den Debug Modus:
        # config global
        # diagnose debug application netx -1
        # diagnose debug enable
Mit geöffnetem "local" vSphere Client sowie SSH mit aktivieren Debug Mode führe folgendes Kommando aus der das Deployment aktiviert:
        # config global
        # config netx setting
        # set status enable
        # end
Danach wird in der SSH Console mit aktivierten Debug folgendes angezeigt:
        netx_main.c[71] netx_diag_test: diagnose command 1 received
        netx_rest_client.c[1283] netx_update_service: Updating NetX Service
       
        netx_rest_client.c[1308] netx_update_service: cluster num:1 dvpg num:3
       
        netx_rest_client.c[779] netx_rest_send_request: send request content:3 tag:36
        netx_rest_compose.c[1011] netx_rest_compose_object: start composing REST API request
        netx_rest_compose.c[952] __compose_tag:  <serviceManager> - cmplx
        netx_rest_compose.c[970] __compose_tag:  <name> - string
        netx_rest_compose.c[970] __compose_tag:  </name> - string
        netx_rest_compose.c[970] __compose_tag:  <description> - string
        netx_rest_compose.c[970] __compose_tag:  </description> - string
        netx_rest_compose.c[974] __compose_tag:  <objectTypeName> - parent
        netx_rest_compose.c[974] __compose_tag:  </objectTypeName> - parent
        netx_rest_compose.c[970] __compose_tag:  <thumbprint> - string
        netx_rest_compose.c[970] __compose_tag:  </thumbprint> - string
        netx_rest_compose.c[970] __compose_tag:  <login> - string
        netx_rest_compose.c[970] __compose_tag:  </login> - string
        netx_rest_compose.c[970] __compose_tag:  <password> - string
        netx_rest_compose.c[970] __compose_tag:  </password> - string
        netx_rest_compose.c[970] __compose_tag:  <verifyPassword> - string
        netx_rest_compose.c[970] __compose_tag:  </verifyPassword> - string
        netx_rest_compose.c[970] __compose_tag:  <url> - string
        netx_rest_compose.c[970] __compose_tag:  </url> - string
        netx_rest_compose.c[970] __compose_tag:  <restUrl> - string
        netx_rest_compose.c[970] __compose_tag:  </restUrl> - string
        netx_rest_compose.c[966] __compose_tag:  <status> - option
        netx_rest_compose.c[966] __compose_tag:  </status> - option
        netx_rest_compose.c[952] __compose_tag:  </serviceManager> - cmplx
        netx_rest_client.c[716] netx_rest_request_push: curl start
        netx_rest_client.c[515] sock_func: Socket bound to vdom 0
       
        netx_rest_client.c[718] netx_rest_request_push: curl finished
        netx_rest_client.c[1311] netx_update_service: service manager:6
       
        netx_rest_client.c[779] netx_rest_send_request: send request content:8 tag:0
        netx_rest_compose.c[1011] netx_rest_compose_object: start composing REST API request
        netx_rest_compose.c[952] __compose_tag:  <serviceManagerStatus> - cmplx
        netx_rest_compose.c[966] __compose_tag:  <status> - option
        netx_rest_compose.c[966] __compose_tag:  </status> - option
        netx_rest_compose.c[952] __compose_tag:  </serviceManagerStatus> - cmplx
        netx_rest_client.c[716] netx_rest_request_push: curl start
        netx_rest_client.c[718] netx_rest_request_push: curl finished
        netx_rest_client.c[779] netx_rest_send_request: send request content:9 tag:32
        netx_rest_compose.c[1011] netx_rest_compose_object: start composing REST API request
        netx_rest_compose.c[952] __compose_tag:  <service> - cmplx
        netx_rest_compose.c[952] __compose_tag:  <type> - cmplx
        netx_rest_compose.c[974] __compose_tag:  <typeName> - parent
        netx_rest_compose.c[974] __compose_tag:  </typeName> - parent
        netx_rest_compose.c[952] __compose_tag:  </type> - cmplx
        netx_rest_compose.c[970] __compose_tag:  <name> - string
        netx_rest_compose.c[970] __compose_tag:  </name> - string
        netx_rest_compose.c[962] __compose_tag:  <revision> - integer
        netx_rest_compose.c[962] __compose_tag:  </revision> - integer
        netx_rest_compose.c[974] __compose_tag:  <objectTypeName> - parent
        netx_rest_compose.c[974] __compose_tag:  </objectTypeName> - parent
        netx_rest_compose.c[970] __compose_tag:  <category> - string
        netx_rest_compose.c[970] __compose_tag:  </category> - string
        netx_rest_compose.c[952] __compose_tag:  <serviceManager> - cmplx
        netx_rest_compose.c[974] __compose_tag:  <objectId> - parent
        netx_rest_compose.c[974] __compose_tag:  </objectId> - parent
        netx_rest_compose.c[952] __compose_tag:  <type> - cmplx
        netx_rest_compose.c[974] __compose_tag:  <typeName> - parent
        netx_rest_compose.c[974] __compose_tag:  </typeName> - parent
        netx_rest_compose.c[952] __compose_tag:  </type> - cmplx
        netx_rest_compose.c[970] __compose_tag:  <name> - string
        netx_rest_compose.c[970] __compose_tag:  </name> - string
        netx_rest_compose.c[970] __compose_tag:  <description> - string
        netx_rest_compose.c[970] __compose_tag:  </description> - string
        netx_rest_compose.c[962] __compose_tag:  <revision> - integer
        netx_rest_compose.c[962] __compose_tag:  </revision> - integer
        netx_rest_compose.c[974] __compose_tag:  <objectTypeName> - parent
        netx_rest_compose.c[974] __compose_tag:  </objectTypeName> - parent
        netx_rest_compose.c[952] __compose_tag:  </serviceManager> - cmplx
        netx_rest_compose.c[966] __compose_tag:  <state> - option
        netx_rest_compose.c[966] __compose_tag:  </state> - option
        netx_rest_compose.c[966] __compose_tag:  <status> - option
        netx_rest_compose.c[966] __compose_tag:  </status> - option
        netx_rest_compose.c[952] __compose_tag:  <serviceAttributes> - cmplx
        netx_rest_compose.c[962] __compose_tag:  <revision> - integer
        netx_rest_compose.c[962] __compose_tag:  </revision> - integer
        netx_rest_compose.c[952] __compose_tag:  <attribute> - cmplx
        netx_rest_compose.c[970] __compose_tag:  <key> - string
        netx_rest_compose.c[970] __compose_tag:  </key> - string
        netx_rest_compose.c[970] __compose_tag:  <name> - string
        netx_rest_compose.c[970] __compose_tag:  </name> - string
        netx_rest_compose.c[970] __compose_tag:  <value> - string
        netx_rest_compose.c[970] __compose_tag:  </value> - string
        netx_rest_compose.c[952] __compose_tag:  </attribute> - cmplx
        netx_rest_compose.c[952] __compose_tag:  <attribute> - cmplx
        netx_rest_compose.c[970] __compose_tag:  <key> - string
        netx_rest_compose.c[970] __compose_tag:  </key> - string
        netx_rest_compose.c[970] __compose_tag:  <name> - string
        netx_rest_compose.c[970] __compose_tag:  </name> - string
        netx_rest_compose.c[970] __compose_tag:  <value> - string
        netx_rest_compose.c[970] __compose_tag:  </value> - string
        netx_rest_compose.c[952] __compose_tag:  </attribute> - cmplx
        netx_rest_compose.c[952] __compose_tag:  <attribute> - cmplx
        netx_rest_compose.c[970] __compose_tag:  <key> - string
        netx_rest_compose.c[970] __compose_tag:  </key> - string
        netx_rest_compose.c[970] __compose_tag:  <name> - string
        netx_rest_compose.c[970] __compose_tag:  </name> - string
        netx_rest_compose.c[970] __compose_tag:  <value> - string
        netx_rest_compose.c[970] __compose_tag:  </value> - string
        netx_rest_compose.c[952] __compose_tag:  </attribute> - cmplx
        netx_rest_compose.c[952] __compose_tag:  </serviceAttributes> - cmplx
        netx_rest_compose.c[952] __compose_tag:  <vendorTemplates> - cmplx
        netx_rest_compose.c[952] __compose_tag:  <usedBy> - cmplx
        netx_rest_compose.c[952] __compose_tag:  </service> - cmplx
        netx_rest_client.c[716] netx_rest_request_push: curl start
        netx_rest_client.c[718] netx_rest_request_push: curl finished
        netx_rest_client.c[1322] netx_update_service: service:8
       
        netx_rest_client.c[779] netx_rest_send_request: send request content:47 tag:0
        netx_rest_compose.c[1011] netx_rest_compose_object: start composing REST API request
        netx_rest_compose.c[952] __compose_tag:  <serviceStatus> - cmplx
        netx_rest_compose.c[966] __compose_tag:  <status> - option
        netx_rest_compose.c[966] __compose_tag:  </status> - option
        netx_rest_compose.c[952] __compose_tag:  </serviceStatus> - cmplx
        netx_rest_client.c[716] netx_rest_request_push: curl start
        netx_rest_client.c[718] netx_rest_request_push: curl finished
        netx_rest_client.c[779] netx_rest_send_request: send request content:25 tag:58
        netx_rest_compose.c[1011] netx_rest_compose_object: start composing REST API request
        netx_rest_compose.c[952] __compose_tag:  <vendorTemplate> - cmplx
        netx_rest_compose.c[970] __compose_tag:  <name> - string
        netx_rest_compose.c[970] __compose_tag:  </name> - string
        netx_rest_compose.c[970] __compose_tag:  <description> - string
        netx_rest_compose.c[970] __compose_tag:  </description> - string
        netx_rest_compose.c[970] __compose_tag:  <idFromVendor> - string
        netx_rest_compose.c[970] __compose_tag:  </idFromVendor> - string
        netx_rest_compose.c[952] __compose_tag:  <vendorAttributes> - cmplx
        netx_rest_compose.c[952] __compose_tag:  <attribute> - cmplx
        netx_rest_compose.c[970] __compose_tag:  <key> - string
        netx_rest_compose.c[970] __compose_tag:  </key> - string
        netx_rest_compose.c[970] __compose_tag:  <name> - string
        netx_rest_compose.c[970] __compose_tag:  </name> - string
        netx_rest_compose.c[970] __compose_tag:  <value> - string
        netx_rest_compose.c[970] __compose_tag:  </value> - string
        netx_rest_compose.c[952] __compose_tag:  </attribute> - cmplx
        netx_rest_compose.c[952] __compose_tag:  </vendorAttributes> - cmplx
        netx_rest_compose.c[952] __compose_tag:  </vendorTemplate> - cmplx
        netx_rest_client.c[716] netx_rest_request_push: curl start
        netx_rest_client.c[718] netx_rest_request_push: curl finished
        netx_rest_client.c[1334] netx_update_service: template:316
       
        netx_rest_client.c[779] netx_rest_send_request: send request content:17 tag:58
        netx_rest_compose.c[1011] netx_rest_compose_object: start composing REST API request
        netx_rest_compose.c[952] __compose_tag:  <versionedDeploymentSpec> - cmplx
        netx_rest_compose.c[970] __compose_tag:  <hostVersion> - string
        netx_rest_compose.c[970] __compose_tag:  </hostVersion> - string
        netx_rest_compose.c[970] __compose_tag:  <ovfUrl> - string
        netx_rest_compose.c[970] __compose_tag:  </ovfUrl> - string
        netx_rest_compose.c[966] __compose_tag:  <vmciEnabled> - option
        netx_rest_compose.c[966] __compose_tag:  </vmciEnabled> - option
        netx_rest_compose.c[952] __compose_tag:  </versionedDeploymentSpec> - cmplx
        netx_rest_client.c[716] netx_rest_request_push: curl start
        netx_rest_client.c[718] netx_rest_request_push: curl finished
        netx_rest_client.c[1343] netx_update_service: spec1:319
       
        netx_rest_client.c[779] netx_rest_send_request: send request content:17 tag:58
        netx_rest_compose.c[1011] netx_rest_compose_object: start composing REST API request
        netx_rest_compose.c[952] __compose_tag:  <versionedDeploymentSpec> - cmplx
        netx_rest_compose.c[970] __compose_tag:  <hostVersion> - string
        netx_rest_compose.c[970] __compose_tag:  </hostVersion> - string
        netx_rest_compose.c[970] __compose_tag:  <ovfUrl> - string
        netx_rest_compose.c[970] __compose_tag:  </ovfUrl> - string
        netx_rest_compose.c[966] __compose_tag:  <vmciEnabled> - option
        netx_rest_compose.c[966] __compose_tag:  </vmciEnabled> - option
        netx_rest_compose.c[952] __compose_tag:  </versionedDeploymentSpec> - cmplx
        netx_rest_client.c[716] netx_rest_request_push: curl start
        netx_rest_client.c[718] netx_rest_request_push: curl finished
        netx_rest_client.c[1352] netx_update_service: spec2:320
       
        netx_rest_client.c[1033] netx_set_svc_deploy_scope: set deploy scope:8 cluster num:1
       
        netx_rest_client.c[779] netx_rest_send_request: send request content:15 tag:0
        netx_rest_compose.c[1011] netx_rest_compose_object: start composing REST API request
        netx_rest_compose.c[952] __compose_tag:  <set> - cmplx
        netx_rest_compose.c[974] __compose_tag:  <string> - parent
        netx_rest_compose.c[974] __compose_tag:  </string> - parent
        netx_rest_compose.c[952] __compose_tag:  </set> - cmplx
        netx_rest_client.c[716] netx_rest_request_push: curl start
        netx_rest_client.c[718] netx_rest_request_push: curl finished
        netx_rest_client.c[1033] netx_set_svc_deploy_scope: set deploy scope:1 cluster num:1
       
        netx_rest_client.c[779] netx_rest_send_request: send request content:15 tag:0
        netx_rest_compose.c[1011] netx_rest_compose_object: start composing REST API request
        netx_rest_compose.c[952] __compose_tag:  <set> - cmplx
        netx_rest_compose.c[974] __compose_tag:  <string> - parent
        netx_rest_compose.c[974] __compose_tag:  </string> - parent
        netx_rest_compose.c[952] __compose_tag:  </set> - cmplx
        netx_rest_client.c[716] netx_rest_request_push: curl start
        netx_rest_client.c[718] netx_rest_request_push: curl finished
        netx_rest_client.c[779] netx_rest_send_request: send request content:11 tag:0
        netx_rest_client.c[716] netx_rest_request_push: curl start
        netx_rest_client.c[718] netx_rest_request_push: curl finished
        netx_rest_parse.c[1079] __skip_tag: skipped unknown tag <?xml version="1.0" encoding="UTF-8"?>
        netx_rest_parse.c[1169] __parse_tag: <service> - complex
        netx_rest_parse.c[1191] __parse_tag: <objectId> - parent
        netx_rest_parse.c[1191] __parse_tag: </objectId> - parent
        netx_rest_parse.c[1124] search_match_tag: reordering tag <objectTypeName>
        netx_rest_parse.c[1191] __parse_tag: <objectTypeName> - parent
        netx_rest_parse.c[1191] __parse_tag: </objectTypeName> - parent
        netx_rest_parse.c[1079] __skip_tag: skipped unknown tag <vsmUuid>
        netx_rest_parse.c[1124] search_match_tag: reordering tag <revision>
        netx_rest_parse.c[1179] __parse_tag: <revision> - integer
        netx_rest_parse.c[1179] __parse_tag: </revision> - integer
        netx_rest_parse.c[1124] search_match_tag: reordering tag <type>
        netx_rest_parse.c[1169] __parse_tag: <type> - complex
        netx_rest_parse.c[1191] __parse_tag: <typeName> - parent
        netx_rest_parse.c[1191] __parse_tag: </typeName> - parent
        netx_rest_parse.c[1169] __parse_tag: </type> - complex
        netx_rest_parse.c[1187] __parse_tag: <name> - string
        netx_rest_parse.c[1187] __parse_tag: </name> - string
        netx_rest_parse.c[1079] __skip_tag: skipped unknown tag <clientHandle>
        netx_rest_parse.c[1169] __parse_tag: <extendedAttributes> - complex
        netx_rest_parse.c[1187] __parse_tag: <category> - string
        netx_rest_parse.c[1187] __parse_tag: </category> - string
        netx_rest_parse.c[1169] __parse_tag: <serviceManager> - complex
        netx_rest_parse.c[1191] __parse_tag: <objectId> - parent
        netx_rest_parse.c[1191] __parse_tag: </objectId> - parent
        netx_rest_parse.c[1124] search_match_tag: reordering tag <objectTypeName>
        netx_rest_parse.c[1191] __parse_tag: <objectTypeName> - parent
        netx_rest_parse.c[1191] __parse_tag: </objectTypeName> - parent
        netx_rest_parse.c[1079] __skip_tag: skipped unknown tag <vsmUuid>
        netx_rest_parse.c[1124] search_match_tag: reordering tag <revision>
        netx_rest_parse.c[1179] __parse_tag: <revision> - integer
        netx_rest_parse.c[1179] __parse_tag: </revision> - integer
        netx_rest_parse.c[1124] search_match_tag: reordering tag <type>
        netx_rest_parse.c[1169] __parse_tag: <type> - complex
        netx_rest_parse.c[1191] __parse_tag: <typeName> - parent
        netx_rest_parse.c[1191] __parse_tag: </typeName> - parent
        netx_rest_parse.c[1169] __parse_tag: </type> - complex
        netx_rest_parse.c[1187] __parse_tag: <name> - string
        netx_rest_parse.c[1187] __parse_tag: </name> - string
        netx_rest_parse.c[1187] __parse_tag: <description> - string
        netx_rest_parse.c[1187] __parse_tag: </description> - string
        netx_rest_parse.c[1079] __skip_tag: skipped unknown tag <clientHandle>
        netx_rest_parse.c[1079] __skip_tag: skipped unknown tag <extendedAttributes/>
        netx_rest_parse.c[1169] __parse_tag: </serviceManager> - complex
        netx_rest_parse.c[1183] __parse_tag: <state> - option
        netx_rest_parse.c[1183] __parse_tag: </state> - option
        netx_rest_parse.c[1183] __parse_tag: <status> - option
        netx_rest_parse.c[1183] __parse_tag: </status> - option
        netx_rest_parse.c[1079] __skip_tag: skipped unknown tag <precedence>
        netx_rest_parse.c[1169] __parse_tag: <serviceAttributes> - complex
        netx_rest_parse.c[1179] __parse_tag: <id> - integer
        netx_rest_parse.c[1179] __parse_tag: </id> - integer
        netx_rest_parse.c[1179] __parse_tag: <revision> - integer
        netx_rest_parse.c[1179] __parse_tag: </revision> - integer
        netx_rest_parse.c[1169] __parse_tag: <attribute> - complex
        netx_rest_parse.c[1179] __parse_tag: <id> - integer
        netx_rest_parse.c[1179] __parse_tag: </id> - integer
        netx_rest_parse.c[1179] __parse_tag: <revision> - integer
        netx_rest_parse.c[1179] __parse_tag: </revision> - integer
        netx_rest_parse.c[1187] __parse_tag: <key> - string
        netx_rest_parse.c[1187] __parse_tag: </key> - string
        netx_rest_parse.c[1187] __parse_tag: <name> - string
        netx_rest_parse.c[1187] __parse_tag: </name> - string
        netx_rest_parse.c[1187] __parse_tag: <value> - string
        netx_rest_parse.c[1187] __parse_tag: </value> - string
        netx_rest_parse.c[1169] __parse_tag: </attribute> - complex
        netx_rest_parse.c[1169] __parse_tag: <attribute> - complex
        netx_rest_parse.c[1179] __parse_tag: <id> - integer
        netx_rest_parse.c[1179] __parse_tag: </id> - integer
        netx_rest_parse.c[1179] __parse_tag: <revision> - integer
        netx_rest_parse.c[1179] __parse_tag: </revision> - integer
        netx_rest_parse.c[1187] __parse_tag: <key> - string
        netx_rest_parse.c[1187] __parse_tag: </key> - string
        netx_rest_parse.c[1187] __parse_tag: <name> - string
        netx_rest_parse.c[1187] __parse_tag: </name> - string
        netx_rest_parse.c[1187] __parse_tag: <value> - string
        netx_rest_parse.c[1187] __parse_tag: </value> - string
        netx_rest_parse.c[1169] __parse_tag: </attribute> - complex
        netx_rest_parse.c[1169] __parse_tag: <attribute> - complex
        netx_rest_parse.c[1179] __parse_tag: <id> - integer
        netx_rest_parse.c[1179] __parse_tag: </id> - integer
        netx_rest_parse.c[1179] __parse_tag: <revision> - integer
        netx_rest_parse.c[1179] __parse_tag: </revision> - integer
        netx_rest_parse.c[1187] __parse_tag: <key> - string
        netx_rest_parse.c[1187] __parse_tag: </key> - string
        netx_rest_parse.c[1187] __parse_tag: <name> - string
        netx_rest_parse.c[1187] __parse_tag: </name> - string
        netx_rest_parse.c[1187] __parse_tag: <value> - string
        netx_rest_parse.c[1187] __parse_tag: </value> - string
        netx_rest_parse.c[1169] __parse_tag: </attribute> - complex
        netx_rest_parse.c[1169] __parse_tag: <attribute> - complex
        netx_rest_parse.c[348] __match_tag: tag not match
        netx_rest_parse.c[372] __match_tag: tag mismatch at /serviceAttributes><vendo
        netx_rest_parse.c[1169] __parse_tag: </serviceAttributes> - complex
        netx_rest_parse.c[1169] __parse_tag: <vendorTemplates> - complex
        netx_rest_parse.c[1169] __parse_tag: <usedBy> - complex
        netx_rest_parse.c[1079] __skip_tag: skippnetx_rest_client.c[718] netx_rest_request_push: curl finished
        netx_rest_client.c[779] netx_rest_send_request: send request content:11 tag:0
        netx_rest_client.c[716] netx_rest_request_push: curl start
        netx_rest_client.c[718] netx_rest_request_push: curl finished
        netx_rest_parse.c[1079] __skip_tag: skipped unknown tag <?xml version="1.0" encoding="UTF-8"?>
        netx_rest_parse.c[1169] __parse_tag: <service> - complex
        netx_rest_parse.c[1191] __parse_tag: <objectId> - parent
        netx_rest_parse.c[1191] __parse_tag: </objectId> - parent
        netx_rest_parse.c[1124] search_match_tag: reordering tag <objectTypeName>
        netx_rest_parse.c[1191] __parse_tag: <objectTypeName> - parent
        netx_rest_parse.c[1191] __parse_tag: </objectTypeName> - parent
        netx_rest_parse.c[1079] __skip_tag: skipped unknown tag <vsmUuid>
        netx_rest_parse.c[1124] search_match_tag: reordering tag <revision>
        netx_rest_parse.c[1179] __parse_tag: <revision> - integer
        netx_rest_parse.c[1179] __parse_tag: </revision> - integer
        netx_rest_parse.c[1124] search_match_tag: reordering tag <type>
        netx_rest_parse.c[1169] __parse_tag: <type> - complex
        netx_rest_parse.c[1191] __parse_tag: <typeName> - parent
        netx_rest_parse.c[1191] __parse_tag: </typeName> - parent
        netx_rest_parse.c[1169] __parse_tag: </type> - complex
        netx_rest_parse.c[1187] __parse_tag: <name> - string
        netx_rest_parse.c[1187] __parse_tag: </name> - string
        netx_rest_parse.c[1079] __skip_tag: skipped unknown tag <clientHandle>
        netx_rest_parse.c[1169] __parse_tag: <extendedAttributes> - complex
        netx_rest_parse.c[1187] __parse_tag: <category> - string
        netx_rest_parse.c[1187] __parse_tag: </category> - string
        netx_rest_parse.c[1169] __parse_tag: <serviceManager> - complex
        netx_rest_parse.c[1191] __parse_tag: <objectId> - parent
        netx_rest_parse.c[1191] __parse_tag: </objectId> - parent
        netx_rest_parse.c[1124] search_match_tag: reordering tag <objectTypeName>
        netx_rest_parse.c[1191] __parse_tag: <objectTypeName> - parent
        netx_rest_parse.c[1191] __parse_tag: </objectTypeName> - parent
        netx_rest_parse.c[1079] __skip_tag: skipped unknown tag <vsmUuid>
        netx_rest_parse.c[1124] search_match_tag: reordering tag <revision>
        netx_rest_parse.c[1179] __parse_tag: <revision> - integer
        netx_rest_parse.c[1179] __parse_tag: </revision> - integer
        netx_rest_parse.c[1124] search_match_tag: reordering tag <type>
        netx_rest_parse.c[1169] __parse_tag: <type> - complex
        netx_rest_parse.c[1191] __parse_tag: <typeName> - parent
        netx_rest_parse.c[1191] __parse_tag: </typeName> - parent
        netx_rest_parse.c[1169] __parse_tag: </type> - complex
        netx_rest_parse.c[1187] __parse_tag: <name> - string
        netx_rest_parse.c[1187] __parse_tag: </name> - string
        netx_rest_parse.c[1187] __parse_tag: <description> - string
        netx_rest_parse.c[1187] __parse_tag: </description> - string
        netx_rest_parse.c[1079] __skip_tag: skipped unknown tag <clientHandle>
        netx_rest_parse.c[1079] __skip_tag: skipped unknown tag <extendedAttributes/>
        netx_rest_parse.c[1169] __parse_tag: </serviceManager> - complex
        netx_rest_parse.c[1183] __parse_tag: <state> - option
        netx_rest_parse.c[1183] __parse_tag: </state> - option
        netx_rest_parse.c[1183] __parse_tag: <status> - option
        netx_rest_parse.c[1183] __parse_tag: </status> - option
        netx_rest_parse.c[1079] __skip_tag: skipped unknown tag <precedence>
        netx_rest_parse.c[1169] __parse_tag: <serviceAttributes> - complex
        netx_rest_parse.c[1179] __parse_tag: <id> - integer
        netx_rest_parse.c[1179] __parse_tag: </id> - integer
        netx_rest_parse.c[1179] __parse_tag: <revision> - integer
        netx_rest_parse.c[1179] __parse_tag: </revision> - integer
        netx_rest_parse.c[1169] __parse_tag: <attribute> - complex
        netx_rest_parse.c[1179] __parse_tag: <id> - integer
        netx_rest_parse.c[1179] __parse_tag: </id> - integer
        netx_rest_parse.c[1179] __parse_tag: <revision> - integer
        netx_rest_parse.c[1179] __parse_tag: </revision> - integer
        netx_rest_parse.c[1187] __parse_tag: <key> - string
        netx_rest_parse.c[1187] __parse_tag: </key> - string
        netx_rest_parse.c[1187] __parse_tag: <name> - string
        netx_rest_parse.c[1187] __parse_tag: </name> - string
        netx_rest_parse.c[1187] __parse_tag: <value> - string
        netx_rest_parse.c[1187] __parse_tag: </value> - string
        netx_rest_parse.c[1169] __parse_tag: </attribute> - complex
        netx_rest_parse.c[1169] __parse_tag: <attribute> - complex
        netx_rest_parse.c[1179] __parse_tag: <id> - integer
        netx_rest_parse.c[1179] __parse_tag: </id> - integer
        netx_rest_parse.c[1179] __parse_tag: <revision> - integer
        netx_rest_parse.c[1179] __parse_tag: </revision> - integer
        netx_rest_parse.c[1187] __parse_tag: <key> - string
        netx_rest_parse.c[1187] __parse_tag: </key> - string
        netx_rest_parse.c[1187] __parse_tag: <name> - string
        netx_rest_parse.c[1187] __parse_tag: </name> - string
        netx_rest_parse.c[1187] __parse_tag: <value> - string
        netx_rest_parse.c[1187] __parse_tag: </value> - string
        netx_rest_parse.c[1169] __parse_tag: </attribute> - complex
        netx_rest_parse.c[1169] __parse_tag: <attribute> - complex
        netx_rest_parse.c[1179] __parse_tag: <id> - integer
        netx_rest_parse.c[1179] __parse_tag: </id> - integer
        netx_rest_parse.c[1179] __parse_tag: <revision> - integer
        netx_rest_parse.c[1179] __parse_tag: </revision> - integer
        netx_rest_parse.c[1187] __parse_tag: <key> - string
        netx_rest_parse.c[1187] __parse_tag: </key> - string
        netx_rest_parse.c[1187] __parse_tag: <name> - string
        netx_rest_parse.c[1187] __parse_tag: </name> - string
        netx_rest_parse.c[1187] __parse_tag: <value> - string
        netx_rest_parse.c[1187] __parse_tag: </value> - string
        netx_rest_parse.c[1169] __parse_tag: </attribute> - complex
        netx_rest_parse.c[1169] __parse_tag: <attribute> - complex
        netx_rest_parse.c[1179] __parse_tag: <id> - integer
        netx_rest_parse.c[1179] __parse_tag: </id> - integer
        netx_rest_parse.c[1179] __parse_tag: <revision> - integer
        netx_rest_parse.c[1179] __parse_tag: </revision> - integer
        netx_rest_parse.c[1187] __parse_tag: <key> - string
        netx_rest_parse.c[1187] __parse_tag: </key> - string
        netx_rest_parse.c[1187] __parse_tag: <name> - string
        netx_rest_parse.c[1187] __parse_tag: </name> - string
        netx_rest_parse.c[1187] __parse_tag: <value> - string
        netx_rest_parse.c[1187] __parse_tag: </value> - string
        netx_rest_parse.c[1169] __parse_tag: </attribute> - complex
        netx_rest_parse.c[1169] __parse_tag: <attribute> - complex
        netx_rest_parse.c[348] __match_tag: tag not match
        netx_rest_parse.c[372] __match_tag: tag mismatch at /serviceAttributes><vendo
        netx_rest_parse.c[1169] __parse_tag: </serviceAttributes> - complex
        netx_rest_parse.c[1169] __parse_tag: <vendorTemplates> - complex
        netx_rest_parse.c[356] __match_tag: tag not match
        netx_rest_parse.c[372] __match_tag: tag mismatch at ><vendorTemplate><id>316<
        netx_rest_parse.c[1169] __parse_tag: <vendorTemplate> - complex
        netx_rest_parse.c[1179] __parse_tag: <id> - integer
        netx_rest_parse.c[1179] __parse_tag: </id> - integer
        netx_rest_parse.c[1179] __parse_tag: <revision> - integer
        netx_rest_parse.c[1179] __parse_tag: </revision> - integer
        netx_rest_parse.c[1187] __parse_tag: <name> - string
        netx_rest_parse.c[1187] __parse_tag: </name> - string
        netx_rest_parse.c[1187] __parse_tag: <description> - string
        netx_rest_parse.c[1187] __parse_tag: </description> - string
        netx_rest_parse.c[1187] __parse_tag: <idFromVendor> - string
        netx_rest_parse.c[1187] __parse_tag: </idFromVendor> - string
        netx_rest_parse.c[1169] __parse_tag: <vendorAttributes> - complex
        netx_rest_parse.c[356] __match_tag: tag not match
        netx_rest_parse.c[372] __match_tag: tag mismatch at ><id>317</id><revision>0<
        netx_rest_parse.c[1179] __parse_tag: <id> - integer
        netx_rest_parse.c[1179] __parse_tag: </id> - integer
        netx_rest_parse.c[1179] __parse_tag: <revision> - integer
        netx_rest_parse.c[1179] __parse_tag: </revision> - integer
        netx_rest_parse.c[1169] __parse_tag: <attribute> - complex
        netx_rest_parse.c[1179] __parse_tag: <id> - integer
        netx_rest_parse.c[1179] __parse_tag: </id> - integer
        netx_rest_parse.c[1179] __parse_tag: <revision> - integer
        netx_rest_parse.c[1179] __parse_tag: </revision> - integer
        netx_rest_parse.c[1187] __parse_tag: <key> - string
        netx_rest_parse.c[1187] __parse_tag: </key> - string
        netx_rest_parse.c[1187] __parse_tag: <name> - string
        netx_rest_parse.c[1187] __parse_tag: </name> - string
        netx_rest_parse.c[1187] __parse_tag: <value> - string
        netx_rest_parse.c[1187] __parse_tag: </value> - string
        netx_rest_parse.c[1169] __parse_tag: </attribute> - complex
        netx_rest_parse.c[1169] __parse_tag: <attribute> - complex
        netx_rest_parse.c[348] __match_tag: tag not match
        netx_rest_parse.c[372] __match_tag: tag mismatch at /vendorAttributes></vendo
        netx_rest_parse.c[1169] __parse_tag: </vendorAttributes> - complex
        netx_rest_parse.c[1169] __parse_tag: </vendorTemplate> - complex
        netx_rest_parse.c[1169] __parse_tag: <vendorTemplate> - complex
        netx_rest_parse.c[348] __match_tag: tag not match
        netx_rest_parse.c[372] __match_tag: tag mismatch at /vendorTemplates><usedBy/
        netx_rest_parse.c[1169] __parse_tag: </vendorTemplates> - complex
        netx_rest_parse.c[1169] __parse_tag: <usedBy> - complex
        netx_rest_parse.c[1079] __skip_tag: skipped unknown tag <internalService>
        netx_rest_parse.c[1169] __parse_tag: </service> - complex
        netx_rest_parse.c[1155] __parse_tag: last tag done: 0
        netx_rest_client.c[1056] netx_install_svc: install service:8
       
        netx_rest_client.c[779] netx_rest_send_request: send request content:18 tag:0
        netx_rest_client.c[716] netx_rest_request_push: curl start
        netx_rest_client.c[718] netx_rest_request_push: curl finished
        netx_rest_client.c[779] netx_rest_send_request: send request content:30 tag:39
        netx_rest_compose.c[1011] netx_rest_compose_object: start composing REST API request
        netx_rest_compose.c[952] __compose_tag:  <serviceProfile> - cmplx
        netx_rest_compose.c[970] __compose_tag:  <name> - string
        netx_rest_compose.c[970] __compose_tag:  </name> - string
        netx_rest_compose.c[970] __compose_tag:  <description> - string
        netx_rest_compose.c[970] __compose_tag:  </description> - string
        netx_rest_compose.c[952] __compose_tag:  <service> - cmplx
        netx_rest_compose.c[974] __compose_tag:  <objectId> - parent
        netx_rest_compose.c[974] __compose_tag:  </objectId> - parent
        netx_rest_compose.c[952] __compose_tag:  </service> - cmplx
        netx_rest_compose.c[952] __compose_tag:  <vendorTemplate> - cmplx
        netx_rest_compose.c[962] __compose_tag:  <id> - integer
        netx_rest_compose.c[962] __compose_tag:  </id> - integer
        netx_rest_compose.c[970] __compose_tag:  <name> - string
        netx_rest_compose.c[970] __compose_tag:  </name> - string
        netx_rest_compose.c[970] __compose_tag:  <description> - string
        netx_rest_compose.c[970] __compose_tag:  </description> - string
        netx_rest_compose.c[970] __compose_tag:  <idFromVendor> - string
        netx_rest_compose.c[970] __compose_tag:  </idFromVendor> - string
        netx_rest_compose.c[952] __compose_tag:  </vendorTemplate> - cmplx
        netx_rest_compose.c[952] __compose_tag:  <profileAttributes> - cmplx
        netx_rest_compose.c[952] __compose_tag:  </profileAttributes> - cmplx
        netx_rest_compose.c[952] __compose_tag:  <vendorAttributes> - cmplx
        netx_rest_compose.c[952] __compose_tag:  </vendorAttributes> - cmplx
        netx_rest_compose.c[952] __compose_tag:  </serviceProfile> - cmplx
        netx_rest_client.c[716] netx_rest_request_push: curl start
        netx_rest_client.c[718] netx_rest_request_push: curl finished
        netx_rest_client.c[1400] netx_update_service: profile:2
       
        netx_rest_client.c[1407] netx_update_service: bind profile:2 dvpg num:3
       
        netx_rest_client.c[779] netx_rest_send_request: send request content:37 tag:0
        netx_rest_compose.c[1011] netx_rest_compose_object: start composing REST API request
        netx_rest_compose.c[952] __compose_tag:  <serviceProfileBinding> - cmplx
        netx_rest_compose.c[952] __compose_tag:  <excludedVnics> - cmplx
        netx_rest_compose.c[952] __compose_tag:  </excludedVnics> - cmplx
        netx_rest_compose.c[952] __compose_tag:  <virtualWires> - cmplx
        netx_rest_compose.c[952] __compose_tag:  <distributedVirtualPortGroups> - cmplx
        netx_rest_compose.c[974] __compose_tag:  <string> - parent
        netx_rest_compose.c[974] __compose_tag:  </string> - parent
        netx_rest_compose.c[974] __compose_tag:  <string> - parent
        netx_rest_compose.c[974] __compose_tag:  </string> - parent
        netx_rest_compose.c[974] __compose_tag:  <string> - parent
        netx_rest_compose.c[974] __compose_tag:  </string> - parent
        netx_rest_compose.c[952] __compose_tag:  </distributedVirtualPortGroups> - cmplx
        netx_rest_compose.c[952] __compose_tag:  </serviceProfileBinding> - cmplx
        netx_rest_client.c[716] netx_rest_request_push: curl start
        netx_rest_client.c[718] netx_rest_request_push: curl finished
       
Auf dem "local" vSphere Client wird folgendes Protokolliert:
        [[Datei:Fortigate-vmx-install-238.jpg]]
Unter dem vCenter Web Client ist nun das erfolgreiche Deployment der "FortiGate VMX Instanz" ersichtlich:
        [[Datei:Fortigate-vmx-install-239.jpg]]
=== Konfigurieren eine Firewall Policy Rule für "vDSwitch-DMZ" "external" sowie "internal"? ===
Im "vDSwtich-DMZ" existieren unsere zwei Testserver "centos-Linux" (10.10.10.2) sowie "centos-Linux-1" (10.10.10.3). Anhand von einer Firewall Policy Rule wird nachfolgend der Traffic innerhalb des "vDSwitch-DMZ" zwischen den zwei Testservern erlaubt oder geblockt. Dabei ist zu berücksichtigen, dass zu diesem Zeitpunkt auf der Transparent Firewall (FortiGate VMX Instanz) resp. VDom "netx" auf dem "FortiGate VMX Service Manager" nur anhand "internal" und "external" konfiguriert werden kann und nicht anhand den Interface's resp. "vDswitch-DMZ Uplinks". Eine spätere Implementierung der "FortiGate VMX" wird dies ermöglichen. Ebenso ist zu berücksichtigen, dass das "sync" Interface technisch gesehen auf einem HA Implementierung funktioniert. Dies bedeutet: Die Debug Befehle für HA stehen zur verfügung jedoch nicht die HA Konfigurtions-Befehle. Wenn eine Firewall Policy Rule auf einem "FortiGate VMX Service Manager" konfiguriert wird kann auf der "FortiGate VMX Instanz" der "sync" anhand eine SSH Verbindung kontrolliert werden. Damit dies durchgeführt werden kann muss zuerst eruiert werden welche IP der "FortiGate VMX Instanz" zugewiesen wurden. Führe auf dem "FortiGate VMX Service Manager" folgendes durch:
        # config vdom
        # edit root
        # execute dhcp lease-list
        sync
          IP                    MAC-Address            Hostname                VCI                    Expiry
          198.18.0.66          00:50:56:ad:5a:83      FortiGate-VMX          FortiGate-VMX          Thu Sep 10 15:02:53 2015
Nun kann eine SSH Verbindung erstellt werden sofern auf der "FortiGate VMX Instanz" SSH aktiviert wurde. Ist dies nicht der Fall öffne im vCenter für die "fortiGate VMX Instanz" die Console und konfiguriere folgendes:
        # config vdom
        # edit root
        # config System Interface
        # edit sync
        # set allowaccess ssh ping
        # end
        # end
Setze auf der "FortiGate VMX Instanz" ein Passwort für User "admin" damit mit SSH eingeloggt werden kann da "kein" Passwort nicht akzeptiert wird:
        # config vdom
        # edit root
        # config system admin
        # edit admin
        # set password "Password"
        # end
        # end
Nun kann über den "FortiGate VMX Service Manager" eingeloggt werden:
        # execute ssh admin@198.18.0.66
        admin@198.18.0.66's password:
Es ist zu berücksichtigen das der Sync Prozess automatisch nur über Console angzeigt wird dh. nicht in der SSH Session. Möchte man in der SSH Session den Sync Prozess einsehen kann der folgende Debug Befehl benutzt werden:
        # config system global
        # diagnose test application hasync -1
        # diagnose debug enable
       
        '''NOTE''' Zu diesem Befehl stehen weitere Optionen zur Verfügung. Weitere Informationen siehe Artikel:
           
            [[FortiGate-5.0-5.2:FAQ#Kann_ich_anhand_eines_Befehls_den_HA_Sync_Prozess_einsehen.3F]]
Eine weitere Möglichkeit zu sehen ob die "FortiGate VMX Service Manager" sowie die "FortiGate VMX Instanz" in "sync" ist wäre der Befehl:
        # config global
        # diagnose sys ha showcsum
       
        '''NOTE''' Die Checksum muss gleich sein wobei zu berücksichtigen ist das dies nur für die "FortiGate VMX
            Instanz" netx gilt resp. für die VDOM "netx". Alle anderen sowie die "all" Checksum sind
            unterschiedlich. Wenn es zu Problemen kommt mit der "Checksum" dann kann mit nachfolgenden
            Befehl herausgefunden werden welches Objekt für diese Probleme verantwortlich ist:
           
            # diagnose sys ha showcsum 2
Nun kann ein Firewall Policy erstellt werden. Sobald eine Firewall Policy erstellt wurde wird in der Console der "FortiGate VMX Instanz" der "sny" angzeigt oder unter den entsprechenden Debug Befehlen in der SSH Verbindung! Nachfolgend ein Beispiel für die "vDSwitch-DMZ" Testserfer (vDSwitch-DMZ/ centos-linux-1) der den Traffic betreffen PING erlaubt vom "10.10.10.2" zu "10.10.10.3" jedoch nicht von "10.10.10.3" zu "10.10.10.2":
        [[Datei:Fortigate-vmx-install-241.jpg]]
=== Deinstallieren/Entfernen der "FortiGate VMX" Komponenten und löschen der "NSX Manager Database"? ===
Um die "FortiGate VMX Instanz" zu entfernen muss auf dem "FortiGate VMX Service Manager" die "firewall" Option in den verschiedenen Position deaktiviert werden sowie der Status von "present" auf "obsolete" gesetzt werden:
    # confi global
    # config netx cluster
    # get
    == [ domain-c61 ]
    id: domain-c61    firewall-service: enable    status: present   
    # edit domain-c61
    # set firewall disable
    # end
    # confi netx datacenter
    # get
    == [ datacenter-2 ]
    id: datacenter-2    status: present   
    # edit datacenter-2
    # set status obsolete
    # end
    # config netx dvportgroup
    # get
    == [ dvportgroup-54 ]
    id: dvportgroup-54    firewall-service: enable    status: present   
    == [ dvportgroup-58 ]
    id: dvportgroup-58    firewall-service: enable    status: present   
    == [ dvportgroup-68 ]
    id: dvportgroup-68    firewall-service: disable    status: present   
    # edit dvportgroup-54
    # set firewall-service disable
    # next
    # edit dvportgroup-58
    # set firewall-service disable
    # next
    # edit dvportgroup-68
    # set firewall-service disable
    # end
    # config netx dvswitch
    # get
    == [ dvs-52 ]
    id: dvs-52    status: present   
    == [ dvs-56 ]
    id: dvs-56    status: present   
    # edit dvs-52
    # set status obsolete
    # next
    # edit dvs-56
    # set status obsolete
    # end
    # config netx setting
    # get
    status              : enable
    rest-sport          : 9443
    rest-interface      : mgmt
    vcenter-hostname    : 198.18.0.25
    vcenter-username    : root
    vcenter-password    : *
    netx-manager-hostname: 198.18.0.6
    netx-manager-username: admin
    netx-manager-password: *
    vmx-image-url      : http://alsochlu-web.also-solutions.local.intra/vmx/FortiGate-VMX.ovf
    # set status disable
    # end
    # end
Entferne nun im vCenter die "FortiGate VMX Service Manager" Instanz dh. zuerst muss dieser "heruntergefahren" werden:
        [[Datei:Fortigate-vmx-install-207.jpg]]
Danach entferne/lösche die Instanz des "FortiGate VMX Service Manager":
        [[Datei:Fortigate-vmx-install-208.jpg]]
        [[Datei:Fortigate-vmx-install-209.jpg]]
Nun wir die Datenbank des "NSX Managers" gelöscht (erase). Dies muss über Konsole durchgeführt werden:
        [[Datei:Fortigate-vmx-install-210.jpg]]
       
        Username: admin
        Passwort: [Vergebenes Passwort bei der installation des NSX Managers]
Danach gebe auf der Console folgendes ein:
        # database erase
        This commadn will erase all the configured data from the database
        Do you wish to contineu [y/n] '''y'''
Danach wird die Datenbank gelöscht sowie neu erstellt! Dies kann einige Minuten in Anspruch nehmen. Sobald der "NSX Manager" wieder aktiv ist entferne nun noch den "ESX Agent" der den "Resourcen Pool" darstellt:
        [[Datei:Fortigate-vmx-install-211.jpg]]
Da im vCenter angzeigt wird das der ESXi Host ein "Neustart" erforderlich ist fahre sämtliche Instanzen runter und führe auf dem ESXi Host ein Neustart durch. Damit dies durchgeführt werden kann muss mit dem "local" vSphere Client auf den EsXi Host verbunden werden und sobald alle Instanzen heruntergefahren sind führe für den ESXi Host ein Neustart durch dh. der Server wird neu gestartet! Nach dem Neustart ist die Entfernung der "FortiGate VMX" Instanz dann entfern.

Aktuelle Version vom 13. Juni 2023, 16:43 Uhr