Aktuelle Freeware-Tools für SQL Server

Gepostet am Aktualisiert am

Es gibt viele kostenlose SQL Server-Tools, die von SQL Server-Datenbankadministratoren sowie von Entwicklern und SQL Server-Produktanbieter entwickelt wurden, um bestimmte SQL Server-Probleme zu lösen und sie mit Funktionalitäten zu füllen. Ich möchte euch kurz aktuelle Freeware-Tools für den SQL Server vorstellen.

1. PAL

PAL ist ein kostenloses Tool für den SQL Server, um Performance-Probleme zu diagnostizieren, das auch von Microsoft Support verwendet wird.

Es ist in erster Linie ein PowerShell-Skript, das in einem Systemmonitor-Leistungsindikatoren-Protokoll komplexe und bekannte Schwellenwerte liest und analysiert.

PAL

Das Tool generiert einen Bericht in HTML, in dem Überschreitung von Grenzwerten mit einem Ampelsystem signalisiert werden.

Es ist auf codeplex.com und sqlservercentral.com frei verfügbar.

PAL wurde von einem Premier Field Engineer (PFE) namens Clint Huffman von Microsoft geschrieben.

Mehr Informationen zu PAL und das Tool selbst bekommt Ihr hier:

http://pal.codeplex.com/

Den Podcast dazu hier:

http://s3.amazonaws.com/runas/runasradio_0184_clint_huffman.mp3

Link:

http://msdn.microsoft.com/en-us/library/cc296652(v=bts.10).aspx

2. SQL Stress

SQL Stress ist ein Tool für Belastungstests einer Microsoft SQL Server-Installation.

Sein Hauptzweck besteht darin, Infrastrukturprobleme innerhalb einer Installation zu finden. Der Stresstest ist einsetzbar für Hardware-Sizing, System-Tuning oder Benchmarking.

Voraussetzung ist eine installierte Version des .Net Framework 2.0. Das Tool läuft auf x86, x64 und Itanium-Prozessoren. Es wurde auf Microsoft SQL Server 2008 und Microsoft SQL Server 2005 getestet. Die meisten Funktionen stehen auch auf Microsoft SQL Server 2012 zur Verfügung. Die aktuelle Version des Tools ist kostenlos.

stressTestResults

OStress (kostenlose Tool von Microsoft (kommt in RML Utilities vor)):

OStress ist ein kostenloser Download von Microsoft und kommt in einer Suite der anderen nützlichen Werkzeuge vor.

RML Utilities können Sie zum Analysieren und Vergleichen von verschiedenen Replay-Arbeitslasten für SQL Server verwenden.

RML Utilities für SQL Server enthalten die folgenden Dienstprogramme:

· ReadTrace

· Reporter

· OStress

· OStress-Replay Control Agent (ORCA)

Links:

http://www.sqlstress.com/

http://www.sqlconsulting.com/news1103.htm

http://support.microsoft.com/kb/944837

3. SQL Server Sentry – SQL Ausführungspläne

SQL Sentry Plan Explorer hilft, den grafischen Plan zu analysieren und ist kostenlos auf der SQL Sentry-Website verfügbar. Dieses Tool gibt es entweder als Add-In für SSMS oder als eigenständiges Tool.

sqlServerSentry

Einige wichtige Funktionen bietet dieses kostenlose Tool:

1. Plan Readability Features (Lesbarkeitsfunktion):

• Vollständige Objektnamen und Abfragen sind leicht zusehen – einfach mit der rechten Maustaste Objekte im Viewer anklicken.

• Weitere Informationen finden sich in neuen Tabs wie der Statement-Tree-Tab, die Ausführungspläne liest und analysiert

2. Usability-Features:

Einige wichtige Features sind in diesem Tool enthalten:

• Abfragen können direkt aus dem Plan Explorer ausgeführt werden, je nach Bedarf.

Aber denken Sie daran, dass es sich um ein Abfragetool handelt. So erhalten Sie alle Informationen, die Sie benötigen, einschließlich I/O-Statistik, aber nicht das tatsächliche Ergebnis.

• Plan Explorer behebt das Problem in SSMS, in dem eine fehlende Index-Warnung für alle Ausführungspläne in einem Batch erscheint. Informationen zu fehlenden Indizes werden in der Statement Tree Tab standardmäßig angezeigt.

Systemanforderungen: Dieses Tool hat die gleichen Anforderungen wie SSMS und erfordert Microsoft .NET Framework 4.0,-; SQL Server 2005 und höher.

Link: www.mssqltips.com

4. Microsoft Network Monitor 3.4 (Überwachung)

Ein unerlässliches Werkzeug. Der kostenlose Network Monitor Tool von Microsoft speichert und analysiert den Datenverkehr im Netzwerk. Der Anwender ist also in der Lage, den Datenverkehr im Netzwerk zu analysieren.

Tipp: Systemmonitor

Der Systemmonitor (Perfmon) von Microsoft ist ein Visualisierungstool für Leistungsdaten, sowohl in Echtzeit als auch in Form von Protokolldateien. Sie können damit Leistungsdaten in einem Diagramm, Histogramm oder Bericht untersuchen.

Systemmonitor

Weitere Details gibt’s im Blogbeitrag von Fumus.

Der Network Monitor besitzt eine strukturierte und bedienbare Benutzeroberfläche und ordnet automatisch die empfangenen Daten beziehungsweise Protokolle einer Anwendung zu.

MS 2Network Monitor 3.4.

Da der Network Monitor jedoch auch eine Filterfunktion und einen Parser mitbringt, ist eine weitergehende Analyse der empfangenen Pakete und eine fortgeschrittene Verwendung des Programms möglich.

Das Programm sammelt die gesamten Netzwerkdaten, die über die LAN- oder WLAN- Schnittstelle übertragen werden, und speichert sie für eine spätere Analyse in einer Datei.

Das Tool untersucht dabei die übertragenen Protokolldaten und ordnet die gesammelten Netzwerkpakete gleich einer Anwendung zu.

Microsoft Network Monitor ist als Freeware direkt bei Microsoft erhältlich und lauffähig auf allen Windows-Versionen ab Windows XP.

Link: http://www.microsoft.com/en-us/download/details.aspx?id=4865

5. SQL Load Generator

Der SQL Load Generator ist ein kostenloses Tool zur Generierung von SQL-Serverlast. Dieses Tool ist auf Codeplex verfügbar. (CodePlex ist Microsofts kostenlose Projekt-Website, für das Hosting von Open-Source-Software.)

SQL Load Generator

Projektbeschreibung:

SQL Load Generator wird verwendet, um mehrere gleichzeitige Abfragen auszuführen.

Der Benutzer kann mit einem anderen Anmeldekonto und Anwendungsnamen,- die Anzahl der gleichzeitig auszuführenden Abfragen wählen und ausführen.

SQL Load Generator2

Link: http://sqlloadgenerator.codeplex.com/

Des Weiteren gibt es so viele Tools, die kostenlos sind, dass man nicht unbedingt Geld für ein kostenpflichtiges Werkzeug ausgeben muss. Es lohnt sich Freeware Tools auszutesten, da man bestimmte SQL Server Probleme löst und bessere Funktionalitäten hat.

Weitere Links:

http://blogs.dotnetgerman.com/

http://blog.ppedv.de/

SQLdays – Konferenz 17.-18.09.2013

Gepostet am Aktualisiert am

Letzte Woche hatte ich die Möglichkeit, zum ersten Mal auf die SQLdays Konferenzveranstaltung in Rosenheim mitzufahren. Motto dieser Veranstaltung war „Zug um Zug – Strategische Planung und Analysen“. Ich durfte auf dieser Veranstaltung live berichten und hatte die Chance, ein paar Sprecher und Teilnehmer kurz zu interviewen.

Abb1.

Veranstaltung:

Die Veranstaltung startete am Dienstag um 9 Uhr morgens. Dank unserer Organisatoren und Eventmanager waren die Flyer und Programme hochwertig und die ersten Eindrücke waren toll.  Vorfreude herrschte in den Gesichtern der Teilnehmer, die hauptsächlich männlich waren. 🙂

NX3B3884

Für mich konnte ich einige Ansätze von folgenden Sprechern mitnehmen und diese Vorträge gefielen mir am besten:

– Index Impact Workload Analysis (Sprecher: Klaus Aschenbrenner)

– SQL oder NoSQL – die Auswahl der richtige Datenplattform für die Cloud (Sprecher: Steffen Krause)

– Monitoring und Tuning von SQL Server (Sprecher: Daniel Caesar)

– FileTables und Optimierung von SQL Server 2012 (Sprecher: Andreas Rauch)

– Geodaten in practice (Sprecher: Christian Giesswein)

Einige Vorträge bewegten sich auf akademischem Niveau. Smiley 

Abb2.

Der meist besuchte Ort auf der Konferenz war mit Sicherheit das Buffet. Es gab rund um die Uhr warme und kalte Getränke, sowie (Originalzitat) “…super lecker Essen…”

Abb3. 

Bei der Abendveranstaltung war der Fotoautomat eine tolle Idee und schuf Erinnerungen, die man sich gerne mit nach Hause nimmt. 🙂

Die Bilder der späteren Stunden dürfen wir nicht veröffentlichen, um die Privatsphäre der Gäste zu wahren.

 

1240466_732622470088083_1213713950_n

Abendveranstaltung2

So etwas auf die Beine zu stellen muss unheimlich schwierig sein, deshalb Lob an den Veranstalter und an unsere Eventmanager. Das waren meine persönlichen Eindrücke. 🙂

Sessions-Feedback:

Natürlich gibt es auch Feedbacks und Auswertungen von Sprechern und Teilnehmern, die ich euch präsentieren möchte. Die Teilnehmer hatten die Möglichkeit mittels eines QR-Codes, die Sessions zu bewerten.

Zusammenfassend ein paar Ergebnisse dazu:

– Einer der besten Sessions wurde von Klaus Aschenbrenner  „ColumnStore Indexes v2.0“ bewertet, vor allem weil er auch die Nachteile beleuchtet hatte.

–  Als Garant für guten Humor und exzellenten Vortrag erwies sich wiedermal Markus Raatz. (Eine BI-Architektur mit PowerPivot in der Praxis) “…es macht einfach Spaß ihn zuzuhören…”

– “…besonders nützlich…” stuften die Teilnehmer die Präsentation „Monitoring und Tuning von SQL Server“ von Daniel Caesar ein.

– Von Paulus zu Saulus Smiley mit geöffnetem Mund .  Die meisten Gäste bewerteten auch den Vortrag von Steffen Krause (SQL oder noSQL). Auch wenn der Vortrag nicht direkt etwas mit Microsoft SQL Server zu tun hatte, wurde dennoch mit Begeisterung aufgenommen und mit sehr gut bewertet.

– Die Session “Moderne Datenbankentwicklung“ von David Schäfer war “…sehr gut aufgebaut…”

– besonders gut kam es bei den Gästen an, dass für den erkrankten Ruprecht Dröge der SQLdays Verantwortliche selbst (Andreas Rauch) innerhalb wenigen Minuten einsprang. FileTables und Optimierung von SQL Server 2012 wurde auch sehr positiv bewertet. 🙂

Sprecher Feedback:

Natürlich habe ich auch die Sprecher um ein Feedback gebeten. Ausnahmslos lobten sie die familiäre und lockere Atmosphäre. Klaus Aschenbrenner sagte lobend: “…Ich habe zu danken, war alles super organisiert und hat viel Spaß gemacht, jederzeit mal wieder…” (Geld hat er aber nicht zurückgegeben).Smiley mit geöffnetem Mund 

 

1000975_440860302697579_1942555163_n

Die neuen Windows-Tablets von Microsoft – Surface 2 und Surface Pro 2

Gepostet am Aktualisiert am

Diese Woche hat Microsoft in New York seine neuen Tablet-Computer – Surface 2 und Surface Pro 2 vorgestellt. Ich habe mir die Vorstellungspräsentation der neuen Tablets angeschaut und möchte euch kurz über die Veränderungen informieren.

Gegenüber seinem Vorgänger hat sich einiges verändert. Ein teilweise geändertes Design, neue Prozessoren und auch das neue Betriebssystem Windows-Version 8.1 soll auf dem neuen Tablet integriert sein.

Design:

Bei seinem Design wurden die Kanten und Ecken abgerundet. Das Material besteht weiterhin aus Magnesium und die Rückseite präsentiert sich nun in silber statt schwarz.

Ebenso wurde das Gerät um vier Gramm leichter und wiegt nun 676 Gramm.

Microsoft Office:

Office inklusiv Outlook RT gibt’s gleich gratis dazu. 😉

Surface pro

Abb1. Surface

Touch Cover 2:

Ebenfalls neu auch Touch Cover 2: Es hat keine echten Tasten. Für Studenten ist die Tastatur eine tolle Erfindung, da sie in Vorlesungen tippen können, ohne dass es Geräusche macht. Statt 80 gibt es jetzt 1092 Sensorpunkte und ihre Sensorfelder sind beleuchtet. Die Beleuchtung der Sensorfelder geht nach 9 Sekunden beim nicht berühren wieder aus.

Laut Microsoft ist die Tastatur einen Millimeter dünner geworden. Eingaben per Gesten über die Tastatur sollen auch möglich werden.

Microsoft führt auch eine Art DJ-Pult vor (siehe Abb2.rechts). Es hat die gleiche Technik wie Touch Cover, nur ist mit einem anderen Aufdruck versehen. Per App und Xbox Musik soll man damit die eigene Musik Remixen können. 😉

Das Touch Cover 2 wird 120 Euro kosten, mehr als bei der 1. Version.

c194f71a85801fe0

Abb2. Touch Cover 2

Windows RT in neuer Version

Surface 2:

Hardware:

Bei der Hardware des neuen Surface hat man ordentlich nachgelegt. Als Antrieb für das Surface 2 dient ein Tegra-4-Prozessor (wie auch beim Vorgänger) von Nvidia, dessen vier Kerne mit 1,7 GHz getaktet sind. Ihm stehen 2 GB Arbeitsspeicher und für Daten wahlweise 32 oder 64 GB zur Verfügung. Taktraten und Speicherausstattung bewegen sich also auf dem Niveau der Android-Konkurrenz. Das Display ist weiterhin 10,6 Zoll in der Diagonale, und bietet nun eine Full-HD-Auflösung (siehe Abb1.).

Mit seiner Umwelt nimmt das Surface 2 per W-Lan (802.11 a/b/g/n), USB 3.0 und Bluetooth 4.0 Kontakt auf.

Performance:

Die Akkulaufzeit wird mit bis zu zehn Stunden beziffert – laut Hersteller 10 Stunden Videowiedergabe – 75% bessere Akkulaufzeit als Pro 1. Als Betriebssystem dient erneut eine RT-Version von Windows 8.1 – also eine an ARM-Prozessoren angepasste Windows-Variante, die nur mit Apps aus dem Windows Store bestückt werden kann und auf der keine herkömmlichen Windows-Programme laufen.

Surface Pro 2:

Kosten:

Mit einem Preis von 429 Euro ist das Surface 2 mit 32 GB (intern Speicher) das günstigste der neuen Modelle. Die Variante mit doppelt so viel Speicher (also 64 GB) kostet 529 Euro.

Die Pro-Modelle werden allerdings teurer. Ein Surface Pro 2 mit 4 GB RAM und 64 GB Massenspeicher steht mit 879 Euro in der Preisliste. Das High-Modell mit 8 GB RAM und 512 GB Massenspeicher wird 1779 Euro teuer.

Grafikleistung:

Wie beim großen Surface Pro 2 gibt es einen neuen Ständer, der ebenfalls nur in zwei Positionen fixiert werden kann. Das Surface Pro 2 hat jetzt 50% mehr Grafikleistung (Verbesserung in Farbe). Während die Rückkamera fünfmal besser geworden sein soll, und nun 5 statt einem Megapixel liefert, hat sich auch bei der Frontkamera etwas getan. Sie nimmt nun Bilder mit 3,5 Megapixel auf und soll dank einem größeren Sensor auch bei schlechten Lichtbedingungen bessere Bilder liefern. Genauso ist es in Skype. Wenn die Umgebung zu dunkel ist, sieht man die Personen nicht. Aber dank Surface Pro 2 kann man jetzt auch problemlos im dunkeln Gespräche in Skype führen. 😉

Bildschirm, W-Lan, USB und Bluetooth haben dieselben Eckdaten wie beim RT-Modell. Allerdings gibt es für das Pro-Modell eine neue Dockingstation, die unter anderem eine Ethernet-Buchse und einen Displayport-Anschluss bereitstellt.

Die Lautsprecher wurden verbessert und sind nun Dolby-zertifiziert.

SkyDrive:

Die Käufer des Surface Pro 2 bekommen auch für zwei Jahre 200 GB zusätzlichen Speicher bei Microsoft Cloud-Dienst SkyDrive kostenlos mit dazu und können ein Jahr lang gratis via Skype telefonieren.

Das alte Surface RT mit Tegra 3 für 329 Euro soll weiterhin als Einstiegsmodell im Markt bleiben. Für Surface 2 und Surface Pro 2 gibt der Hersteller an, dass sie ab dem 22. Oktober sowohl in Microsoft-Onlineshop als auch im Handel verfügbar sein werden. Die Vorbestellung ist ab 24.09.2013 (also diese Woche) möglich (siehe Abb1.).

3-microsoft-surface-2-24091

Link:

http://blog.ppedv.de/

Wusstet ihr…

Gepostet am Aktualisiert am

Noch vor gut 10 Jahren wurden dem SQL Server andere DB Systeme vorgezogen, die als „sicherer“ galten, wenn es um Ausfallsicherheit, Transaktionsgeschwindigkeit und große Datenmengen ging.

Mittlerweile hat SQL Server nicht nur aufgeholt, sondern sich als Datenbanksystem etabliert. Gilt das nur für kleinere und mittelständische Betriebe, oder spielt der Microsoft SQL Server auch in der oberen Etage mit?

Dieser Frage bin ich nachgegangen und habe ein paar Zahlen gefunden, bei denen man sich gut vorstellen kann, in welcher Liga nun SQL Server mitspielt.

Die aktuelle Leistungsfähigkeit von Microsoft SQL Server – Top Statistik:

Kategorie                                                                                                     Metric 

Größte einzelne Datenbank:                                                                         350 Terabyte (TB)

Größte Tabelle:                                                                                              1,5 Billionen Zeilen

Größte Gesamtdaten pro Anwendung:                                                          88 Petabyte (PB)

Höchste Datenbank-Transaktion pro Sekunde

pro Server (von Performance Monitor):                                                      130.000

„Performance Monitor“: Systemmonitor ist ein Programm, das verwendet wird, um verschiedene Aktivitäten auf einem Computer wie CPU-Auslastung oder Speichernutzung zu überwachen. Betrifft: Windows 7, Windows Server 2008 R2, Windows Server 2012, Windows Vista.

Schnellstes I/O-Subsystem in der Produktion 

(SQLIO 64k buffer serial Lesetest):                                                              18 Gigabyte (GB) / Sekunde

Schnellste Echtzeit-Cube:                                                                           Millisekunden Latenz

Ein Echtzeit-Cube ist ein regulärer Cube, der beschäftigt relationale OLAP (ROLAP) Partitionen oder Dimensionen, die das Echtzeit-OLAP-Feature von Microsoft SQL Server 2000 Analysis Services unterstützen.

Laden von Daten für 1 Terabyte:                                                                    30 Minuten

Größte MOLAP Cube:                                                                                    24 TB

MOLAP steht für mehrdimensionales Online Analytical Processing. MOLAP ist eine Alternative zu der ROLAP (relationales OLAP)-Technologie. Die meisten MOLAP-Lösungen speichern Daten in einem optimierten mehrdimensionalen Array-Speicher anstatt in einer relationalen Datenbank (ROLAP).

Wenigste anfällige Datenbank:                                                                      5 Jahre in Folge

Meist verwendeten Datenbanken weltweit:                                                   46% Marktanteil

Top Statistik – Azure SQL Server:

Größte gemeinsame Datenbank:                                                                   20 TB

Größte Anzahl von Datenbanken pro App:                                                     14.000

Die meisten gleichzeitigen Benutzer pro App:                                               3 Mio. Benutzer

Größte Installation:                                                                                         *.cs = 14.832

                                                                                                                       Web.config = 149

                                                                                                            *.csproj = 889 *.sln = 210

On-Premises: SQL Server-Fallstudien:

On-Premises ist ein Nutzungsmodell für Computerprogramme (Software). Dabei erwirbt der Nutzer ein solches Computerprogramm und betreibt dieses selbst, also auf eigener Hardware.

(In der Regel wird der Begriff On-Premise jedoch meist für Programme verwendet, die mehrbenutzerfähig und somit netzwerktauglich sind.)

DATA WAREHOUSE/BI

Erstellung eines Data-Warehouse 80 TB

Sehr schneller Festplatten-subsystem

OLTP

Skalieren einer Datenbank

Keine Ausfallzeiten erlaubt

Über 16.000 Instanzen

Microsoft CTP-Datenebene

-Die Commerce-Transaktionsplattform unterstützt Abrechnung und Abonnements (eCommerce) für Microsoft-Produkte wie AdCenter, Xbox Live, Zune, Windows Live Hotmail Plus und Azure.

-Die Commerce-Transaktionsplattform unterstützt Zahlungen mit 13 Zahlungsmethoden über 65 lokalisierten Märkte. -5 DBAs.

Datenbankinfrastruktur (PROD)

– 2 Rechenzentren

– 5 Webstore Clusters

– 220 2012 SQL Server (ohne VM)

– 736 Datenbanken

– 121 TB Datenfiles

– 420 TB Speicher – DAS & SAN (EMC/HDS)

– 12 TB monatliches Wachstum

– 82 DB Mirror (Datenbankspiegelung ist die Erstellung und Pflege von redundante Kopien einer Datenbank)

– 70 (paarweise) Protokollversand

– 400 Datenverarbeitung-Abonnement-Streams, 6 Händler

Große Health Care Provider (Krankenversicherungen)

– 17 TB OLTP-Datenbank

– 10.000 gleichzeitige Benutzerverbindungen

BWIN

– Weltweit größte börsennotierte Online-Gaming-Plattform

– 15 Millionen Seitenabrufe und bis zu 980.000 individuelle User pro Tag

Environment:

5 DBAs & 1 Datenbankarchitekt

– über 200 SQL Server-Instanzen

– über 150 TB Daten

– über 4.000 Datenbanken

– über 2 PB Speicher

– über 10 TB RAM

über 450.000 SQL-Anweisungen pro Sekunde auf einem einzelnen Server

über 500 Milliarden Datenbank Transaktionen pro Tag

– Keine Ausfallzeiten erlaubt

Bwin.party:

Hohe Verfügbarkeit:

– 3 Rechenzentren

– (backup) 2 TB pro Stunde über das Netzwerk sichern

Hardware für die wichtigsten SQL Server:

– Fujitsu RX- 600 S5

– 64 Cores (Prozessorkern)

– 1 TB RAM

– Mehrere 1 Gbit NIC (Netzwerk-Interface-Controller, auch bekannt als Netzwerkkarte)

   (Getrennte VLANs für Client-Zugriff, Cluster-Intercom, Backup)

– FusionIO PCI-E Solid State-Geräte (SSD) für Transaktionslog

SQL Server 2014

– Kunden wie EdgeNet und Bwin erzielen erhebliche Leistungssteigerungen durch die neue In-Memory-OLTP

– Erhöhung der Skalierbarkeit auf bis zu 640 logische Prozessoren und 4 TB RAM (Speicher) in einer physischen Umgebung und bis zu 64 virtuelle Prozessoren und 1 TB Speicher pro VM.

Quelle: http://channel9.msdn.com/Events/TechEd/NewZealand/2013/DBI309

Link:

http://blog.ppedv.de/

Interview mit Hannes Preishuber

Gepostet am

Diese Woche hatte ich die Chance, Hannes zu interviewen. Ich habe ihm verschiedene, auch private Fragen zu ihm und ppedv gestellt – von amerikanischen Einwanderungsbehörden bis zu jugendlichen Handwerkern. Die eine oder andere Antwort wird euch sicherlich überraschen. 🙂

IMG_6172.jpg

Tugce: Warum sollten sich Studenten oder potentielle neue Mitarbeiter gerade für die ppedv entscheiden?

Hannes: Im Wesentlichen stellt sich die Frage, was man nach dem Studium eigentlich vorhat. Und wenn man an dem was man studiert ein Grundinteresse und Spaß hat, dann ist es sinniger in ein Unternehmen zu gehen, wo man sozusagen eine Spielwiese bekommt.

Wenn man aber zu einem Großanbieter geht, beispielsweise Autohersteller, dann gibt es dort ein Trainingsprogramm, das dich auf eine spezielle Job-Rolle vorbereitet. Du musst auch sehr effizient in der Job-Rolle sein, sonst hast du bald keine Job-Rolle mehr.

Die Philosophie von ppedv ist, dass wir den Leuten die Möglichkeit geben, mit neuen Technologien zu arbeiten. Das hilft natürlich ein breites Spektrum zu erleben, auch wenn man konkret keinen Nutzen davon hat. Zum anderen setzen wir unsere Leute auch wenn sie sich sehr gut auskennen, nie zu 100 Prozent, eher in der Regel zu 50 bis 60 Prozent danach wirklich ein.

Tugce: Erzähle mir von der besten Entscheidung, die du in den letzten 24 Monaten getroffen hast – welche Entscheidungsprozesse hast du genutzt?

Hannes: Das ist sehr schwierig. Warum ist es schwierig, weil die letzten drei Jahre für uns als ppedv relativ ernüchternd waren. Wir haben ’97 angefangen und in den letzten zehn Jahren sind wir jedes Jahr um circa 30-35 Prozent gewachsen. Es waren tolle Jahre. Der Schulungsmarkt/Weiterbildungsmarkt hat in den letzten drei Jahren eher stagniert. Unsere Mitarbeiterstruktur hat sich geändert und uns geht es noch relativ gut. Wir haben unser Geschäft gehalten, möchte ich sagen.

Tugce: Für was steht ppedv? EDV steht vermutlich für elektronische Datenverarbeitung. Ich vermute p für Preishuber. Für was steht dann das zweite p?

Hannes: Das ist eine spannende Frage, die häufig gestellt wird. Die Antwort ist einfach. Ich heiße Preishuber-Pflügl und zwar schon immer. Also mein Vater und dessen Vater hießen schon so. EDV ist eigentlich ein antiker Begriff. In den späten Neunzigern haben die meisten Leute schon IT dazu gesagt, also Informationstechnologie. Das war eigentlich der Kern.

So banal der Name klingt, es ist sehr einprägsam und es gibt keine Verwechslungsgefahr. IBM heißt „International Business Machines“, was eigentlich Schreibmaschinen sind, ist aber als Marke sehr gut alleine darstellbar. Ich bin mit unserem Namen super glücklich.

Die meisten Leute kennen mich nur unter Preishuber. Als ich das erste Mal nach Amerika gereist bin. Es gab grüne Formulare/Karten, wo man da Felder ausfüllen und seinen Namen reinschreiben musste. Ich müsste bei Pflügl statt ü dann ue schreiben, weil die Amis kein „ü“ haben. Ich bin dann zur Einreisebehörde gegangen, die das nicht auf dem Computer eingeben konnte.

Aus diesem Grund habe ich Pflügl weggelassen und so ist es verschwunden, weil es eh keiner richtig schreibt. Die Einreisebehörde ist schuld.

Tugce: Welche Entwicklungsmöglichkeiten haben Mitarbeiter in deinem Unternehmen?

Hannes: Das kann man natürlich auch nicht ganz pauschal beantworten. Wir haben ein extrem junges Team. Die meisten Mitarbeiter sind unter 30. Das hat auch zur Folge, dass diese jungen Leute in ihrem Karrierepfad auch gern mehrere Unternehmern einbauen, wo ich auch Verständnis dafür habe. Es ist durchaus so, dass wir auch Sprungbrett sind. Dies ist auch okay, wenn jemand anfängt, Karriere zu machen.

Wir haben auch intern Karrieremöglichkeiten, aber natürlich nicht so, wie es ein Großunternehmen bieten kann.

Tugce: Was bietest du deinen Mitarbeitern für Benefits?

Hannes: Es ist sehr schwierig zu erkennen was die Benefits sind, weil für mich alles selbstverständlich ist. Ich denke, ich lasse meinen Leuten sehr sehr viel Freiheit.

Wir haben Home Office oder du kannst auch unterm Tag zum Frisör gehen, wenn du Spaß dran hast. Ich bin ein sehr freiheitsliebender Mensch. Es gibt kein so strenges Regelwerk, wie man es von anderen Unternehmen kennt.

Wenn du zu einem großen Unternehmen gehst, schmeißen sie dir ein dickes Buch mit Regeln hin.

Die Frage ist eigentlich: „Was erwarten die Leute heute eigentlich für Benefits?“ Und wenn man sowas wie betriebliche Altersvorsorge hat, interessiert das niemanden unter 30.

Bildung ist Benefit. Du kannst alle Kurse bei uns besuchen und auch auf unsere Konferenzen gehen.

Wenn Leute beispielsweise vorhaben, berühmt zu werden, können sie in einem Magazin publizieren. Man kann auch auf unseren Konferenzen sprechen.

Wir sind in Markt einfach sehr bekannt. Also wenn du ppedv in der Vita stehen hast, dann ist es einfach schon mal ein Garant, dass du immer gute Jobs bekommst.

Tugce: Wir eröffnen einen neuen Standort. Warum hast du dich für Düsseldorf entschieden?

Hannes: Kunden wollen oder dürfen immer weniger Reisen, weil es einfach Geld kostet. Unser typischer Kunde ist zwischen 30 und 50 Jahre alt und männlich. Wir müssen also immer näher an den Kunden ran. Und dann kann man sich in Deutschland anschauen, wo diese Firmen sitzen, die IT-relevante Arbeitsplätze haben.

Nach unseren Recherchen ist  Düsseldorf für uns ein interessanter Punkt.

Tugce: Was hältst du von den Veränderungen, die Microsoft in Deutschland umsetzen möchte: Jeder Mitarbeiter darf selbst entscheiden, wo er arbeiten möchte und hat keinen festen Arbeitsplatz im Unternehmen mehr?

Hannes: Das ist auch sehr spannend. Spannend sind zwei Dinge. Also die Aussage von Microsoft und auch von einigen anderen Technologie-Unternehmen, dass die Leute Roaming-Arbeitsplätze bevorzugen.

Das Konzept gibt es schon sehr lange. Ich glaube, dass Sun dieses erfunden hat. Ich war mal bei denen. Da ist man ins Büro gekommen und dann hat man sich einen großen Rollcontainer geholt, wo sein Zeug drin war und den hat man zum Schreibtisch gerollt.

Microsoft Österreich hat vor zwei Jahren angefangen, sein Büro komplett umzubauen. Die Mitarbeiter haben so gut wie keinen festen Arbeitsplatz mehr. Die haben sehr viele Meeting-Räume geschaffen und die schauen alle komisch aus – mit Holz, runden Hüpfbällen und Rutschen. Ein Schreizimmer habe ich gesehen (wenn ich mich nicht täusche), so eine ganz kleine Kammer, wo man reingehen und schreien kann.

Es gibt wirklich Mitarbeiter bei Microsoft Österreich, die jahrelang nicht mehr ins Büro gehen.

Auch Microsoft Deutschland geht diesem Trend nach. Ich bin da eher zwiegespalten.

Es gibt da noch eine Aussage von Yahoo-Chefin Marissa Mayer, die gesagt hat: „Homeoffice schaffen wir wieder ab und die Leute müssen wieder ins Büro gehen“ – weil einfach dieser (Tratsch an der Kaffeemaschine) -Flurfunk ein cooles Kommunikationsmedium ist. Man trifft sich, wechselt drei Worte und kommt auf ein Thema.

Insofern bin ich schon eher dafür, dass man in einen geteilten Workspace geht.

Viele Mitarbeiter bei uns sind häufig unterwegs, d.h. wir haben große Flächen die man freihalten müsste mit Infrastruktur und natürlich Bürofläche. Und das kostet Geld.

Bei Microsoft Österreich war das so, dass sie die Bürofläche um 10 Prozent verringert haben. Die sparen da echt Geld.

Bei Microsoft Deutschland glaube ich, dass andere Interessen dahinter stecken.

Die machen drei Standorte zu. Was also tun mit den Leuten? Zieht ihr um oder bleibt ihr zu Hause?

Wir haben selber ein paar Mitarbeiter, die zu Hause sitzen und nie ins Büro kommen. Wir hatten früher in Siegen eine Niederlassung, die wir aufgelassen haben, und seitdem arbeitet der Kollege vom Home Office aus. Wir haben noch ein paar Leute die vom Home Office arbeiten, aber man braucht dazu die Infrastruktur. Was wir einsetzen sind Lync, Mail, SharePoint und andere Kommunikationswege von jedem Ort der Welt aus.

Tugce: Jeder kennt die Gefahren, die sich aus „unvorsichtigen“ Veröffentlichungen von Bildern wie z.B. auf Facebook ergeben: Mobbing, Rufmord usw. Nun habe ich folgendes von dir gefunden. Nicht im Internet, sondern an einem geheimen Ort in der Firma.

Abb1

Was ist die Geschichte hinter diesem Bild?

Hannes (laut lachend): Die Geschichte hinter diesem Bild ist, dass ich zu dieser Zeit Handwerksarbeiten durchgeführt habe. Ich hatte einen Malerkittel an und das in der Hand ist ein Tacker. Ich hatte früher – das findest du auch im Internet (ist nix geheimes) – lange Haare. Zu diesem Zeitpunkt waren sie etwas durcheinander. Das Foto ist mindestens 20 Jahre alt, eher noch älter.

Tugce: Gab es schon mal irgendeine Situation, wo du gesagt hast: Das hätte ich anders machen sollen?

Hannes: Oh ja. Ich hätte früher zu Fielmann gehen sollen. Natürlich gehört Fehlermachen dazu. Nur wer nichts tut, macht Fehler. Nur wer dumm ist, macht einen Fehler zweimal.

Wobei ich auch Fehler zweimal gemacht habe. Fehlermachen ist echt okay. Wer keine Fehler macht, hat nichts erlebt im Leben.

Abb2

Weitere Links:

http://blog.ppedv.de/

http://blogs.dotnetgerman.com/

Bevor man aufs Gas steigt, sollte man die Bremse lösen

Gepostet am

Viele Mechanismen zur Optimierung im SQL Server sind verbunden mit Datenträgerlasten bzw. Datenträgerantastung.

Die Entlastung des Datenträgers basiert auf effiziente Speichern und Komprimieren der Daten. Somit sinkt der Platzbedarf, und die Performance von Datenbank- Applikationen steigt.

Je weniger Daten in Form von Bytes benötigt werden, umso geringer sind die Anforderungen an die Datenbank-Server. Die Performance des Systems wird verbessert, Zugriffszeiten verringert und die IO-Last allgemein minimiert.

Die Zugriffseinheit einer Datei sind Seiten oder auch Blöcke. Ein Block besteht aus mehreren Sätzen (Records). Typischerweise hat eine Seite eine Größe von 4KB bis 8KB bzw. besteht ein Block aus aufeinanderfolgenden Seiten mit einer Größe bis zu 32 KB. Im SQL Server sind Seiten immer 8192 Bytes, und ein Block besteht aus 8 Seiten, also 64KB. Eine Seite kann dabei einen oder viele Datensätze enthalten.

Abb1

 

Ich stelle euch in diesem Artikel verbreitete Techniken vor, um Daten in SQL-Datenbanken effizient zu speichern. Den Schwerpunkt bildet dabei die Kompression. (Aber davor bisschen was zu Redundanz und Normalisierung)

Redundanz bedeutet in der Datenbanklogik, dass Informationen mehrfach gespeichert werden. Folglich müssten sie auch an mehreren Stellen gepflegt werden. Redundanzen sind also doppelte Informationen in einer Datenbank bzw. Datenbank-Tabelle. Eine Datenbank ist dann redundanzfrei, wenn alle doppelten Informationen entfernt werden können, ohne dass ein Informationsverlust stattfindet.

Redundanzen können mittels der Normalisierung entfernt werden. (aus der Vorlesung Datenbanken im 3.Semester habe ich folgendes gelernt: hier ein paar Bsp.-Tabellen:

Quelle: Lehrbuch: R. Elmasri, S. B. Navathe: Grundlagen von Datenbanksystemen)

Man könnte fast folgendes sagen: Normalisierung macht ohne Primärschlüssel-Fremdschlüsselbeziehung keinen Spaß. Die sog. Referentielle Integrität sorgt dafür dass kein Primärschlüsselwert gelöscht werden kann, solange Fremdschlüsselwerte vorliegen oder nur dann ein Fremdschlüsselwert eingefügt werden kann, wenn ein entsprechender Primary Key (PK) vorliegt. Oder anders gesagt: wir wollen immer wissen, welcher „KD2345“ schuldet uns eigentlich die 100000 Euro?

Redundanzen und Anomalien:

Mitarbeiter_Abteilung
Insert-Anomalie: Neue Abteilungen sind nicht ohne Mitarbeiter einfügbar, da der Primärschlüssel manr einen Wert erhalten muss.

Delete-Anomalie: Wenn der letzte Mitarbeiter einer Abteilung gelöscht wird, verschwinden alle Informationen über diese Abteilung.

Update-Anomalie: Die Änderung einer Abteilungsinformation muss im Tupel jedes Mitarbeiters dieser Abteilung erfolgen.

Besserer Entwurf

1NF-Normalisierung I

1NF-Normalisierung II

2NF-Normalisierung

3NF-Normalisierung

3NF

Datenbankanforderung – Redundanzkontrolle: Informationen sollen in einer Datenbank möglichst nur einmal gespeichert sein. Gründe dafür sind zum einen die Speicherplatzeffizienz und auch die einfache Änderbarkeit von Daten, sowie die Datenkonsistenz (Datenspeicherung).

Entgegen der Regel, verwendet man gerne mal Redundanz. Nehmen wir mal das Beispiel „Rechnungssumme“. Laut Normalisierung gehört das nicht ins Datenbank-Design rein, aber Abfragen sparen sich sehr viel, wenn der Wert vorliegt.

Warum?

Nehmen wir mal an: 1 Mio. Kunden, die ca. 2 Mio. Bestellungen getätigt haben. Pro Bestellungen werden 2 Produkte bestellt. Dann würde man laut Normalisierung 1 Mio. Kunden mit 2 Mio. Bestelldaten und diese wiederum mit 4 Mio. Bestelldetails joinen müssen, sofern man die Umsätze pro Kunde wissen möchte. Würde man entgegen der Normalisierung die Rechnungssumme in Bestellungen mitführen, könnte man auf 4 Mio. Datenzeilen in Abfragen verzichten. Anders gesagt: Statt 7 Mio. Datenzeilen nur noch 3 Mio.

Anders als gemäß der Theorie, verfolgt man in der Praxis auch die Betrachtung der Physik. Hier unterliegt die Normalisierung den Performanceregeln. Redundanz bedeutet durchaus Geschwindigkeit. Gerade Datawarehouse-Szenarien profitieren von einer solchen Betrachtungsweise. Nehmen wir mal folgendes Beispiel an – Rechnungssumme –

abb2

rs

Kompression:

Heutzutage wachsen die Datenmengen schnell an. Somit steigen die Anforderungen an den Datendurchsatz und die Skalierbarkeit der darunter liegenden Datenbanken. Um große Datenmengen in den Griff zu bekommen, gilt es zunächst, einige Techniken zu verwenden. Ein Beispiel ist die Datenkompression. Datenkompression und das Minimieren von Datenredundanzen verringern den Storage-Bedarf stark.

 Datenkomprimierung kommt in zwei verschiedenen Formen vor:

  • Row-Ebene-Datenkomprimierung: Bei der Zeilenebene Datenkomprimierung geht es darum, dass der Datentyp mit fester Länge in ein Datentyp mit variabler Länge umgewandelt wird, der den leeren Speicherplatz freigibt. Es hat auch die Möglichkeit, NULL-Werte zusätzliche platzsparend zu ignorieren. Wiederum können mehr Zeilen auf eine einzelne Datenzugriffsseite passen.
  • Page-Ebene-Datenkomprimierung: Datenkompression auf Seitenebene beginnt mit Zeilenebene Datenkomprimierung und fügt zusätzlich zwei Komprimierungsfunktionen, nämlich den Präfix- und Dictionary -Komprimierung.

Durch Komprimierung verbessert sich häufig die Datenbankleistung. Der Grund: Es müssen weniger Daten von der Platte gelesen werden. Da Datenseiten, so wie sie sind, in den Arbeitsspeicher gelangen, können mehr Datensätze im Hauptspeicher abgelegt werden. Abfragen und andere Aktivitäten lassen sich deutlich schneller ausführen. Allerdings ist das Ganze nicht gratis: Die Komprimierung kostet CPU-Ressourcen, denn irgendjemand muss ja die Daten dekomprimieren, sobald sie an den Client geleitet werden, und es kostet die Enterprise-Lizenz des SQL Servers.

Die Kompression ist umso höher, je häufiger ein Wert oder ein Muster auftritt. Folglich könnte man den Rückschluss ziehen, dass gerade bei gezielter Redundanz im Datenbank Design sich einerseits sehr gute Kompressionsraten einstellen würden, und andererseits Abfragen auf teure Joins verzichten könnten.

Verwenden von Spalten mit geringer Dichte – Sparse Columns in SQL Server:

Der Trend geht deutlich zu breiten Tabellen hin (siehe vs. Normalisierung). Spalten mit geringer Dichte sind gewöhnliche Spalten, die einen optimierten Speicher für NULL-Werte haben (im Prinzip wird ein NULL Wert gar nicht mehr gespeichert). Sie reduzieren die Speicherplatzanforderungen von NULL-Werten auf Kosten eines erhöhten Aufwands, um Werte ungleich NULL abzurufen. So zum Beispiel würde eine Spalte mit Datentyp decimal 42% NULL enthalten müssen, damit sich der Einsatz von Sparse Columns lohnt. Die Kosten des NULL Wertes sind abhängig vom Datentyp. Im Falle einer bit-Spalte würden es mehr als 98% NULL bedürfen, um den Einsatz von Sparse Columns vertreten zu können. Spalten mit geringer Dichte und Spaltensätze werden mit der CREATE TABLE-Anweisung oder der ALTER TABLE-Anweisung definiert. Diese können auch mit Spaltensätzen und gefilterten Indizes verwendet werden:

Spaltensätze: Die Anweisungen INSERT, UPDATE und DELETE können anhand des Namens auf die Spalten mit geringer Dichte verweisen. Sie können jedoch auch alle Spalten mit geringer Dichte in einer Tabelle anzeigen und mit ihnen arbeiten, wenn sie zu einer einzelnen XML-Spalte zusammengeschlossen werden. Diese Spalte wird als Spaltensatz bezeichnet.

Gefilterte Indizes: Da Spalten mit geringer Dichte viele Zeilen mit NULL-Werten haben, sind sie besonders für gefilterte Indizes geeignet. Ein gefilterter Index für eine Spalte mit geringer Dichte kann nur die Zeilen indizieren, die Werte enthalten. Dadurch wird ein kleinerer und effizienterer Index erstellt.

Mithilfe von Spalten mit geringer Dichte und von gefilterten Indizes können Anwendungen wie Windows SharePoint Services große Mengen an benutzerdefinierten Eigenschaften mit SQL Server 2012 speichern und darauf zugreifen.

Vorteile einer Spalte mit geringer Dichte:

  • INSERT-, UPDATE- und DELETE-Anweisungen können die Spalten mit geringer Dichte nach Namen  verweisen.
  • kann gefilterte Indizes nutzen, natürlich explizit nur Zeilen mit NOT NULL Werten
  • spart viel Speicherplatz, wenn NULL oder null-Werte in der Datenbank vorhanden sind.

Nachteile einer Spalte mit geringer Dichte:

  • Sparse-Spalte kann nicht auf Text, Ntext, Image, Timestamp und Geometrie Geographie angewendet werden.
  • Sparse Spalte kann keinen Standardwert oder Regel oder eine berechnete Spalte haben.
  • Sie kann auch nicht als Feld für einen zusammengesetzten Primärschlüssels oder auch eines gruppierten Indexschlüssels sein.

Hinweis: Ebenso gibt es eine weitere Methode – Columnstore-Indizies, die schnellere Ergebnisse lieferen können als Sparse Columne.

Siehe Link: http://technet.microsoft.com/de-de/library/gg492088.aspx

Fazit: Je weniger Daten, umso effizienter arbeitet das Datenbank-System in der Regel.

Daher sollten die Fähigkeiten von Datenbanksystemen genutzt werden, um große Datenmengen durch eine möglichst effiziente Speicherung zu minimieren.

Frauen in MINT-Berufen

Gepostet am

Obwohl der IT-Markt stetig wächst und Karriere- und Aufstiegschancen in der Branche steigen, bleibt der Anteil an Frauen immer noch gering.

bild

Tugce Terzi studiert Wirtschaftsinformatik an der Hochschule Landshut und absolviert seit dem 19. August ihr Praktikum bei ppedv in Burghausen. Sie wird das Leben einer Studentin bei der ppedv AG aus der weiblichen Perspektive beleuchten.

E-Mail: tugcet@ppedv.de

 

Mädchen lehnen technische Berufe nicht ab, weil sie meinen, sie seien zu schwierig oder zu technisch, sondern sie finden sie in erster Linie langweilig. Diese Einschätzung entspricht zum Teil der Realität. Bestimmte Männerberufe sind häufig mit belastenden Arbeitsbedingungen verbunden. Mit zunehmender Technisierung verliert dieses Argument jedoch an Realität.

Ein weiterer Punkt, warum Frauen technische Berufe ablehnen, besteht darin, dass sie Benachteiligung und Diskriminierung in einem Männerumfeld erfahren. Auch diese Einschätzung entspricht zum Teil der Realität. Mädchen und Frauen müssen in Männerberufen auch Selbstvertrauen, Durchsetzungsvermögen sowie Konfliktfähigkeit besitzen. In diesen Einschätzungen wird deutlich, dass mit der Steigerung des Selbstvertrauens von Mädchen und Frauen und dem Vertrauen in ihre technische Kompetenz eine wichtige Hürde beseitigt wird.

Trotz Mädchenförderung sind gerade einmal 20 Prozent aller Studenten in ingenieurwissenschaftlichen Fächern weiblich.

clip_image002_thumb.jpg

 

Abbildung 1: http://www.girls-day.de/Girls_Day_Info/Daten_und_Fakten

Unternehmen und Schulen arbeiten eng zusammen, um weibliche Fachkräfte im IT-Bereich aktiv zu fördern. Politik, Wirtschaftsverbände und Industrie versuchen seit Jahren mehr Frauen für Ingenieur- und naturwissenschaftliche Studiengänge zu begeistern. Dies zahlt sich auch nach und nach aus: 41 Prozent aller Arbeitgeber bieten Frauen spezielle Förderprogramme. Dabei sind Hochschulen (70 Prozent) erheblich aktiver als Unternehmen (17 Prozent). Mentoring stellt mit 65 Prozent die beliebteste Fördermaßnahme darauch ich habe an der Hochschule Landshut daran teilgenommen.

 

Fakt ist, Frauen wählen seltener MINT-Berufe, obwohl gerade diese gute Chancen auf einen langfristig sicheren Arbeitsplatz bieten. Trotz guter Abschlüsse ergreifen zu wenige Frauen diese Berufe. Die Ursachen dafür können Geschlechterstereotypen und Traditionen sein. Das tradierte Rollenbild beeinflusst die Berufswahl und den beruflichen Werdegang von Frauen immer noch stark. Das Gefühl sich beweisen zu müssen, um unter den männlichen Kollegen bestehen zu können, hindert viele Frauen am Einstieg in die Branche. Dieses Selbstverständnis müssen sie durchbrechen und Mädchen sowie junge Frauen frühzeitig in Kindergärten und Schulen für MINT begeistern.        Um die Hemmschwelle aufzubauen, müssen Unternehmer und Professoren ihnen in der Praxis zeigen, wie viel Spaß Technik machen kann. Die geringe Frauenquote im Informations- und Technologiebereich kann man darauf zurückführen, dass es leider nur wenige weibliche Vorbilder gibt.

 

MINT steht für Mathematik, Informatik,   Naturwissenschaft und Technik. Neue Studiengänge, wie Wirtschaftsingenieurwesen   und Wirtschaftsinformatik wurden zu den MINT-Fächern hinzugerechnet (Medizin   und Pharmazie hingegen nicht).

 

Von Ernährungsberaterin zu IT-Expertin

clip_image003_thumb.png

Abbildung 2: Iris Classon und ihre typisch knallroten Haaren

Iris Daniela Classon ist Sprecherin, Schriftstellerin, Microsoft MVP für C# und Mitglied des MEET (Microsoft Extended Experten Team). Heute arbeitet sie Vollzeit als Software-Entwicklerin bei Dotnet-Mentor in Göteborg, einer Software-Firma, die sich in IT-Architektur und System-Entwicklung spezialisiert. Die international lizenzierte Fitnesstrainerin hat eine außergewöhnliche berufliche Laufbahn hinter sich, die beweist, dass nichts unmöglich ist. Die 28-jährige hat an der Universität Göteborg studiert. 2011 entdeckte die Ernährungsberaterin ihre Leidenschaft für die Programmierung und begann von 0 auf 100 zu codieren. Innerhalb ihres ersten Jahres erwarb sie MCSD-, MCPD- und MCTS-Zertifizierungen.

Nach nur sechs Monaten hatte sie einen Fulltime-Entwickler-Job und eine Position als Technical Evangelist für das internationale Unternehmen Telerik, wo sie heute noch in Teilzeit arbeitet. Ihr Blog „In Love with Code“  ist bereits in der Industrie bekannt. Sie verfasst Zeitungs- und Onlineartikel und ist in Podcasts wie Hanselminutes, Computer Sweden und Developer Magazine vertreten. Classon ist bekannt für ihren einzigartigen, kreativen und auffälligen Präsentationsstil.

In ihrer Freizeit ist Classon sehr engagiert in der Entwickler-Community und treibt Sportarten wie Mountainbiking, Gewichtheben und Tauchen. Reisen gehört ebenfalls zu ihren Hobbys.

Ihre Neugier ist die Grundlage für ein erfolgreiches Leben. In einem Interview sagt sie, dass ihre Schnelligkeit zu ihren Stärken gehört, da sie Aufgaben rasch erledigt. Sie sagt auch, dass sie sich schon immer sehr extrovertiert und besonders auffällig angezogen hat: „Das Leben sollte wie eine Show sein“. Ihren auffälligen Stil verbindet Classon mit ihrer Krankheit ADHS (Aufmerksamkeitsdefizit-/Hyperaktivitätsstörung), die mit 13 Jahren diagnostiziert wurde.

Sie ist auch davon überzeugt, dass die Therapie, zur Bewältigung ihrer Krankheit, ihr Selbstbewusstsein gestärkt hat. Laut Classon gibt es viele Mädchen, die Panik vor dem Programmieren haben, im Probleme lösen aber mindestens genauso gut sind wie Männer.

Für die meisten Unternehmen ist es wünschenswert, den Frauenanteil im MINT Bereich zu erhöhen. Bereits im Jahr 2015 werden in Deutschland drei Millionen und in Bayern eine halbe Million Fachkräfte fehlen. Bundesweit werden zu diesem Zeitpunkt allein 600.000 weibliche Fachkräfte mehr benötigt als heute. Dazu brauchen Unternehmer auch mehr Frauen in Führungspositionen. Vor allem im technischen Bereich ist das aber sehr schwierig umzusetzen.

Damit sich die Chancen für Frauen in technischen Berufen verbessern, haben die bayrischen Unternehmen insgesamt zahlreiche Maßnahmen aufgesetzt, um für weibliche Mitarbeiter noch attraktiver zu werden. Ein Beispiel dafür sind flexible Arbeitszeiten (etwa zwei Drittel der Arbeitgeber bieten Teilzeitmodelle an).

Frauen sollen ebenfalls die Initiativen zur Kinderbetreuung und Betriebskindergärten nutzen. Viele Betriebe, die einen hohen Bedarf an Mitarbeitern haben, bieten auch Projekte an, die das Interesse von jungen Mädchen und Frauen an MINT-Themen wecken sollen.

Die Gesellschaft sollte sich von klassischen Rollenmustern verabschieden. Sie sollte ein Umfeld schaffen, dass Frauen motiviert, Berufe zu ergreifen, die heute noch eine Männerdomäne sind. Die speziellen Förderprogramme (Ausbau von Kinderbetreuungsplätzen) müssen weiter vorangetrieben werden.

Ich bin davon überzeugt, dass Frauen sich in MINT-Berufen problemlos mit ihren männlichen Kollegen messen können. Viele junge Frauen wissen gar nicht, wie viel Spaß Naturwissenschaften und Technik machen können und wie geeignet sie vielleicht für technische Berufe in diesem Bereich sind. Ich denke als Frau muss man sich um einiges mehr beweisen und durchkämpfen. Und man sollte sich nicht von den üblichen Vorurteilen einschüchtern und sich nicht in eine Richtung drängen lassen, sondern selbst testen, was einem Spaß macht bzw. was einem liegt,. Frauen sollten daher unbedingt die sich dort bietenden Zukunftschancen ergreifen.

 

Tugce Terzi