Der neue Trend: schlüsselloses Türöffnen

Ich war gestern auf der Messe „SECURITY“ in Essen. Ein neuer Trend scheint hierbei das Öffnen von Türen ohne traditionelle Schlüssel zu sein. Waren es vor einigen Jahren noch wenige Aussteller, so scheinen in diesem Jahr ganze Hallen voll dieser Technik zu sein. Es scheint zwar mehr Anbieter als Techniken zu geben, aber ein paar unterschiedliche Ansätze gibt es schon. Technisch ganz interessant fand ich einen Ansatz, der ohne Batterie auskommt; angeblich erzeugt das Drehen des Schlüssels schon genug Energie um die zusätzliche Authentifizierung zu ermöglichen.

Viele Lösungen beruhen auf drahtloser Übertragung, wobei neben speziellen Schlüsselanhängern gerne auch Smartphones genutzt werden. Ich möchte mir hier gar nicht ausmalen, was das aufgrund der Unsicherheit der darunterliegenden Plattform bedeutet.

Bei „drahtlos“ bin ich ja immer etwas skeptisch, da solche Lösung immer mal wieder sich als angreifbar erweisen. Ein Anbieter setze auf die Bluetooth-Verschlüsselung noch eine symmetrische Verschlüsselung mit AES-256 drauf; ich würde gerne mal ausprobieren, ob das System trotzdem angreifbar ist. Die Lösung für den Privatgebrauch kostet allerdings ca. 400,-€ und das ist „just for fun“ dann doch etwas viel (Spenden werden aber gerne angenommen).

Der Kollege, mit dem ich auf der Messe war, erzählte mir dazu eine nette Geschichte: er war bei einem Kunden zu Besuch, der vor Kurzem für die Räume der IT ein schlüsselloses Öffnungsverfahren angeschafft hatte. Während seines Besuches sah er einen Techniker, der and en Türen die Batterien austauschte. Da wurde ihm erst mal bewusst, dass in den Türen ja eine Stromversorgung sein muss. Er sprach den Kunden darauf an und der erzählte ihm, dass in der Anfangszeit die Batterien teilweise schon nach zwei Tagen leer waren. Es stellte sich heraus, dass in einem Nebenraum Geräte lagerten, die auf derselben Frequenz funkten. Die Komponenten versuchten nun permanent miteinander zu kommunizieren und das führte zum schnellen Leeren der Batterien.

Das bringt mich natürlich auf verschiedenen Gedanken:

– beim Einsatz drahtloser Technik müssen wir künftig an Wechselwirkungen mit Geräten denken, die wir bisher nicht auf dem Schirm hatten

– theoretisch könnten hier Szenarien entstehen, die zu einem Denial-of-Service führen. Leere ich die Batteriene einer Tür und die lässt sich manuell dann nur noch von Innen öffnen, verwehre ich den Mitarbeitern einer Firma den Zutritt. Das könnte rein aus „Spass“ erfolgen oder aber um z.B. einen Angriff auf einem anderen Kanal länger durchführen zu können.

Und ich kann nur hoffen, dass es keine Hersteller gibt die in solch einem Fall (Batterie leer) die Tür automatisch entriegeln…

 

 

 

Veröffentlicht unter blog, security | Kommentare deaktiviert für Der neue Trend: schlüsselloses Türöffnen

MCP-Prüfungen von zu Hause ablegen

Microsoft hat heute eine interessante Neuerung veröffentlicht: es wird möglich sein, bestimmte MCP- und MTA-Prüfungen künftig von zu Hause aus abzulegen. Im ersten Schritt funktioniert das nur in den USA; es soll aber auf andere Länder ausgedehnt werden.

Wie muss man sich das vorstellen? Man benötigt dazu eine Webcam und ein Mikrofon. Vor der Prüfung kontrolliert die den Test überwachende Person, ob man einen versteckten Kopfhörer trägt oder Notizen auf dem Schreibtisch liegen hat. Das könnte in meinem Zimmer etwas länger dauern bei den vielen Büchern im Regal;-)

Hat sich der Prüfer davon überzeugt, dass alles seine Ordnung hat, läuft die Prüfung wie gewohnt ab.

Allerdings hat das Ganze auch ein paar Haken:

– Essen, Trinken und Kaugummi kauen geht nicht (und ich hatte mich schon auf einen Kaffee während der Prüfung gefreut)

– man darf sich während der Prüfung keine Notizen machen (was bei Szenario-Fragen oft ganz nützlich war)

– man darf den Raum nicht verlassen; man sollte also bestimmte Körperfunktionen unterdrücken können

Und das Wichtigste:

– die gesamte Prüfung wird aufgezeichnet

Was mich etwas irritiert ist der Hinweis, dass im Moment (Beta-Phase) die gleichen Kosten anfallen wie für einen OnSite-Test und dass keine zusätzlichen Gebühren anfallen. Für mich klingt das so als ob Online-Tests künftig teurer sein würden als OnSite-Tests.

Ich werde zumindest mal einen Test so ablegen und dann darüber berichten.

Hier ist der Link zum Original-Artikel: http://borntolearn.mslearn.net/btl/b/weblog/archive/2014/09/22/introducing-online-proctored-mcp-and-mta-exams.aspx

PS: Interessant ist auch die Frage, wie sie sich davor schützen wollen, dass ich keinen zweiten Rechner an meinem Monitor angeschlossen habe und dort nach richtigen Antworten suche.

 

Veröffentlicht unter blog, computer | Kommentare deaktiviert für MCP-Prüfungen von zu Hause ablegen

Capitalism running wild

Schon vor vielen Jahren erklärten Server-Hersteller, dass man doch (z.B.) immer deren Speichermodule nutzen soll. Die waren zwar deutlich teurer als alternative Module, aber vor deren Einsatz wurde gewarnt[1]. Druckerhersteller spiel(t)en dasselbe Spiel im Fall von Tintenpatronen.

Ein Bekannter hat mich jetzt auf einen weiteren interessanten Fall hingewiesen. Es gibt bei BROCADE-Switches wohl die Möglichkeit, die Konfiguration auf USB-Sticks zu speichern. Aber auch hier gibt es den Hinweis des Herstellers, dass man doch bitte einen „BROCADE-branded“ Stick nehmen soll. Im Internet (eBay) fand der Bekannte ein Angebot, wo jemand statt der angeblich $1.200-$1.800 nur $450 haben wollte (Angebot ist aus dem Jahr 2013).

Ich habe bei einer kurzen Suche ein Angebot für $$165 gefunden. Klingt schon besser, aber immer noch heftig. Wir sprechen nämlich nicht über ein 128GB Monster, sondern über einen 2GB Stick. Richtig gelesen: der Stick muss 2GB groß sein! Ich weiß ja nicht, wo die geneigte Leserschaft ihre Sticks kauft, aber 5,-€ für 2GB trifft es meiner Erfahrung nach eher.

Nun stellt sich die Frage, was diesen Stick so teuer einzigartig macht. Steckt da ein besonderes Bauteil drin? Schaut man sich einen Beitrag im BROCADE-Forum an[2], kommt einem dann doch der Verdacht, dass es nicht so kompliziert ist. Und richtig, es geht auch ohne den teuren Stick. Laut [3] muss der Stick nur drei Voraussetzungen erfüllen:

genau 2GB groß

– der Name muß brocade sein

– es muß eine bestimmte Ordnerstruktur vorhanden sein

Dann soll es auch funktionieren (ich kann es selbst, mangels BROCADE Switches, nicht testen).

Ich habe nichts dagegen, dass Firmen Geld verdienen wollen. Ich finde solche Aktionen aber ziemlich heftig.

Es kann natürlich auch sein, dass man sich so (u.a.) verärgerte Kunden vom Hals halten will. USB-Sticks gibt es nun mal in verschiedenen Qualitätsstufen und mancher Kunde würde einen Hinweis wie „je nach Qualität des Sticks kann es zu Problemem kommen“ überlesen/ignorieren. Aber selbst dann ist so ein Preisunterschied nicht nachvollziehbar.

[1] Mir ist aber kein Fall von explodierenden Servern bekannt, nur weil man andere RAM-Module genutzt hat.

[2] http://www.brocade.com/downloads/documents/html_product_manuals/VDX8770_4_HRM/wwhelp/wwhimpl/common/html/wwhelp.htm#href=Configure.5.16.html&single=true

[3] http://blog.marhar.de/?p=3072

Veröffentlicht unter blog, computer | Kommentare deaktiviert für Capitalism running wild

TInfoLeak – Infos über Twitter-User mit Hilfe von Python abfragen

Ich bin über ein nettes kleines Tool gestolpert, mit dem man aus der Kommandozeile heraus Infos über Twitter-User abfragen kann. Das Tool nennt sich tinfoleak und die Webseite dazu ist http://vicenteaguileradiaz.com/tools/. Ich habe ein bisschen mit dem Tool herumgespielt und möchte meine ersten Eindrücke schildern.

Damit man das Tool nutzen kann benötigt man zum einen Tweepy (eine Twitter API Library für Python)[1] und  zudem OAuth Credentials (API Key) für den API-Zugriff[2]. Tweepy gibt es sowohl für Linux als auch für Windows; die Windows-Variante scheint aber noch nicht richtig zu funktionieren.Ich habe Tweepy und TInfoLeak deshalb unter OpenSuse 13.1 installiert. Unter [2] sind die Schritte ganz gut beschrieben. Ich habe dort eine nicht existente App eingetragen und erhielt so einen API Key und ein API Secret (die man für sich behalten soll). Das reicht aber noch nicht; man muss sich auch noch eine Access Token mit entsprechendem Access Token Secret erzeugen. Diese vier Informationen benötigt man später. Am Besten packt man die Infos in eine Textdatei, damit man sie später nicht von Hand eingeben muss.

Tweepy installiert man am Einfachsten über „easy_install tweepy„; andere Methoden (Git Repository / Source Archiv) sind unter [3] beschrieben.

TInfoleak wird nicht installiert; das Paket besteht nur aus einem README und dem Python-Skript. Vor dem ersten Start muss man aber noch die oben erwähnten vier Information im Skript eintragen:

# OAuth Settings
# How to obtain the API key:
# Go to https://dev.twitter.com/apps/new
# Copy the consumer key (API key), consumer secret, access token and access token secret
CONSUMER_KEY = “
CONSUMER_SECRET = “
ACCESS_TOKEN = “
ACCESS_TOKEN_SECRET = “

„CONSUMER_KEY“ und „CONSUMER_SECRET“ beziehen sich hier auf „API Key“ und „API Secret“.

Nun sind wir bereit für einen ersten Test. Zuerst einmal rufe ich meine eigenen Infos ab. python tinfoleak.py -n twallutis -b liefert:

+++
+++ tinfoleak v1.2 – „Get detailed information about a Twitter user“
+++ Vicente Aguilera Diaz. @VAguileraDiaz
+++ Internet Security Auditors
+++ 03/02/2014
+++

Looking info for @twallutis

Account info
——————-
Screen Name: twallutis
User name: Thomas Wallutis
Twitter Unique ID: 49129829
Account created at: 06/20/2009
Followers: 279
Tweets: 6751
Location: Germany
Description: Computer Nerd; especially MS Exchange and Security. All tweets are my own opinion. Blame me, not others! I tweet in German and bad English.
URL: http://t.co/KNbtt73v6M
Profile image URL: http://pbs.twimg.com/profile_images/274513070/foto_normal.jpg

Elapsed time: 00:00:00

See you soon!

Nun möchte ich gerne wissen mit welchen Apps ich so meine Tweets verschicke. python tinfoleak.py -n twallutis -s liefert

+++
+++ tinfoleak v1.2 – „Get detailed information about a Twitter user“
+++ Vicente Aguilera Diaz. @VAguileraDiaz
+++ Internet Security Auditors
+++ 03/02/2014
+++

Looking info for @twallutis

100 tweets analyzed

Date Source
————————————
09/11/2014 – TweetDeck
09/07/2014 – TweetCaster for Android
09/02/2014 – Twitter Web Client
09/01/2014 – XING
08/26/2014 – Twitter for Websites
08/26/2014 – Twitter for Android

6 results.

Elapsed time: 00:00:03

See you soon!

Hinweis: es werden die letzten 100 Tweets analysiert. Frage ich z.B. die letzten 1000 Tweets ab, indem ich noch „-c 1000“ anhänge, erhalte ich

Looking info for @twallutis

        1000 tweets analyzed

        Date         Source
        ————————————
        09/11/2014 – TweetDeck
        09/07/2014 – TweetCaster for Android
        09/02/2014 – Twitter Web Client
        09/01/2014 – XING
        08/26/2014 – Twitter for Websites
        08/26/2014 – Twitter for Android
        08/15/2014 – Social Proxy by Mailchimp

Daraus könnte man jetzt schon Informationen für einen gezielten Angriff ableiten. Aber es gibt noch mehr: „python tinfoleak.py -n twallutis -p 1“ durchsucht die Tweets nach Bildern und speichert diese ab („-p 0“ würde sie direkt anzeigen).

python tinfoleak.py -n twallutis -f Blacky“ durchsucht meine Tweets nach dem Wort „Blacky“ und findet ganz korrekt meinen Tweet zum Tod von Joachim Fuchsberger:

+++
+++ tinfoleak v1.2 – „Get detailed information about a Twitter user“
+++ Vicente Aguilera Diaz. @VAguileraDiaz
+++ Internet Security Auditors
+++ 03/02/2014
+++

Looking info for @twallutis

100 tweets analyzed

Date Word [Blacky]
————————————
09/11/2014 – Joachim Fuchsberger ist tot. R.I.P. Blacky!

1 results.

Elapsed time: 00:00:02

See you soon!

Ich kann mir aber auch anzeigen lassen, welche Hashtags ein Account benutzt. Der Twitter-Account @MSCloud hat in den letzten 100 Tweets die folgenden Hashtags benutzt („python tinfoleak.py -n mscloud -h„):

+++
+++ tinfoleak v1.2 – „Get detailed information about a Twitter user“
+++ Vicente Aguilera Diaz. @VAguileraDiaz
+++ Internet Security Auditors
+++ 03/02/2014
+++

Looking info for @MSCloud

100 tweets analyzed

Date Hashtags
————————————
09/11/2014 – #Azure
09/11/2014 – #MachineLearning
09/10/2014 – #Azure #Cloud
09/09/2014 – #24hopquiz
09/08/2014 – #Cloud #MSFT
09/05/2014 – #Podcast
09/05/2014 – #Cloud #Azure
09/04/2014 – #Microsoft #MachineLearning
09/04/2014 – #winning
09/03/2014 – #machinelearning #msft
08/30/2014 – #CANITPRO #ITPRO #Azure #Cloud
08/29/2014 – #BigData
08/27/2014 – #bigdata #PredictiveAnalytics #machinelearning
08/26/2014 – #winserv
08/26/2014 – #SQLServer #Azure
08/25/2014 – #WindowsIntune
08/24/2014 – #azureml
08/23/2014 – #azureml #MLatMSFT
08/22/2014 – #Cloud #Gaming #CloudComputing
08/21/2014 – #Hybrid #Cloud
08/19/2014 – #machinelearning #MLatMSFT #bigdata #datascience
08/15/2014 – #winserv #SysCtr

22 results.

Elapsed time: 00:00:02

See you soon!

Und wie sieht es mit Mentions aus (hier beschränkt auf die letzten 10 Tweets)? „python tinfoleak.py -n twallutis -m -c 10“ liefert uns:

+++
+++ tinfoleak v1.2 – „Get detailed information about a Twitter user“
+++ Vicente Aguilera Diaz. @VAguileraDiaz
+++ Internet Security Auditors
+++ 03/02/2014
+++

Looking info for @twallutis

10 tweets analyzed

Date User mentions
————————————
09/11/2014 – @niggi
09/11/2014 – @andreasdotorg
09/11/2014 – @jnievele
09/11/2014 – @Laberfasel
09/11/2014 – @semibogan @thegrugq @dcuthbert
09/11/2014 – @dcuthbert @semibogan
09/11/2014 – @katerussell @TrendMicro @rik_ferguson

7 results.

Elapsed time: 00:00:01

See you soon!

Daraus lässt sich erkennen, mit wem ich mich so austausche.

Mit dem Parameter „-g“ und einem Dateinamen kann ich die in einem Tweet evtl. vorhandenen Geo-Informationen auslesen und in eine Datei speichern, die ich in z.B. Google Earth öffnen kann. Dann sehe ich, wo die betreffenden Person war, als der Tweet abgesetzt wurde. Ich selber übertrage aber keine Geolocation-Informationen und habe bisher auch keinen Account gefunden, der brauchbare Informationen geliefert hat. Hier aber ein einfaches Beispiel; ich benutze auch den Parameter „-t“, um mir die Uhrzeit des Tweets mit anzeigen zu lassen:

python tinfoleak.py -n scienceporn -g scienceporn.kml -t

liefert

+++
+++ tinfoleak v1.2 – „Get detailed information about a Twitter user“
+++ Vicente Aguilera Diaz. @VAguileraDiaz
+++ Internet Security Auditors
+++ 03/02/2014
+++

Looking info for @SciencePorn

100 tweets analyzed

Date Time Geolocation information
————————————
09/10/2014 – 19:41:58 – London
09/10/2014 – 16:01:05 – London
09/10/2014 – 15:09:58 – London
09/09/2014 – 23:29:23 – London
09/09/2014 – 14:46:38 – London
09/08/2014 – 20:40:19 – London
09/07/2014 – 18:18:21 – London
09/06/2014 – 13:31:55 – London
08/31/2014 – 20:54:45 – London
08/28/2014 – 21:12:39 – London

10 results.

Elapsed time: 00:00:03

See you soon!

Orts- und Zeitangaben können ein Bewegungsprofil des Accounts liefern und auch nur die Uhrzeit ergibt eine interessante Information.

Es gibt auch noch Optionen, um die Suche auf einen bestimmten Zeitraum bezogen auf Tage und Uhrzeit einschränken zu können.

Falls jemand interessante Szenarien findet, würde ich mich auf einen Hinweis in den Kommentaren freuen.

 

[1] https://github.com/tweepy/tweepy
[2] https://dev.twitter.com/discussions/631
[3] https://github.com/tweepy/tweepy/blob/master/INSTALL

 

Veröffentlicht unter blog, computer, security | Verschlagwortet mit , , | 3 Kommentare

PowerShell + Exchange 2010: Status der Export Requests abfragen

In Exchange 2010 kann man ja schön aus der PowerShell heraus (entsprechende Rechte vorausgesetzt) Mailboxen in PST-Dateien exportieren. Hierzu erstellt man mit dem Kommando New-MailboxExportRequest einen neuen Export Request, der dann nach kurzer Zeit abgearbeitet wird. Man kann zwar die Requests am Ende mit Remove-MailboxExportrequest wieder löschen; aber es kann Situation geben, in denen man auf die erledigten/fehlgeschlagenen Requests noch zugreifen will (um z.B. den Grund für einen Fehlschlag später nachschlagen zu können). Oder man hat einfach vergessen sie zu löschen;-)

Mit dem Befehl Get-MailboxExportRequest Statistics kann man sich Informationen über einen Export Request anzeigen lassen; anbei ein Beispiel, wobei ich mich auf einige Attribute beschränke. Der Befehl

get-mailboxexportrequest -name MailboxExport7 -mailbox „fabrikam.com/Benutzer/Thomas Wallutis“ | get-mailboxexportrequeststatistics | fl name,status,filepath,sourcemailboxidentity,sourcedatabase, starttimestamp, completiontimestamp, bytestransferred, itemstransferred

führt zu der Ausgabe

Name : MailboxExport7
Status : Completed
FilePath : \\server\pst-files\thomas.wallutis.pst
SourceMailboxIdentity : fabrikam.com/Benutzer/Thomas Wallutis
SourceDatabase : Mailbox Database 0248583270
StartTimestamp : 08.09.2014 14:03:27
CompletionTimestamp : 08.09.2014 14:26:46
BytesTransferred : 1.065 GB (1,143,315,403 bytes)
ItemsTransferred : 10745

„Name“ ist hierbei der Name des Export Requests, wobei Requests je anch Art des Aufrufs auch denselben Namen haben können. Interessant ist hierbei nun das Attribut „StartTimeStamp“, wenn ich mir alle Requests anzeigen lassen will, die zur selben Zeit gestartet sind. „CompletionTimestamp“ ist etwas problematisch, da ein fehlerhafter Export Request (z.B. mit falschem Parameter) auch ind er Liste auftaucht, aber das Attribut ist dann leer.

Das Interessante bei Filtern im Zusammenhang mit PowerShell ist, welcher Filter der gerade Passende ist. Im hierbetrachteten Fall möchte ich alle Requests sehen, die am selben Tag gestartet sind; allerdings ohne Angabe der Uhrzeit. Der passende Vergleichsoperator ist dann „-match“, da er auf passende Teilausdrücke prüft:

get-mailboxexportrequest | get-mailboxexportrequeststatistics | where { $_.StartTimeStamp -match „09.09.2014 „} | fl sourcemailboxidentity, status

Dieser Aufruf gibt mir alle Mailboxen zurück, die am betreffenden Tag exportiert wurden (unabhängig davon ob der Export erfolgreich war).

Vielen Dank an Andreas E. für den Tipp mit „-match“.

 

Veröffentlicht unter blog, computer | Verschlagwortet mit | Kommentare deaktiviert für PowerShell + Exchange 2010: Status der Export Requests abfragen

Buchtipp

Ich bin beim Buchkauf der Typ „Spontankäufer“, der oft ein Buch mitnimmt, weil es interessiert; gleichzeitig weiß ich aber, dass ich es nicht sofort lesen werde. So liegen diese Bücher oft jahrelang im Regal, bis ich in der richtigen Stimmung für das Thema des Buches bin.

Das Buch, das ich diesmal empfehlen möchte, ist aus dem Jahr 2006; wobei ich aber nicht weiß, ob ich es nicht auch später geholt habe. Diesmal geht es um ein Thema, dass ich bisher noch nicht in meinem Blog hatte: Musik. Genauer gesagt geht es um „Heavy Metal“ bzw. „Rock’n’Roll“. Die von der Person gespielte Musik wird allgemien als Heavy Metal bezeichnet, ob wohl der Verfasser der Autobiographie seine Musik als Rock’n’Roll bezeichnet (und angeblich Heavy Metal nicht mag).

Wenn ich nun noch sage, dass es um die Autobiographie des Gründers der (nach eigener Aussage) „lautesten Rockband der Welt“ handelt, dürfte vielen Lesern klars ein, um wen es geht: White Line Fever von Ian Lemmy Kilmister (mit Hilfe von Janiss Garza). Klingelt es immer noch nicht? Dann werfe ich noch mal Motörhead in den Raum…

Auf ca. 280 Seiten schildert Lemmy seine Kindheit, den Werdegang in verschiedenen Bands und die Erlebnisse mit der Musikindustrie.

Eine Warnung vorneweg: wer viel Wert auf „political correctness“ legt, sollte vielleicht vom Lesen Abstand nehmen…

Im ersten Teil des Buches geht es hauptsächlich um Mädchen und Drogen. In der Schule kam Lemmy nicht klar; da zeigt sich schon seine etwas andere Persönlichkeit. Er trifft in dieser Zeit Musiker, die erst später berühmt werden; zu nennen sind da z.B. Jon Lord und die Beatles. Zu den Beatles hat er auch gleich eine schöne Anekdote bereit, denn John Lennon war manchmal gar nicht so friedfertig, wie es den Anschein hatte.

Zu dieser Zeit beschliesst Lemmy, dass auch er Musiker werden will; hierbei ist es interessant zu hören, warum es viele Bands eben nicht geschafft haben. Das muss nicht immer an fehlendem Talent gelegen haben.

In dieser Zeit wird er auch zum ersten Mal Vater, was allerdings nicht beabsichtigt war.

Ich kannte zwar schon die Geschichte, dass Lemmy Roadie bei Jimi Hendrix war; aber getroffen haben sich die Beiden dann wohl doch nie.

Es gibt dann ein paar Stories aus seiner Zeit bei Hawkwind (ja, die mit „Silver Machine“). Interessant ist hierbei, dass der Name „Motörhead“ auf einem Lied von Hawkkind beruht und dass Lemmy vor Hawkkind immer Gitarre gespielt hat. Dass er Bassist geworden ist, war von ihm gar nicht geplant.

Der größere Teil des Buches beschäftigt sich mit seiner Band Motörhead und den wechselnden Bandmitgliedern; ich fand hier die Einblicke in die Mechanismen der Musikindustrie sehr interessant.

Lemmy lässt im Buch auch Einblicke in seine persönliche Gedankenwelt zu, die sehr interessant sind (und vielleicht nicht unbedingt seinem Bild in der Öffentlichkeit entsprechen).

Leider endet das Buch im Jahr 2002; aber vielleicht gibt es ja mal eine Fortsetzung.

Ich habe (dank zweier Zugfahrten) das Buch in einem Tag durchgelesen. Mir hat es sehr gefallen.

 

 

Veröffentlicht unter buecher, musik | Verschlagwortet mit , , | Kommentare deaktiviert für Buchtipp

Buchtipps

Das erste Buch bringt zwei Welten zusammen, die auf den ersten Blick nicht viel miteinander zu tun haben: Mathematik und Kriminalistik. Dieses Thema wurde ja schon in der (leider viel zu früh eingestellten) Fernsehserie Numb3rs thematisiert[1]. Das Buch Wahrscheinlich Mord von Coralie Colmez und Leila Schneps beschreibt den Einsatz von Mathematik vor Gericht und den Fallstricken, die dabei lauern. In den beschriebenen Fällen werden Wahrscheinlichkeitstheorie und Statistik dazu benutzt, die Schuld von Angeklagten zu „beweisen“. Die Autorinnen zeigen nachvollziehbar auf, welche teils haarsträubenden Fehler gemacht werden. Da werden schon mal „bedingte“ mit „unabhängigen“ Wahrscheinlichkeiten vertauscht, was teils fatale Auswirkungen auf die (unschuldig) Verurteilten hat; oder es wird „sehr unwahrscheinlich“ mit „kann nicht sein“ verwechselt. Das Buch ist so geschrieben, dass man auch ohne mathematische Vorkenntnisse gut folgen kann und es ist spannend zu lesen, wie die fehlerhaften Anwendungen Stück für Stück widerlegt werden.

Das zweite Buch ist eigentlich kein Buch, sondern es handelt sich um ein Heft aus der Reihe GEO Epoche: Geschichte der Spionage. In 17 Beiträgen geht die Reise vom 13. Jahrhundert (ein Spion des Papstes am Hof der Mongolen) über Industriespionage im 18. Jahrhundert bis zu Geschichten aus dem zweiten Weltkrieg (Enigma) und dem kalten Krieg (Die „Cambridge Five“). Es wird auch über die Ursprünge von BND, Mossad, KGB CIA und NSA berichtet und schliesst ab mit einem mehrseitigen Abriss der Geschichte der Spionage. Ich fand das Heft sehr spannend.

[1] Hierzu noch ein Buchtipp: The numbers behind Numb3rs von Gary Lorden (mathem. Berater der Serie) und Keith Devlin (bekannter Mathematiker und Buchautor).


 

Unterstützt den lokalen Buchhandel.

Besucht euren Lieblingsbuchladen und kauft vor Ort.

Veröffentlicht unter buecher | Verschlagwortet mit , | Kommentare deaktiviert für Buchtipps

Spaß mit Office365 – Teil 1

Mit der Cloud ist es wie mit dem rheinischen Karneval (zumindest wenn man Kunden in Köln hat): man muß es nicht mögen, aber entgehen kann man Beidem nicht.

Ich beschäftige mich seit einigen Tagen mit O365; genauer gesagt mit einem O365 E3 Plan und der Migration von Exchange dorthin. Dabei fallen einem ein paar Dinge auf; heute geht es mir insbesondere um die Befehle zur User-Administration.

Es gibt zwei Wege zur Benutzeradministration: die Weboberfläche und PowerShell. Über die Weboberfläche legt man einen User an und legt fest, ob dieser administrative Rechte bekommt. Gibt man dem User hier z.B. das Recht „Globaler Administrator“, kann dieser aber noch nicht Teilbereiche wie Exchange administrieren. Dieses gelang mir erst, nachdem ich dem User auch eine Exchange-Lizenz zugewiesen habe.

Während der Migration musste ich mehrfach User auf der O365 Seite löschen (dazu vielleicht ein anderes Mal mehr). Dabei bin ich über etwas gestolpert, was vielleicht auch Anderen schon Kopfschmerzen bereitet hat. Bei der Synchronisation zwischen OnPremise- und O365-Server tauchte die Meldung auf, dass der User schon vorhanden ist. Wie ich auf die harte Tour lernte, wird bei der Option „Übernahme-Migration“ (empfohlen für kleinere Umgebungen) immer ein neuer User auf O365-Seite erzeugt. Leider habe ich bisher nichts gefunden, aus dem klar hervorgeht, auf welche Attribute hierbei geprüft wird; die Fehlermeldung war da nicht hilfreich. Nehmen wir mal an, dass der User „Klaus Test“ heisst und der Username klaus.test ist. Wird nun bei der Synchronisation klaus.test angemeckert („schon vorhanden“), dann kann es sich um ein Exchange-Attribut oder um ein Azure AD Attribut handeln.

Über die Weboberfläche kann ich dem User die Postfach-Lizenz entziehen, was zur Löschung des Postfaches führt. Ferner kann ich (an anderer Stelle) den User komplett löschen.
Nun beginnt der interessante Teil: auch nach dem Löschen des Users bekomme ich immer noch die Fehlermeldung bzgl. des existierenden Users bei der Synchronisation. Der User landet nämlich im Papierkorb und kann von dort wiederhergestellt werden. Ich habe nur keine Möglichkeit in der Weboberfläche gefunden, wie man dort einen User auch aus dem Papierkorb löscht.

Es bleibt also wieder mal „nur“ die PowerShell. Hier lauert aber der Haken: es gibt zwei verschiedene Powershell-Sessions! Nehmen wir mal an, wir wollen Exchange Online per PowerShell verwalten. Wie benötigen dazu eigentlich nur einen Windows 7 oder 8 PC (bzw. die entsprechende Serverversion) sowie .Net Framework 4.5 bzw. 4.5.1 sowie Windows Management Framework 3.0/4.0.

Zuerst muss ich angeben, mit welchem User ich auf Exchange Online zugreifen möchte. Das geht wie an anderer Stelle auch über

$UserCredential = Get-Credential

Es geht eine Anmeldebox auf, in die man die Anmeldedaten einträgt. Diese werden dann in der Variable $UserCredential abgelegt. Im nächsten Schritt wird die Verbindung zu Exchange Online aufgebaut:

$Session = New-PSSession -ConfigurationName Microsoft.Exchange -ConnectionUri https://outlook.office365.com/powershell-liveid/ -Credential $UserCredential -Authentication Basic -AllowRedirection

Die erstellte Session wird noch eingebunden:

Import-PSSession $Session

Wichtig ist, dass man die Session auch wieder beendet, nachdem man sie nicht mehr braucht. Andernfalls muss man warten, bis die Session automatische beendet wird, bevor man sich wieder verbinden kann:

Remove-PSSession $Session

Nachlesen kann man das in der Exchange Online-Hilfe, aus der ich die Befehle übernommen habe: http://technet.microsoft.com/en-us/library/jj984289%28v=exchg.150%29.aspx

Damit stehen nun Exchange PowerShell-Befehle zur Verfügung wie z.B. Get-Mailbox. Führt man diesen Befehl aus, sieht man übrigens auch dass die Postfächer nicht zwingend auf einem Server liegen müssen.

Auch der Befehl Get-User ist vorhanden. Schauen wir uns nun in der Exchange-Hilfe an, wofür welcher Befehl genutzt wird, so finden wir:

Get-User: Verwenden Sie das Cmdlet Get-User, um alle Benutzer aus der Gesamtstruktur abzurufen, die den angegebenen Bedingungen entsprechen. [1]

Get-Mailbox: Mithilfe des Cmdlets Get-Mailbox können Sie die Postfachobjekte und -attribute anzeigen, Eigenschaftenseiten auffüllen oder Postfachinformationen an andere Tasks übergeben. [2]

Interessant ist hierbei die Frage, welche Befehle es für das Entfernen eines Benutzers gibt. Exchange unterscheidet hier Disable-Mailbox und Remove-Mailbox (ein Delete-User gibt es nicht). Der erste Befehl entfernt nur das Postfach sowie die Exchange-Attribute; der zweite Befehl entfernt auch das AD-Benutzerkonto.

Das Problem hierbei ist nur, dass das AD-Konto neuerdings für 30 Tage aufbewahrt wird. Wie kann man nun das Userobjekt dauerhaft löschen?

Und hier wird es jetzt spannend: man benötigt Zugriff auf das Azure Active Directory. Unglücklicherweise geht das aber nicht über die oben beschriebene Session; hierzu benötigen wir auch ein neues PowerShell-Modul.

Hierbei ist zu beachten, dass es sowohl PowerShell für Azure[3] als auch ein PowerShell-Modul für Azure Active Directory[4] gibt.

Ich will hier nicht alle Schritte wiedergeben; die angegebenen Links enthalten gute Anleitungen. Ich möchte nur kurz zeigen, wie die Verbindung aufgebaut wird.

Zuerst werden wieder die Anmeldedaten abgefragt und in einer Varibalen abgespeichert:

$msolcred = get-credential

Danach wird die Verbindung aufgebaut; man beachte hier die gegenüber der O365-Anbindung deutlich einfachere Syntax:

connect-msolservice -credential $msolcred

Einen Befehl Remove-Msolservice oder Disconnect-Msolservice scheint es nicht zu geben.

Hat man nun erfolgreich die Verbindung aufgebaut, kann man sich endlich die gelöschten Objekte anzeigen lassen:

Get-MsolUser -ReturnDeletedUsers | fl

Man beachte hierbei den Zusatz „Msol“ beim Befehl!

Für das Löschen benötigt man nun die ObjectId des Users:

Remove-MsolUser -ObjectId d21855e9-7979-4ea0-9681-04628bf418da -RemoveFromRecycleBin -force

Danach überzeugt man sich durch ein erneutes Ausführen von

Get-MsolUser -ReturnDeletedUsers | fl

dass das Objekt wirklich gelöscht wurde.

Ich würde empfehlen nach der Löschung einige Zeit zu warten, bevor man den User erneut anlegt.

[1] http://technet.microsoft.com/de-de/library/aa996896%28v=exchg.150%29.aspx

[2] http://technet.microsoft.com/de-de/library/bb123685%28v=exchg.150%29.aspx

[3] http://azure.microsoft.com/de-de/documentation/articles/install-configure-powershell/

[4] http://technet.microsoft.com/en-us/library/jj151815.aspx

Veröffentlicht unter computer | Verschlagwortet mit , | Kommentare deaktiviert für Spaß mit Office365 – Teil 1

Buchtipps

Da ich längere Zeit nichts gebloggt habe, stapeln sich auf meinem Tisch die gelesenen Bücher. Es ist also mal wieder Zeit für ein paar Buchbesprechungen.

Anfangen möchte ich mit dem Buch Der heilige Krieg von Guido Knopp, Stefan Brauburger und Peter Arens. Das Buch beschreibt die (militärischen) Konflikte zwischen muslimischen und christlichen Konfliktparteien von der Geburt des Islams bis heute. Dabei wird beschrieben, dass sich gerade die muslimischen Eroberer z.B. während der Kreuzzüge deutlich humaner verhalten haben in Bezug auf die Schonung des Gegners und der Zivilbevölkerung. Es wird auch aufgezeigt, wie die westlichen Mächte die muslimischen Völker gerne ausgenutzt hat, um eigene Ziele zu verfolgen (z.B. im ersten Weltkrieg). Aber es wird auch beschrieben, wie die muslimischen Länder im Laufe der Jahrhunderte durch eigenen Fehler ihre Vormachtstellung in Kultur und Wissenschaft verspielten. Das Buch liefert gutes Hintergrundwissen, um die Situation im nahen und mittleren Osten besser verstehen zu können. Bei einem Preis von 12,99€ und einem Umfang von ca. 380 Seiten (und einem handlichen Format) ist das eine schöne Urlaubslektüre.

Das nächste Buch ist Geheimer Krieg von Christian Fuchs und John Goetz. In disem Buch wird aufgezeigt, wie wichtig Deutschland für den „KAmp gegen den Terror“ der USA ist und wie tief verwickelt deutsche Dienste sind. Es geht hierbei um die Steuerung von Drohnen, das Koordinieren von Einsätzen auf dem afrikanischen Kontinent und das Abhören. Obwohl ich Einiges schon aus anderen Quellen kannte, haben mich die detaillierten Beschreibungen schon öfter geschockt. Wer sich eingehender mit diesem Themenkomplex beschäftigen will, dem kann ich das Buch nur sehr ans Herz legen.

Mit dem dritten Buch bleiben wir in Deutschland; aber jetzt geht es um das organisierte Verbrechen. Der ehemalige Kölner Staatsanwalt Egbert Bülles beschreibt in „Deutschland Verbrecherland?„, wie sich die organisierte Kriminalität in Deutschland ausgebreitet hat und welchen Problemen sich Polizei und Ermittlungsbehörden stellen müssen. Ich stimme ihn nicht immer zu (z.B. beim Thema Vorratsdatenspeicherung), aber das Buch enthielt doch einige interessante Informationen. Die größten Probleme scheinen das Desinteresse der Politik sowie die personelle Unterbesetzung von Polizei und Staatsanwaltschaft zu sein. Auch wenn man, wie ich, seine Aussagen nicht immer teilt, ist es ein wichtiges und interessantes Buch. Und man soll ja sowieso nicht immer nur Sachen lesen, die einen in der eigenen Meinung bestärken.

Nun gehen wir von der Sachbuchabteilung weg in die Thriller-Ecke. Das erste Buch ist Biest von Jenk Saborowski. Dieses Buch reiht sich ein in die Liste der Bücher, bei denen es sich um Cyber-Attacken gegen Industrieanlagen dreht. Das Buch spart nicht an Klischees (böse Russen), aber ist ganz unterhaltsam geschrieben. Ich will nicht zu viel über den Inhalt verraten, aber das Ende enthält einen netten Twist. Als HArcover wäre mir der Preis zu hoch, aber das Tschenbuch stellt ein gutes Preis-/Leistungsverhältnis dar. Das richtige Buch für den Strand;-)

DAs letzte Buch ist Silent Control von Thore D. Hansen. Auch dieses Buch dreht sich (surpise, surprise) um die Themen Hacker, Überwachung und Geheimdienste. Hier will ein schwedischer Hacker nur mit Hilfe eines selbst geschriebenen Programms für Transparenz sorgen und steckt plötzlich inmitten einer Verschwörung, in die auch die CIA verwickelt ist. Deren Leiter hat etwas entwickeln lassen, dass Überwachung in ungeahnter Dimension ist. Und es wird auch sehr schön beschrieben, wer daran Interesse haben könnte und wie man widerstrebende Politiker dazu bringt, den Einsatz zu unterstützen. Das Buch braucht etwas, bis es einen fesselt; aber das Durchhalten wird mit einer interessanten Geschichte belohnt. Inwieweit man die beschribene technologie für realistisch hält, muss jeder selbst entscheiden. Ich bezweifle nicht, dass daran geforscht wird; aber ich hoffe sehr stark, dass das nie jemand einsetzt.

Das soll es für heute erst mal gewesen sein.

Veröffentlicht unter blog, buecher | Verschlagwortet mit , | Kommentare deaktiviert für Buchtipps

Neues zur Zusammenarbeit BND+NSA

Wie ich gerade bei Heise Online lesen darf, leitete der BND jahrelang Daten aus einem deutschen Internetknoten in die USA weiter. Das ist ja schon ein starkes Stück. Das Ganze passierte während der rot/grünen Koalition. OK, die haben sich damit endgültig bei dem Thema disqualifiziert. Herr Steinmeier steckte natürlich auch mit drin. Dem glaube ich noch nicht mal mehr die aktuelle Uhrzeit. Und die parlamentarische Kontrollkomission wusste davon: nix (ok, korrekt: von der Weiterleitung der Rohdaten). Was war deren Sinn noch mal?

Aber wir müssen uns ja keine Sorgen machen. Die Daten deutscher Internetnutzer werden ausgefiltert. Mails mit „.de“-Adresse werden vorher ausgefiltert. Oh, warte mal. Ich habe seit Jahren bei GMX (einem deutschen Anbieter) eine Mailadresse. Die endet nur dummerweise auf „.net“.

Letztendlich wurde es den (deutschen) Beteiligten dann wohl zu heiß und die Weiterleitung wurde beendet. Jetzt sortiert der BND vorher vor…

Verstieß die Geschichte eigentlich gegen deutsches Recht? Falls ja, wird dafür jemand angeklagt? Und falls nicht, übernimmt jemand die politische Verantwortung und tritt zurück? Schliesslich war es den Beteiligten ja „politisch zu brisant“; also war denen klar, dass die Bevölkerung nicht unbedingt sein würde.

Aber vermutlich verkaufen Sie uns das noch als Erfolg; schliesslich wollte die NSA ja einen direkten Zugriff und der wurde nicht nicht gewährt.

Mal ganz ehrlich: Politiker mit Rückgrat hätten auf solch eine Anfrage mit schallendem Gelächter reagiert (und keinen „Kompromiß“ gesucht). Haben wir nur nicht.

PS: falls mir noch mal ein Grünen-Wähler oder -Politiker mit „Bürgerrechte“ kommt, lache ich ihn/sie aus.

 

Veröffentlicht unter blog, politik-und gesellschaft | Verschlagwortet mit | Kommentare deaktiviert für Neues zur Zusammenarbeit BND+NSA