Monthly archives "September 2014"

BRUCON 2014

Ich habe auch in diesem Jahr die BRUCON-Konferenz im schönen Städtchen Gent besucht. Leider war in diesem Jahr kein Budget für ein Training vorhanden, so daß ich nur von der Konferenz berichten kann.

Wie üblich gab es wieder Vorträge und (teilweise) parallel Workshops. Man konnte sich über eine Webseite einen eigenen Kalender zusammenstellen; allerdings wurde nicht deutlich, dass man sich so auch für die Workshops registriert hat. So hatte ich aber zumindest einen Platz in jedem gewünschten Workshop sicher…

Die Konferenz begann am Donnerstag mit einer Keynote von Jennifer Minella. Ihr Thema war, wie wir mehr Leute für IT Security begeistern können, um die Personalknappheit zu vermindern. Sie nutzte dazu Zitate aus Büchern von Dr. Seuss. Zwei Punkte haben mir besonders gut gefallen:

– Leadership bedeutet Leader zu erschaffen, nicht Follower

– Man begeistert Leute nicht für die IT Security, wenn man selber nur darüber spricht wie schlecht alles ist

Ich bin eigentlich kein Freund von Keynotes, fand diese aber gut.

Der nächste Vortrag von Matt Hastings und Ryan Kazanciyan hatte den Titel Investigating PowerShell Attacks. Die Beiden haben sehr schön aufgezeigt, welche neue Angriffsfläche durch PowerShell entstehen kann und wie sich PowerShell für Attacken nutzen lässt. Die Folien werde ich mir auf jeden Fall noch mal in Ruhe anschauen und einige Dinge in meine Beratung einfliessen lassen.

Danach gab es einen Vortrag von Aaron Lemasters mit dem Titel Windows Crash Dump Exploration Vehicles. In dem Talk wurde gezeigt, was bei einem Crash Dump passiert und wie sich das ausnutzen lässt, um z.B. bei einem Befall mit einem Rootkit der MBR ausgelesen werden kann. Keine leichte Kost, aber zu empfehlen.

Danach hatte ich die Auswahl zwischen drei Workshops. Leider habe ich mich in den falschen Workshop gesetzt…

Daniela Zapata und Wim Remes wollten einen vierstündigen Workshop zum Thema The dirty secrets of client-side exploitation and protection halten. Unglücklicherweise befanden sich die Hands-on Labs in dem Koffer, der nicht den Weg nach Gent gefunden hatte (merke: immer ein Backup haben). So ging Wim eine Stunden lang seine Folien durch, die aber für mich nicht viel Neues enthielten. Interessant war aber, dass er einige Freiwillige in die Stadt schickte mit dem Auftrag, von Wildfremden die Mailadressen und Telefonnummern zu bekommen. Und sie kamen nicht ohne Beute zurück…

Schade nur dass nicht gezeigt wurde, wie man mit diesen Informationen an weitere Informationen zur Vorbereitung eines Angriffs kommt.

Nun musste ich mich entscheiden, wie ich die Lücke füllen sollte. Ich entschied mich, in den Workshop Javascript for Pentesters with over 20 Challenges von Vivek Ramachandran zu gehen. Ursprünglich hatte Vivek für den Workshop vier Stunden vorgesehen, wurde aber wegen parallel laufender Workshops gebeten, seinen Workshop zwei Mal zu halten. Er musste seine Beispiele deswegen in 120 Minuten packen. Die hatten es dann aber in sich. Selbst ich als ziemlicher Javascript-Neuling konnte fast allen Beispielen folgen und ich war erstaunt, was damit so alles geht. Wirklich schade, dass es davon keine Videoaufzeichnung gibt.

Zu der Party sage ich nur so viel, dass keiner tanzte, die Musik aber trotzdem zu laut zum Unterhalten war. Ich plädiere hier für eine Rückkehr zu der Location von vor zwei Jahren.

Am nächsten Morgen haben wir uns kurzfristig für den Workshop Splinter the Rat Attack: Create your own Botnet to exploit the network von Solomon Sonya entschieden. Dieser Workshop war aufgrund von Änderungen am Ablauf in den ersten Slot geraten, was sich als Glück für uns herausstellte. Solomon zeigte uns in dem Workshop, wie man mit seinem Tool Splinter und einigen anderen Tools ein Botnetz aufbaut. Wir haben auch darüber diskutiert, wie man sich dann am besten vor Entdeckung schützt. Der Workshop war ein echter Gewinn und aufbauend auf seinen Tools kann man mal ein anderes Live-Hacking als das Übliche „hier ist die Shell“ aufbauen.

Danach ging es dann zu Willi Ballenthin und seinem Workshop „EID 1102 – The Audit Log was cleared“ wont stop me: Advanced Windows Event Log Forensics. Willi erklärte einige Internas zum Windows Event Log und erklärte die Unterschiede zwischen dem Prä-Vista Event Log und der neuen Version (ab Vista). Er stellte dann einige Tools vor, mit denen man auch dann noch Informationen aus dem System holen kann, wenn ein Angreifer das Event Log gelöscht hat. Ein sehr interessanter Wokshop von jemand, der weiß wovon er spricht.

Abschliessend gab es dann noch den Workshop Network Device Forensics von Didier Stevens. Es standen 20 CISCO-Geräte für die Teilnehmer zur Verfügung; leider bekam ich meine serielle Schnittstelle nicht zum Laufen, so daß ich auf die vorgefertigten Dumps zurückgreifen musste. Didier erzählte zuerst etwas über die Internas von CISCO IOS und zeigte dann, wie man einen Dump von einem IOS-Gerät macht. Er stellte dann ein paar seiner eigenen Tools vor, um diese Dumps zu analysieren. Wie praktisch, dass ich noch einen alten ISDN-Router zu Hause habe;-)

Auch dieser Workshop war sehr spannend und wer sich mit CISCO IOS beschäftigt, sollte mal einen Blick auf seine Tools werfen.

Nach diesem Workshop war dann Schluß für uns und wir haben uns auf den Heimweg gemacht.

Ich habe wieder viel gelernt, alte Freunde getroffen und neue Freunde gewonnen. Das macht für mich BRUCON aus.

In diesem Sinne: bis zum nächsten Jahr! (Und dann hoffentlich wieder mit dem Besuch eines Trainings)

PS: was ich gerne noch gesehen hätte:

– Michael Sikorski: Counterfeiting the pipes with Fakenet 2.0 (zumindest habe ich die Slides)

– Hal Pomeranz: Linux Forensics Workshop (ich habe zu spät gesehen, dass der Workshop Donnerstag Abend noch mal lief)

– Jake Valletta: Exploiting the bells and whistles: Uncovering OEM vulnerabilities in Android (auch hier habe ich aber die Materialien; der Workshop soll sehr gut gewesen sein)

Der neue Trend: schlüsselloses Türöffnen

Ich war gestern auf der Messe „SECURITY“ in Essen. Ein neuer Trend scheint hierbei das Öffnen von Türen ohne traditionelle Schlüssel zu sein. Waren es vor einigen Jahren noch wenige Aussteller, so scheinen in diesem Jahr ganze Hallen voll dieser Technik zu sein. Es scheint zwar mehr Anbieter als Techniken zu geben, aber ein paar unterschiedliche Ansätze gibt es schon. Technisch ganz interessant fand ich einen Ansatz, der ohne Batterie auskommt; angeblich erzeugt das Drehen des Schlüssels schon genug Energie um die zusätzliche Authentifizierung zu ermöglichen.

Viele Lösungen beruhen auf drahtloser Übertragung, wobei neben speziellen Schlüsselanhängern gerne auch Smartphones genutzt werden. Ich möchte mir hier gar nicht ausmalen, was das aufgrund der Unsicherheit der darunterliegenden Plattform bedeutet.

Bei „drahtlos“ bin ich ja immer etwas skeptisch, da solche Lösung immer mal wieder sich als angreifbar erweisen. Ein Anbieter setze auf die Bluetooth-Verschlüsselung noch eine symmetrische Verschlüsselung mit AES-256 drauf; ich würde gerne mal ausprobieren, ob das System trotzdem angreifbar ist. Die Lösung für den Privatgebrauch kostet allerdings ca. 400,-€ und das ist „just for fun“ dann doch etwas viel (Spenden werden aber gerne angenommen).

Der Kollege, mit dem ich auf der Messe war, erzählte mir dazu eine nette Geschichte: er war bei einem Kunden zu Besuch, der vor Kurzem für die Räume der IT ein schlüsselloses Öffnungsverfahren angeschafft hatte. Während seines Besuches sah er einen Techniker, der and en Türen die Batterien austauschte. Da wurde ihm erst mal bewusst, dass in den Türen ja eine Stromversorgung sein muss. Er sprach den Kunden darauf an und der erzählte ihm, dass in der Anfangszeit die Batterien teilweise schon nach zwei Tagen leer waren. Es stellte sich heraus, dass in einem Nebenraum Geräte lagerten, die auf derselben Frequenz funkten. Die Komponenten versuchten nun permanent miteinander zu kommunizieren und das führte zum schnellen Leeren der Batterien.

Das bringt mich natürlich auf verschiedenen Gedanken:

– beim Einsatz drahtloser Technik müssen wir künftig an Wechselwirkungen mit Geräten denken, die wir bisher nicht auf dem Schirm hatten

– theoretisch könnten hier Szenarien entstehen, die zu einem Denial-of-Service führen. Leere ich die Batteriene einer Tür und die lässt sich manuell dann nur noch von Innen öffnen, verwehre ich den Mitarbeitern einer Firma den Zutritt. Das könnte rein aus „Spass“ erfolgen oder aber um z.B. einen Angriff auf einem anderen Kanal länger durchführen zu können.

Und ich kann nur hoffen, dass es keine Hersteller gibt die in solch einem Fall (Batterie leer) die Tür automatisch entriegeln…

 

 

 

MCP-Prüfungen von zu Hause ablegen

Microsoft hat heute eine interessante Neuerung veröffentlicht: es wird möglich sein, bestimmte MCP- und MTA-Prüfungen künftig von zu Hause aus abzulegen. Im ersten Schritt funktioniert das nur in den USA; es soll aber auf andere Länder ausgedehnt werden.

Wie muss man sich das vorstellen? Man benötigt dazu eine Webcam und ein Mikrofon. Vor der Prüfung kontrolliert die den Test überwachende Person, ob man einen versteckten Kopfhörer trägt oder Notizen auf dem Schreibtisch liegen hat. Das könnte in meinem Zimmer etwas länger dauern bei den vielen Büchern im Regal;-)

Hat sich der Prüfer davon überzeugt, dass alles seine Ordnung hat, läuft die Prüfung wie gewohnt ab.

Allerdings hat das Ganze auch ein paar Haken:

– Essen, Trinken und Kaugummi kauen geht nicht (und ich hatte mich schon auf einen Kaffee während der Prüfung gefreut)

– man darf sich während der Prüfung keine Notizen machen (was bei Szenario-Fragen oft ganz nützlich war)

– man darf den Raum nicht verlassen; man sollte also bestimmte Körperfunktionen unterdrücken können

Und das Wichtigste:

– die gesamte Prüfung wird aufgezeichnet

Was mich etwas irritiert ist der Hinweis, dass im Moment (Beta-Phase) die gleichen Kosten anfallen wie für einen OnSite-Test und dass keine zusätzlichen Gebühren anfallen. Für mich klingt das so als ob Online-Tests künftig teurer sein würden als OnSite-Tests.

Ich werde zumindest mal einen Test so ablegen und dann darüber berichten.

Hier ist der Link zum Original-Artikel: http://borntolearn.mslearn.net/btl/b/weblog/archive/2014/09/22/introducing-online-proctored-mcp-and-mta-exams.aspx

PS: Interessant ist auch die Frage, wie sie sich davor schützen wollen, dass ich keinen zweiten Rechner an meinem Monitor angeschlossen habe und dort nach richtigen Antworten suche.

 

Capitalism running wild

Schon vor vielen Jahren erklärten Server-Hersteller, dass man doch (z.B.) immer deren Speichermodule nutzen soll. Die waren zwar deutlich teurer als alternative Module, aber vor deren Einsatz wurde gewarnt[1]. Druckerhersteller spiel(t)en dasselbe Spiel im Fall von Tintenpatronen.

Ein Bekannter hat mich jetzt auf einen weiteren interessanten Fall hingewiesen. Es gibt bei BROCADE-Switches wohl die Möglichkeit, die Konfiguration auf USB-Sticks zu speichern. Aber auch hier gibt es den Hinweis des Herstellers, dass man doch bitte einen „BROCADE-branded“ Stick nehmen soll. Im Internet (eBay) fand der Bekannte ein Angebot, wo jemand statt der angeblich $1.200-$1.800 nur $450 haben wollte (Angebot ist aus dem Jahr 2013).

Ich habe bei einer kurzen Suche ein Angebot für $$165 gefunden. Klingt schon besser, aber immer noch heftig. Wir sprechen nämlich nicht über ein 128GB Monster, sondern über einen 2GB Stick. Richtig gelesen: der Stick muss 2GB groß sein! Ich weiß ja nicht, wo die geneigte Leserschaft ihre Sticks kauft, aber 5,-€ für 2GB trifft es meiner Erfahrung nach eher.

Nun stellt sich die Frage, was diesen Stick so teuer einzigartig macht. Steckt da ein besonderes Bauteil drin? Schaut man sich einen Beitrag im BROCADE-Forum an[2], kommt einem dann doch der Verdacht, dass es nicht so kompliziert ist. Und richtig, es geht auch ohne den teuren Stick. Laut [3] muss der Stick nur drei Voraussetzungen erfüllen:

genau 2GB groß

– der Name muß brocade sein

– es muß eine bestimmte Ordnerstruktur vorhanden sein

Dann soll es auch funktionieren (ich kann es selbst, mangels BROCADE Switches, nicht testen).

Ich habe nichts dagegen, dass Firmen Geld verdienen wollen. Ich finde solche Aktionen aber ziemlich heftig.

Es kann natürlich auch sein, dass man sich so (u.a.) verärgerte Kunden vom Hals halten will. USB-Sticks gibt es nun mal in verschiedenen Qualitätsstufen und mancher Kunde würde einen Hinweis wie „je nach Qualität des Sticks kann es zu Problemem kommen“ überlesen/ignorieren. Aber selbst dann ist so ein Preisunterschied nicht nachvollziehbar.

[1] Mir ist aber kein Fall von explodierenden Servern bekannt, nur weil man andere RAM-Module genutzt hat.

[2] http://www.brocade.com/downloads/documents/html_product_manuals/VDX8770_4_HRM/wwhelp/wwhimpl/common/html/wwhelp.htm#href=Configure.5.16.html&single=true

[3] http://blog.marhar.de/?p=3072

TInfoLeak – Infos über Twitter-User mit Hilfe von Python abfragen

Ich bin über ein nettes kleines Tool gestolpert, mit dem man aus der Kommandozeile heraus Infos über Twitter-User abfragen kann. Das Tool nennt sich tinfoleak und die Webseite dazu ist http://vicenteaguileradiaz.com/tools/. Ich habe ein bisschen mit dem Tool herumgespielt und möchte meine ersten Eindrücke schildern.

Damit man das Tool nutzen kann benötigt man zum einen Tweepy (eine Twitter API Library für Python)[1] und  zudem OAuth Credentials (API Key) für den API-Zugriff[2]. Tweepy gibt es sowohl für Linux als auch für Windows; die Windows-Variante scheint aber noch nicht richtig zu funktionieren.Ich habe Tweepy und TInfoLeak deshalb unter OpenSuse 13.1 installiert. Unter [2] sind die Schritte ganz gut beschrieben. Ich habe dort eine nicht existente App eingetragen und erhielt so einen API Key und ein API Secret (die man für sich behalten soll). Das reicht aber noch nicht; man muss sich auch noch eine Access Token mit entsprechendem Access Token Secret erzeugen. Diese vier Informationen benötigt man später. Am Besten packt man die Infos in eine Textdatei, damit man sie später nicht von Hand eingeben muss.

Tweepy installiert man am Einfachsten über „easy_install tweepy„; andere Methoden (Git Repository / Source Archiv) sind unter [3] beschrieben.

TInfoleak wird nicht installiert; das Paket besteht nur aus einem README und dem Python-Skript. Vor dem ersten Start muss man aber noch die oben erwähnten vier Information im Skript eintragen:

# OAuth Settings
# How to obtain the API key:
# Go to https://dev.twitter.com/apps/new
# Copy the consumer key (API key), consumer secret, access token and access token secret
CONSUMER_KEY = “
CONSUMER_SECRET = “
ACCESS_TOKEN = “
ACCESS_TOKEN_SECRET = “

„CONSUMER_KEY“ und „CONSUMER_SECRET“ beziehen sich hier auf „API Key“ und „API Secret“.

Nun sind wir bereit für einen ersten Test. Zuerst einmal rufe ich meine eigenen Infos ab. python tinfoleak.py -n twallutis -b liefert:

+++
+++ tinfoleak v1.2 – „Get detailed information about a Twitter user“
+++ Vicente Aguilera Diaz. @VAguileraDiaz
+++ Internet Security Auditors
+++ 03/02/2014
+++

Looking info for @twallutis

Account info
——————-
Screen Name: twallutis
User name: Thomas Wallutis
Twitter Unique ID: 49129829
Account created at: 06/20/2009
Followers: 279
Tweets: 6751
Location: Germany
Description: Computer Nerd; especially MS Exchange and Security. All tweets are my own opinion. Blame me, not others! I tweet in German and bad English.
URL: http://t.co/KNbtt73v6M
Profile image URL: http://pbs.twimg.com/profile_images/274513070/foto_normal.jpg

Elapsed time: 00:00:00

See you soon!

Nun möchte ich gerne wissen mit welchen Apps ich so meine Tweets verschicke. python tinfoleak.py -n twallutis -s liefert

+++
+++ tinfoleak v1.2 – „Get detailed information about a Twitter user“
+++ Vicente Aguilera Diaz. @VAguileraDiaz
+++ Internet Security Auditors
+++ 03/02/2014
+++

Looking info for @twallutis

100 tweets analyzed

Date Source
————————————
09/11/2014 – TweetDeck
09/07/2014 – TweetCaster for Android
09/02/2014 – Twitter Web Client
09/01/2014 – XING
08/26/2014 – Twitter for Websites
08/26/2014 – Twitter for Android

6 results.

Elapsed time: 00:00:03

See you soon!

Hinweis: es werden die letzten 100 Tweets analysiert. Frage ich z.B. die letzten 1000 Tweets ab, indem ich noch „-c 1000“ anhänge, erhalte ich

Looking info for @twallutis

        1000 tweets analyzed

        Date         Source
        ————————————
        09/11/2014 – TweetDeck
        09/07/2014 – TweetCaster for Android
        09/02/2014 – Twitter Web Client
        09/01/2014 – XING
        08/26/2014 – Twitter for Websites
        08/26/2014 – Twitter for Android
        08/15/2014 – Social Proxy by Mailchimp

Daraus könnte man jetzt schon Informationen für einen gezielten Angriff ableiten. Aber es gibt noch mehr: „python tinfoleak.py -n twallutis -p 1“ durchsucht die Tweets nach Bildern und speichert diese ab („-p 0“ würde sie direkt anzeigen).

python tinfoleak.py -n twallutis -f Blacky“ durchsucht meine Tweets nach dem Wort „Blacky“ und findet ganz korrekt meinen Tweet zum Tod von Joachim Fuchsberger:

+++
+++ tinfoleak v1.2 – „Get detailed information about a Twitter user“
+++ Vicente Aguilera Diaz. @VAguileraDiaz
+++ Internet Security Auditors
+++ 03/02/2014
+++

Looking info for @twallutis

100 tweets analyzed

Date Word [Blacky]
————————————
09/11/2014 – Joachim Fuchsberger ist tot. R.I.P. Blacky!

1 results.

Elapsed time: 00:00:02

See you soon!

Ich kann mir aber auch anzeigen lassen, welche Hashtags ein Account benutzt. Der Twitter-Account @MSCloud hat in den letzten 100 Tweets die folgenden Hashtags benutzt („python tinfoleak.py -n mscloud -h„):

+++
+++ tinfoleak v1.2 – „Get detailed information about a Twitter user“
+++ Vicente Aguilera Diaz. @VAguileraDiaz
+++ Internet Security Auditors
+++ 03/02/2014
+++

Looking info for @MSCloud

100 tweets analyzed

Date Hashtags
————————————
09/11/2014 – #Azure
09/11/2014 – #MachineLearning
09/10/2014 – #Azure #Cloud
09/09/2014 – #24hopquiz
09/08/2014 – #Cloud #MSFT
09/05/2014 – #Podcast
09/05/2014 – #Cloud #Azure
09/04/2014 – #Microsoft #MachineLearning
09/04/2014 – #winning
09/03/2014 – #machinelearning #msft
08/30/2014 – #CANITPRO #ITPRO #Azure #Cloud
08/29/2014 – #BigData
08/27/2014 – #bigdata #PredictiveAnalytics #machinelearning
08/26/2014 – #winserv
08/26/2014 – #SQLServer #Azure
08/25/2014 – #WindowsIntune
08/24/2014 – #azureml
08/23/2014 – #azureml #MLatMSFT
08/22/2014 – #Cloud #Gaming #CloudComputing
08/21/2014 – #Hybrid #Cloud
08/19/2014 – #machinelearning #MLatMSFT #bigdata #datascience
08/15/2014 – #winserv #SysCtr

22 results.

Elapsed time: 00:00:02

See you soon!

Und wie sieht es mit Mentions aus (hier beschränkt auf die letzten 10 Tweets)? „python tinfoleak.py -n twallutis -m -c 10“ liefert uns:

+++
+++ tinfoleak v1.2 – „Get detailed information about a Twitter user“
+++ Vicente Aguilera Diaz. @VAguileraDiaz
+++ Internet Security Auditors
+++ 03/02/2014
+++

Looking info for @twallutis

10 tweets analyzed

Date User mentions
————————————
09/11/2014 – @niggi
09/11/2014 – @andreasdotorg
09/11/2014 – @jnievele
09/11/2014 – @Laberfasel
09/11/2014 – @semibogan @thegrugq @dcuthbert
09/11/2014 – @dcuthbert @semibogan
09/11/2014 – @katerussell @TrendMicro @rik_ferguson

7 results.

Elapsed time: 00:00:01

See you soon!

Daraus lässt sich erkennen, mit wem ich mich so austausche.

Mit dem Parameter „-g“ und einem Dateinamen kann ich die in einem Tweet evtl. vorhandenen Geo-Informationen auslesen und in eine Datei speichern, die ich in z.B. Google Earth öffnen kann. Dann sehe ich, wo die betreffenden Person war, als der Tweet abgesetzt wurde. Ich selber übertrage aber keine Geolocation-Informationen und habe bisher auch keinen Account gefunden, der brauchbare Informationen geliefert hat. Hier aber ein einfaches Beispiel; ich benutze auch den Parameter „-t“, um mir die Uhrzeit des Tweets mit anzeigen zu lassen:

python tinfoleak.py -n scienceporn -g scienceporn.kml -t

liefert

+++
+++ tinfoleak v1.2 – „Get detailed information about a Twitter user“
+++ Vicente Aguilera Diaz. @VAguileraDiaz
+++ Internet Security Auditors
+++ 03/02/2014
+++

Looking info for @SciencePorn

100 tweets analyzed

Date Time Geolocation information
————————————
09/10/2014 – 19:41:58 – London
09/10/2014 – 16:01:05 – London
09/10/2014 – 15:09:58 – London
09/09/2014 – 23:29:23 – London
09/09/2014 – 14:46:38 – London
09/08/2014 – 20:40:19 – London
09/07/2014 – 18:18:21 – London
09/06/2014 – 13:31:55 – London
08/31/2014 – 20:54:45 – London
08/28/2014 – 21:12:39 – London

10 results.

Elapsed time: 00:00:03

See you soon!

Orts- und Zeitangaben können ein Bewegungsprofil des Accounts liefern und auch nur die Uhrzeit ergibt eine interessante Information.

Es gibt auch noch Optionen, um die Suche auf einen bestimmten Zeitraum bezogen auf Tage und Uhrzeit einschränken zu können.

Falls jemand interessante Szenarien findet, würde ich mich auf einen Hinweis in den Kommentaren freuen.

 

[1] https://github.com/tweepy/tweepy
[2] https://dev.twitter.com/discussions/631
[3] https://github.com/tweepy/tweepy/blob/master/INSTALL

 

PowerShell + Exchange 2010: Status der Export Requests abfragen

In Exchange 2010 kann man ja schön aus der PowerShell heraus (entsprechende Rechte vorausgesetzt) Mailboxen in PST-Dateien exportieren. Hierzu erstellt man mit dem Kommando New-MailboxExportRequest einen neuen Export Request, der dann nach kurzer Zeit abgearbeitet wird. Man kann zwar die Requests am Ende mit Remove-MailboxExportrequest wieder löschen; aber es kann Situation geben, in denen man auf die erledigten/fehlgeschlagenen Requests noch zugreifen will (um z.B. den Grund für einen Fehlschlag später nachschlagen zu können). Oder man hat einfach vergessen sie zu löschen;-)

Mit dem Befehl Get-MailboxExportRequest Statistics kann man sich Informationen über einen Export Request anzeigen lassen; anbei ein Beispiel, wobei ich mich auf einige Attribute beschränke. Der Befehl

get-mailboxexportrequest -name MailboxExport7 -mailbox „fabrikam.com/Benutzer/Thomas Wallutis“ | get-mailboxexportrequeststatistics | fl name,status,filepath,sourcemailboxidentity,sourcedatabase, starttimestamp, completiontimestamp, bytestransferred, itemstransferred

führt zu der Ausgabe

Name : MailboxExport7
Status : Completed
FilePath : \\server\pst-files\thomas.wallutis.pst
SourceMailboxIdentity : fabrikam.com/Benutzer/Thomas Wallutis
SourceDatabase : Mailbox Database 0248583270
StartTimestamp : 08.09.2014 14:03:27
CompletionTimestamp : 08.09.2014 14:26:46
BytesTransferred : 1.065 GB (1,143,315,403 bytes)
ItemsTransferred : 10745

„Name“ ist hierbei der Name des Export Requests, wobei Requests je anch Art des Aufrufs auch denselben Namen haben können. Interessant ist hierbei nun das Attribut „StartTimeStamp“, wenn ich mir alle Requests anzeigen lassen will, die zur selben Zeit gestartet sind. „CompletionTimestamp“ ist etwas problematisch, da ein fehlerhafter Export Request (z.B. mit falschem Parameter) auch ind er Liste auftaucht, aber das Attribut ist dann leer.

Das Interessante bei Filtern im Zusammenhang mit PowerShell ist, welcher Filter der gerade Passende ist. Im hierbetrachteten Fall möchte ich alle Requests sehen, die am selben Tag gestartet sind; allerdings ohne Angabe der Uhrzeit. Der passende Vergleichsoperator ist dann „-match“, da er auf passende Teilausdrücke prüft:

get-mailboxexportrequest | get-mailboxexportrequeststatistics | where { $_.StartTimeStamp -match „09.09.2014 „} | fl sourcemailboxidentity, status

Dieser Aufruf gibt mir alle Mailboxen zurück, die am betreffenden Tag exportiert wurden (unabhängig davon ob der Export erfolgreich war).

Vielen Dank an Andreas E. für den Tipp mit „-match“.

 

Buchtipp

Ich bin beim Buchkauf der Typ „Spontankäufer“, der oft ein Buch mitnimmt, weil es interessiert; gleichzeitig weiß ich aber, dass ich es nicht sofort lesen werde. So liegen diese Bücher oft jahrelang im Regal, bis ich in der richtigen Stimmung für das Thema des Buches bin.

Das Buch, das ich diesmal empfehlen möchte, ist aus dem Jahr 2006; wobei ich aber nicht weiß, ob ich es nicht auch später geholt habe. Diesmal geht es um ein Thema, dass ich bisher noch nicht in meinem Blog hatte: Musik. Genauer gesagt geht es um „Heavy Metal“ bzw. „Rock’n’Roll“. Die von der Person gespielte Musik wird allgemien als Heavy Metal bezeichnet, ob wohl der Verfasser der Autobiographie seine Musik als Rock’n’Roll bezeichnet (und angeblich Heavy Metal nicht mag).

Wenn ich nun noch sage, dass es um die Autobiographie des Gründers der (nach eigener Aussage) „lautesten Rockband der Welt“ handelt, dürfte vielen Lesern klars ein, um wen es geht: White Line Fever von Ian Lemmy Kilmister (mit Hilfe von Janiss Garza). Klingelt es immer noch nicht? Dann werfe ich noch mal Motörhead in den Raum…

Auf ca. 280 Seiten schildert Lemmy seine Kindheit, den Werdegang in verschiedenen Bands und die Erlebnisse mit der Musikindustrie.

Eine Warnung vorneweg: wer viel Wert auf „political correctness“ legt, sollte vielleicht vom Lesen Abstand nehmen…

Im ersten Teil des Buches geht es hauptsächlich um Mädchen und Drogen. In der Schule kam Lemmy nicht klar; da zeigt sich schon seine etwas andere Persönlichkeit. Er trifft in dieser Zeit Musiker, die erst später berühmt werden; zu nennen sind da z.B. Jon Lord und die Beatles. Zu den Beatles hat er auch gleich eine schöne Anekdote bereit, denn John Lennon war manchmal gar nicht so friedfertig, wie es den Anschein hatte.

Zu dieser Zeit beschliesst Lemmy, dass auch er Musiker werden will; hierbei ist es interessant zu hören, warum es viele Bands eben nicht geschafft haben. Das muss nicht immer an fehlendem Talent gelegen haben.

In dieser Zeit wird er auch zum ersten Mal Vater, was allerdings nicht beabsichtigt war.

Ich kannte zwar schon die Geschichte, dass Lemmy Roadie bei Jimi Hendrix war; aber getroffen haben sich die Beiden dann wohl doch nie.

Es gibt dann ein paar Stories aus seiner Zeit bei Hawkwind (ja, die mit „Silver Machine“). Interessant ist hierbei, dass der Name „Motörhead“ auf einem Lied von Hawkkind beruht und dass Lemmy vor Hawkkind immer Gitarre gespielt hat. Dass er Bassist geworden ist, war von ihm gar nicht geplant.

Der größere Teil des Buches beschäftigt sich mit seiner Band Motörhead und den wechselnden Bandmitgliedern; ich fand hier die Einblicke in die Mechanismen der Musikindustrie sehr interessant.

Lemmy lässt im Buch auch Einblicke in seine persönliche Gedankenwelt zu, die sehr interessant sind (und vielleicht nicht unbedingt seinem Bild in der Öffentlichkeit entsprechen).

Leider endet das Buch im Jahr 2002; aber vielleicht gibt es ja mal eine Fortsetzung.

Ich habe (dank zweier Zugfahrten) das Buch in einem Tag durchgelesen. Mir hat es sehr gefallen.