Quantcast
Channel: TechNet Blogs
Viewing all 36188 articles
Browse latest View live

Kalenderwoche 4/2018 im Rückblick: Zehn interessante Links für IT-Experten

$
0
0

Office 365 Education で次世代イノベーションに向けた包括的な共同学習機能を提供

$
0
0

(この記事は 2018 1 22 日に Office Blogs に投稿された記事 Office 365 Education delivers the next wave of innovation for inclusive and collaborative learning の翻訳です。最新情報については、翻訳元の記事をご参照ください。)

今回は、Education 担当コーポレート バイス プレジデントを務める Eran Megiddo の記事をご紹介します。

マイクロソフトは、より包括的な共同学習環境を作りだすための取り組みを続けています。今回は、Office 365 Education の強力な機能更新について発表します。OneNote Class Notebook 作成されたノートブックの数は、今年度に入ってから 1,500 万を超えほど急速な広がりを見せ、また Microsoft Teams for Education もリリースされました。これを受けて、生徒、教員、研究機関の皆様の協力の下、Office 365 で引き続き最高の学習成果を挙げられように取り組んできました。今週開催される Bett (教育 ICT に関する展示会) では、Office 365 Education を利用して、教員が生徒一人ひとりと向き合い、学校内の公平性と包括性を保ち、生徒全員が最大の成果を出せるように支援する方法をご紹介します。

今回発表する Office 365 Education の機能更新には、生徒が自分の声を発するだけでレポートを書けるマイクロソフトの学習ツールの最新機能 Dictation in Office や、iPhone/Android 向け Microsoft Teams アプリの課題や共同学習の機能強化のほか、教員の皆様からのご要望が最も多かった、OneNote Class Notebook のページをロックして生徒が読み取り専用でアクセスできる機能などが含まれています。また、英国の Capita SIMS をはじめとする最先端の学習管理システム (LMS) や生徒情報システム (SIS) との課題や成績の統合により、教員の作業時間を短縮することができます。Office 365 Education により、生徒と教員にとって学習の可能性が無限に広がります。この機能を教員と生徒の皆様は無料でご利用になれるのです。

包括的な学習ツールで生徒の成績を向上

クラスは多様化しています。クラスの 73% (英語) で、生徒の読解力の差が 4 学年以上もあり、場合によっては、授業時間の半分がさまざまな支援を必要とする生徒への対応に費やされています。そうした状況で学習ツールが役に立つことは既に実証されており、その成果をたいへん嬉しく思っています。最近の調査によれば、学習ツールの導入によって、能力が異なるすべての生徒の読む速度や読解力が向上し、学習ツールを使用しなかった生徒と比べてテストの成績が 10% 上がった (英語) という結果が出ています。

Word、OneNoteOutlookEdgeOffice Lens 月間アクティブ ユーザー数は合計 700 以上であり、マイクロソフトでは、今後学習ツールの普及が進むことに大きな期待を寄せています。教員、生徒、保護者の皆様からのフィードバックを基に 学習ツールの機能をさらに拡張しました。このたび、いくつかの機能更新について発表します。

  • Dictation in Office (Office でのディクテーション): これはシンプルながらも大きな変化をもたらすツールで、能力が異なる生徒たちが自分の声だけで自由に文字を書けるように支援するものです。Dictation WordWord OnlinePowerPoint、デスクトップ版 OutlookOneNote Windows 10OneNote Online 2 月から 10 以上の言語で提供される予定です。

  • 音声読み上げ: テキストの読み上げ機能です。読み上げられている単語が強調表示されるので、メールの文面を耳で聞き、目で追うことができます。デスクトップ版 Outlook で近日提供開始予定で、30 を超える言語のテキスト読み上げに対応します。
  • イマーシブ リーダー: 出身の異なるさまざまな生徒をさらにサポートするため、イマーシブ リーダーが新たに 10 の言語に対応しました。2018 年に対応プラットフォームを拡大し、間もなく Mac/iPhone/Android Word、デスクトップ版 OutlookiPhone/iPad/Mac OneNote で提供を開始します。

Microsoft Teams の教員および生徒向けの新機能

昨年の Microsoft Teams for Office 365 Education のリリース以来、世界各地の教育者 (英語) Teams をデジタル ハブとして活用し、共同作業を活性化して学習の成果を高めています。最近発表した機能 (英語) に加えて、Teams で教室のセットアップ、共同作業、管理がこれまで以上に簡単になる多数の機能をリリースします。

  • 課題サポート: 生徒は iOS/Android 搭載スマートフォンやタブレットで Teams アプリを利用して次の課題を受け取ったり、新たな課題の通知を受け取ったり、課題を提出したりできます。教員は新しい課題の作成や、内容の確認、編集をどこにいても行えるようになります。また、モバイル検索機能を強化し、生徒と教員の両方が個別の課題をすばやく検索して見つけだせるようになっています。

  • オンデマンド翻訳: 生徒と教員はチャットやチーム チャネルでの会話内容をテナントで設定されている言語に翻訳できるようになります。この強力な機能によって言葉の壁がなくなり、生徒と教員は自分が選んだ言語で不自由なく会話できるようになります。
  • Assignment Analytics (課題の分析): 教員は課題の進行状況をリアルタイムに追跡できます。だれが課題を確認し、だれが提出したのかをひとめで確認できます。
  • Join Codes (受講コード): 生徒を授業に招待できます。教員は貴重な時間を無駄にせずに済みます。この機能を使用すれば同僚と難なく共同作業を始められるので、教職員の間や PLC チームでも役立つでしょう。
  • Reusing a Team as a Template (Team をテンプレートとして再利用): チームを新規作成する際に既存のチームを再利用できます。チャネル、タブ、チーム設定、アプリ、ユーザーなど、再利用する項目を自由に選択できます。
  • Decimal Grading (デシマル グレーディング): 教員は好みの形式で成績をつけることができます。

OneNote の教員向けの新機能

OneNote にも役立つ新機能が追加されました。これは教員の皆様に喜んでいただけることと思います。

  • Capita SIMS: Class Notebook の機能更新の 1 つが課題および成績を LMS および SIS と統合する機能です。英国の Capita SIMS (英語) など、最も広く利用されている 35 を超える LMS SIS と統合されます。この機能統合は OneNote for Windows 10OneNote OnlineiPad OneNote で利用可能で、管理負担を軽減し、教員の時間を節約します。
  • Page Locking (ページのロック): 授業のワークフローをさらにシンプルにするために、教員の皆様からのご要望が最も多かった Class Notebookページのロック機能が搭載されました。生徒にフィードバックした後に、ページを読み取り専用としてロックできます。
  • インタラクティブな電卓: STEM 教員向けの人気アプリケーションが揃ったインタラクティブな電卓 Desmos (英語) OneNote で使えるようになりました。
  • 新しいステッカー: 新しくて楽しい 4 つのステッカー パック (Feathered FriendsScienceCircus AnimalsArrows) も追加しました。

Teams を PowerPointMicrosoft Stream と統合

強化された共同学習機能はこれだけではありません。Teams PowerPoint Microsoft Stream の連携によって、教員と生徒はわずかな作業で手軽にインタラクティブなコンテンツを作成、共有できるようになります。

教員は PowerPoint で没入型の授業コンテンツ (インク、アニメーション、音声/動画のナレーションなどを含む) を作成し、Microsoft Forms で作ったクイズを追加して Stream チャネルに動画として公開し、それを Teams のクラスから生徒に配信できます。Stream は動画に自動で字幕を追加してくれるので、アクセシビリティが向上します。

今回ご紹介した機能だけでなく、その他にも多数の機能を Bett で発表することをとても楽しみにしています。包括的な共同学習環境を通じて、Office 365 Education はあらゆるタイプの生徒が最高の成果を出すのを支援することができると考えています。Microsoft Education の新たな機能更新の詳細については、Windows ブログ (英語) を参照してください。

— Eran Megiddo

提供予定:

  • Dictation in Office: 今月から Office Insider プログラムで提供を開始し、翌月以降 Office 365 のすべてのお客様に提供を開始する予定です。
  • 音声読み上げ (デスクトップ版 Outlook 向け): 今月から Office Insider 向けの提供を開始し、翌月以降 Office 365 のすべてのお客様に提供を開始する予定です。
  • イマーシブ リーダー (Mac/iPhone/Android Word 向け): 今月から Office Insider プログラムで提供を開始し、翌月以降 Office 365 のすべてのお客様に提供を開始する予定です。
  • イマーシブ リーダー (iOS OneNote 向け): 2018 年 2 月初めから Office 365 のお客様に提供を開始し、2018 3 月に提供を終了する予定です。
  • イマーシブ リーダーの音声合成、音節、品詞の新たな言語対応: 本日から開始し、2018 2 月まで提供予定です。
  • iOS/Android 版 Teams の機能更新と Decimal Grading: 本日から全世界で提供を開始します。Assignment AnalyticsJoin CodesReuse a Team as a Template は、本日から Teams for Education ベータ プログラムにご登録の Office 365 Education のお客様に向けて提供を開始します。2018 年春までに全世界で提供を開始する予定です。
  • OneNote の課題および成績 Capita SIMS 統合: 2018 2 月に提供を開始する予定です。OneNote for Windows 10OneNote OnlineOneNote iPad 向けの課題と提供の統合は 2018 2 月に全世界で提供を開始する予定です。
  • OneNote Desmos の統合: 本日から全世界で Office 365 のすべてのお客様に提供を開始します。
  • OneNote Class Notebook Page Locking: 2018 年 2 月にプレビュー テストを開始し、翌月以降に全世界で提供を開始する予定です。
  • PowerPoint を録画して Stream に直接公開する機能: Office 365 のすべてのお客様に提供を開始しています。Forms の統合などその他の機能については今年中に提供を開始する予定です。

今週開催の Bett に参加できず、Microsoft Education のその他の機能更新について詳細が知りたいという方は、こちら (英語) で概略をご覧ください。

※ 本情報の内容 (添付文書、リンク先などを含む) は、作成日時点でのものであり、予告なく変更される場合があります。

SCOM Web コンソールへの接続について

$
0
0

こんにちは、日本マイクロソフト System Center Support Team の三輪です。

本日は、System Center 2016 Operations Manager の Web コンソールへ、クライアントからの接続が正常に行えない場合についての確認ポイントをご案内致します。

[確認ポイント]
Web コンソールをインストールしたにも関わらず、クライアント端末から Web コンソールを開くとエラー 500 が発生して正しく開かない場合、以下の点をご確認下さい。

- Web コンソールの認証モード
- Internet Explore の設定
- SPN、委任の設定

 

各ポイントついてご案内致します。

[Web コンソールの認証モード]
Web コンソールをインストールする場合、”混合認証を使用” “ネットワーク認証を使用” の何れかの設定にてインストールすることとなります。
イントラネット環境では混合認証を選択することとなり、エクストラネット環境では、ネットワーク認証を使用することとなります。

- Operations Manager の Web コンソールのセキュリティ
https://technet.microsoft.com/ja-jp/library/hh467899(v=sc.12).aspx
> イントラネット環境では混合認証を、エクストラネット環境では、ネットワーク認証を使用します。

この際、”混合認証” を選択されることが多いと存じますが、この認証モードを選択しても、Windows 認証が正常に行われない可能性があります。
構成ファイルを手動で書き換えます。

1. Web コンソールサーバーにログインします。
2. 以下のフォルダを確認します。

> C:Program FilesMicrosoft System Center 2016Operations ManagerWebConsoleMonitoringView

3. 上記フォルダ内の "Web.Config" ファイルをバックアップし、以下の様に編集します。

*************
<system.web>
<!--
APPLICATION AUTHENTICATION MODE:

For "Mixed" Authentication Mode:
- Set the authetication/mode to "Windows".
- Disable the Anonymous Authetication for the OperationsManager vroot in IIS Manager.
- Enable the Windows Authetication for the OperationsManager vroot in IIS Manager.

For "Network" Authentication Mode:
- Set the authetication/mode to "None".
- Enable the Anonymous Authetication for the OperationsManager vroot in IIS Manager.
- Disable the Windows Authetication for the OperationsManager vroot in IIS Manager.
-->
<authentication mode="Windows"/>
<identity impersonate="false"/>
*************

この、太字箇所を、以下の様に変更します。
変更後、IIS のリセットを実施します。

*************
<authentication mode="Windows"/>
<identity impersonate="true"/>
*************

 

[Internet Explore の設定]
IE の設定で、そもそも正常に接続できていない場合も想定されます。
セキュリティの設定をご確認下さい。

1. [インターネットオプション] から、[セキュリティ] タブを開きます。
2. Web コンソールが存在する任意のゾーンに対して、”サイト” をクリックします。
3. ポップアップウィンドウ内 “Web サイト" へ "htttp://<SCOM Web サーバー名>" に関する設定を追加しウィンドウを閉じます。
4. [レベルのカスタマイズ] をクリックします。
5. 中央にある [アクティブスクリプト] を有効とします。
5. 最下部の [ユーザー認証] にて "ユーザー名とパスワードを入力してログオンする" を設定します。
6. [OK] にてインターネットオプションを閉じ、IEを再起動します。

上記設定にて、IE にて Web コンソールサーバー上のWeb ページへのアクセスを可能とし、また Web コンソールを開く際に Windows 認証のログオンウィンドウが表示されます。
SCOM に対して接続権限があるアカウントを入力して Web コンソールへログインします。

ご参考: オペレーション コンソールと Web コンソールに接続する方法 - Web コンソールに接続する方法
< https://docs.microsoft.com/ja-jp/system-center/scom/manage-consoles-how-to-connect?view=sc-om-2016#how-to-connect-to-the-web-console >

 

[SPN、委任の設定]
他にも、インストール時の設定や構成により、SPN の追加、委任の設定が必要となる場合があります。
詳細については、以下の情報をご覧下さい。

ご参考: Operations Manager Web コンソールをインストールする方法
< https://docs.microsoft.com/ja-jp/system-center/scom/deploy-install-web-console?view=sc-om-2016 >

Windows 10 クライアントから RD Gateway 経由で RDP 接続できない。

$
0
0

皆さん、こんにちは。

今回は Windows 10 クライアントから RD Gateway 経由で RDP 接続できない事象につきましてご紹介させていただきます。

Windows Server 2016 の RD Gateway では Websocket プロトコルを使用できるようになりました。

これまでの RD Gateway で使用されていた HTTP (HTTPS) プロトコルでは、2 セッション接続を張る必要がございましたが、Websocket プロトコルにより 1 セッションの接続のみで通信が可能となります。

この RD Gateway への Websocket プロトコルでの接続は Windows 10 でサポートされております。
RD Gateway への接続を行うクライアントが Windows 10 である場合は、既定で Websocket プロトコルでの接続を試行します。
* Windows 8.1 以前では Websocket プロトコルでの RD Gateway接続は試行されません。

ところが、途中の Proxy などの ネットワーク デバイス上でこの通信のパケットが破棄されることが報告されており、
この場合は RD Gateway 経由での接続ができません。

このような環境では、以下のレジストリを Windows 10 クライアントで設定することで回避が可能です。

キーのパス: HKEY_LOCAL_MACHINESoftwareMicrosoftTerminal Server Client
キーの名前: DisableWSTunnel
キーの種類: DWORD
キーの値: 1
*既定で存在しませんので、作成してください。
*OS の再起動は不要です

このレジストリ設定を行うと、Windows 10 側からの Websocket の試行を行わず、以前までの HTTP 接続を試行するような動作となります。

Windows 10 からのみ RD Gateway 経由の接続ができない場合、上記レジストリをお試しいただければ幸いです。

WSUS 上の Windows 10 の機能更新プログラムのタイトルについて

$
0
0

みなさま、こんにちは。WSUS サポート チームです。

 

WSUS 上では、機能更新プログラムは下記のように似たようなタイトルの機能更新プログラムが 2 つの表示されます。今回はこの 2 つのどちらを承認すべきか悩む方に向けたブログとなります。

 


 

上記の 2 つの機能更新プログラムの違いは、配信対象のクライアントのライセンスの違いとなります。上記の例では、ボリューム ライセンスを利用しているクライアントに対してはビジネス エディションを、それ以外のリテール ライセンス等を利用しているクライアントにはコンシューマー エディションを配信する必要があります。

 

このため、WSUS 配下にボリューム ライセンスを利用しているクライアントと、リテール ライセンスを利用しているクライアントが両方いる場合には、2 つの機能更新プログラム共に承認していただく必要があります。

 

また、機能更新プログラムのタイトルは、以下のようにバージョンによっても少し異なるため注意してください。

 

>> ボリューム ライセンスのクライアントを対象にした機能更新プログラムのタイトル例

Windows 10 (ビジネス エディション)、バージョン 1709ja-jp の機能更新プログラム

Windows 10 Enterprise、バージョン 1703ja-jp の機能更新プログラム

Windows 10 Enterprise、バージョン 1607ja-jp の機能更新プログラム

 

>> リテール ライセンス等のクライアントを対象にした機能更新プログラムのタイトル例

Windows 10 (コンシューマー エディション)、バージョン 1709ja-jp の機能更新プログラム

Windows 10 Enterprise、バージョン 1703ja-jp、製品版の機能更新プログラム

Windows 10 Enterprise、バージョン 1607ja-jpRetail の機能更新プログラム

 

WSUS での Windows 10 管理まとめ

$
0
0

こんにちは。WSUS サポート チームです。

Windows 10 がリリースされてから月日が立ち、WSUS Windows 10 を管理されるお客様も増えてきています。

このブログ記事では、そんなお客様に向けて Windows 10 の管理に関してこれまで公開してきたブログや公開情報を纏めて紹介します。これからも順次更新していきますので、乞うご期待ください!

 

Windows 10 のサポート モデル

LTSC 以外の Windows 10 を管理する場合には、WaaS のサポート モデルに沿って、必ず継続的にアップグレードをする必要があります。基本的な WaaS (Windows as a Service) の考え方は、下記の公開情報にて紹介しているので、ご参考としてください。

 

- サービスとしての Windows のクイック ガイド

https://docs.microsoft.com/ja-jp/windows/deployment/update/waas-quick-start

 

また、各 Windows 10 バージョンのサポート期間は下記にて紹介しています。

 

- Windows ライフサイクルのファクト シート

https://support.microsoft.com/ja-jp/help/13853/windows-lifecycle-fact-sheet

 

各バージョンや更新プログラムのリリース履歴については、下記の公開情報を用意しています。

 

- Windows 10 のリリース情報

https://technet.microsoft.com/ja-jp/windows/release-info.aspx

 

- Windows 10 の更新履歴

https://support.microsoft.com/ja-jp/help/4018124/windows-10-update-history

 

 

設計時のTips

 

WSUS サーバー側のTips

WSUS からアップグレードを配信するためには、事前に準備が必要です。詳細は下記ブログで紹介しています。

 

- WSUS サーバーからの Windows 10 のアップグレードの配信

https://blogs.technet.microsoft.com/jpwsus/2016/02/11/wsus-windows-10/

 

また、各 OS の WSUS の最新バージョンについては下記ブログで紹介しているため、基本的に最新バージョンを利用することをご検討ください。

 

- WSUS サーバーのバージョン番号について

https://blogs.technet.microsoft.com/jpwsus/2016/02/16/wsus-18/

 

アップグレードや更新プログラムの累積化に伴って Windows 10 では更新プログラムのサイズが大きくなっています。WSUS 利用時のネットワーク帯域制御方法については下記で紹介しています。

 

- WSUS 環境のネットワーク帯域制御について

https://blogs.technet.microsoft.com/jpwsus/2012/03/15/wsus-4/

 

- Windows 10 バージョン 1607 の環境にて BranchCache を利用する際の条件

https://blogs.technet.microsoft.com/jpwsus/2017/03/15/win10-1607-branchcache/

 

- 配信の最適化について #1 概要篇

https://blogs.technet.microsoft.com/jpwsus/2017/09/04/aboutdo_1/

 

Windows 10 を管理するためにオプションにて選択する製品等については、下記にて紹介しています。

 

- WSUS で選択する Windows 10 の製品分類について

https://blogs.technet.microsoft.com/jpwsus/2016/09/23/wsus-windows-10-product/

 

- Windows 10 LTSB の 更新プログラムを WSUS で同期する際の注意事項について

https://blogs.technet.microsoft.com/jpwsus/2017/08/09/windows-10-ltsb/

 

- WSUS 上の Windows 10 の機能更新プログラムのタイトルについて

https://blogs.technet.microsoft.com/jpwsus/2018/01/26/upg-title/

 

クライアント側の Tips

クライアント側での自動更新の動作の制御については、下記ブログで紹介しています。

 

- Windows 10 の Windows Update の自動更新設定

https://blogs.technet.microsoft.com/jpwsus/2015/09/17/windows-10-windows-update/

 

また、WSUS クライアントのグループ ポリシーの動作については、以下をご参考としてください。

 

- WSUS クライアントのグループ ポリシー : その 1 – 基本編

https://blogs.technet.microsoft.com/jpwsus/2015/03/24/wsus-1/

 

- WSUS クライアントのグループ ポリシー : その 2 – Windows 8 / Windows Server 2012 以降編

https://blogs.technet.microsoft.com/jpwsus/2015/03/24/wsus-2-windows-8-windows-server-2012/

 

- WSUS クライアントのグループ ポリシー : その 3 – Windows 10 基本編

https://blogs.technet.microsoft.com/jpwsus/2018/01/24/wsus-gp3/

 

WSUS サーバーとクライアントの間にプロキシが存在する場合には、必ずネットワーク環境に合わせて適切にプロキシを構成する必要があります。下記の情報をご確認ください。

 

- プロキシ サーバー経由での Windows Update へのアクセスについて

https://blogs.technet.microsoft.com/jpwsus/2017/05/17/proxy-settings/

 

 

よくお問い合わせいただく既知の問題

よくお問い合わせをいただく既知の問題については、ブログを用意していますのでご参考としてください。

 

WSUS サーバー側の問題

 

- Windows 10 / Windows Server 2016 を管理している環境で WSUS サーバー の負荷が高騰する

https://blogs.technet.microsoft.com/jpwsus/2017/08/30/win10-high/

 

- WSUS 上で KB4022730 のダウンロードに失敗する

https://blogs.technet.microsoft.com/jpwsus/2018/01/16/wsus-kb4022730/

 

クライアント側の問題

 

- Windows 10 バージョン1607 で更新プログラム適用後の自動再起動が実施されない

https://blogs.technet.microsoft.com/jpwsus/2017/07/10/win10-reboot/

 

- Windows 10 機能更新プログラムインストール後の再起動について

https://blogs.technet.microsoft.com/jpwsus/2017/07/07/update-and-restart/

 

- Windows 10 の WSUS クライアントが Windows Update から更新プログラムを取得するようになってしまう事象について

https://blogs.technet.microsoft.com/jpwsus/2016/11/15/windows-10-1607-wufb/

 

- Windows 10 バージョン 1607 および Windows Server 2016 の環境で、更新プログラムのダウンロードが途中から進まなくなる問題について

https://blogs.technet.microsoft.com/jpwsus/2016/10/28/win10-stop-download/

※ この事象については、こちらの公開情報でも紹介しております。

 

- 「削除の承認」が Windows 10 / Windows Server 2016 のクライアントに反映されない事象について

https://blogs.technet.microsoft.com/jpwsus/2017/09/04/cant-delete-win10/

 

- Windows 10 ベースのコンピューターが WSUS コンソールに表示されない場合がある

https://blogs.technet.microsoft.com/askcorejp/2017/04/21/windows-10-%E3%83%99%E3%83%BC%E3%82%B9%E3%81%AE%E3%82%B3%E3%83%B3%E3%83%94%E3%83%A5%E3%83%BC%E3%82%BF%E3%83%BC%E3%81%8C-wsus-%E3%82%B3%E3%83%B3%E3%82%BD%E3%83%BC%E3%83%AB%E3%81%AB%E8%A1%A8%E7%A4%BA/

※ この事象については、こちらの公開情報でも紹介しております。

 

Update Remediation Job Fails At Reboot Computer Step in SCVMM

$
0
0

Recently I was working with a customer on a update remediation issue in SCVMM 2012 R2. When remediate operation is performed on the hyper v host.  Scvmm installs the updates and waits for reboot of the host. The step reboot computer use to fail. However, the hyper v host gets rebooted but still scvmm was waiting around 35 mins and eventually it times out with below error.

Error (20502)
Virtual Machine Manager failed to restart the computer mkbhost2.mkb.com.
Recommended Action
Restart the computer somtx1.hoster.cool manually.

Error (2927)
A Hardware Management error has occurred trying to contact server mkbhost2.mkb.com.
WinRM: URL: [http://somtx1.hoster.cool:5985], Verb: [INVOKE], Method: [ScanForUpdates], Resource: [http://schemas.microsoft.com/wbem/wsman/1/wmi/root/scvmm/UpdateManagement]
Unknown error (0x80338043)

Recommended Action
Check that WinRM is installed and running on server somtx1.hoster.cool. For more information use the command "winrm helpmsg hresult" and http://support.microsoft.com/kb/2742275.

To understand why scvmm was waiting and what it does during that time. I took working scvmm etl trace. You can use the below article to enable etl tracing on scvmm.

https://support.microsoft.com/en-us/help/2913445/how-to-enable-debug-logging-in-virtual-machine-manager

In the trace i could see it waits for the host to back online and then tries to connect to wmi service on the hyper v host.

With that clue i tried to test the WMI connectivity from SCVMM to hyper v host in customer environment. I used "wbemtest" utility to test it. Go to run and type "wbemtest" on scvmm server and provide the hyper v host name as below. Click on connect, it failed with below error.

Our internal networking team helped us to find out the cause. It turns out that the below updates were missing on VMM server. However, in your case the cause might be different, it may be firewall, wmi port block or missing updates. Remediation to work the scvmm should connect to wmi service on the hyper v host and vice versa.

http://support.microsoft.com/kb/3000850 - November 2014 update rollup for Windows RT 8.1, Windows 8.1, and Windows Server 2012 R2                             
http://support.microsoft.com/kb/3013769 - December 2014 update rollup for Windows RT 8.1, Windows 8.1, and Windows Server 2012 R2                            
http://support.microsoft.com/kb/3172614 - July 2016 update rollup for Windows RT 8.1, Windows 8.1, and Windows Server 2012 R2                                
http://support.microsoft.com/kb/3179574 - August 2016 update rollup for Windows RT 8.1, Windows 8.1, and Windows Server 2012 R2                              
http://support.microsoft.com/kb/4054519 - December 12, 2017-KB4054519 (Monthly Rollup) 

After installing the above updates on scvmm server the reboot computer job succeeded but scan job was failing. So we ended up installing the above updates on hyper v host as well.

 

“Cannot find the location of the Central Management Store in Active Directory” error on your Skype For Business Pool

$
0
0

Recently I faced an issue in which when trying to execute any command related to the CMS on an Enterprise Pool, I was getting the same error or a blank result:

"Cannot find the location of the Central Management Store in Active Directory"

The situation was worrying me because Skype For Business Server was not able to download the latest copy of the topology using Topology Builder, and same was happening when running Export-CsConfiguration.

When trying to run "Install Local Configuration" from the Deployment Wizard I was returned the same error, which was stating the CMS couldn't be found.

Curiously, despite all this, the services were up and running on all Front-End, and when running Get-CsManagenmentStoreReplicationStatus, the replication was set on TRUE for all of them.

If you face this situation you'll have to first check two key points. What do Get-CsManagementConnection and Get-CsConfigurationStoreLocation return? If the answer is blank or an error similar to the one below, it means that the topology configuration was removed from AD and needs to be pointed again on the SQL backend server.

You can confirm this by connecting to your DC and navigate to the Topology Settings using ADSI Edit. If the Topology Settings folder has no data, our issue is confirmed.

In order to resolve this problem, you will have to execute the two following commands:

Set-CsManagementConnection -StoreProvider Sql -Connection <your SQL Backend FQDN>

Set-CsConfigurationStoreLocation -SqlServerFqdn <your SQL Backend FQDN>

After doing so you'll see the Get commands will be restored successfully, and the topology settings will be restored on AD.

 

Notice that this is meant to do for backends configured on its default instance. If you have a named custom instance, the paths on the commands shared could slightly change.


How to document your infrastructure in an XML file by using parallelexecution powershell module

$
0
0

Hello again

Today, I will showcase how we can leverage the parallelexecution powershell module, to document a whole environment.

We will use advanced features such as the usage of commands files and of parallel script execution. For this example, we will work against an Active Directory environment, but it could be easily modified to document any other kind of infrastructure that supports Powershell such as Exchange, Sharepoint, Lync and many others.

IMPORTANT NOTE: This code is a sample that will probably crash due to an out of memory condition if executed as is against a big enterprise Active Directory, so please use it carefully and understand what you are doing before running against a production AD)

All code I will use for this example is published on github here:

https://github.com/fernandorubioroman/DocumentAD/

The main code we will use is this


#requires -modules parallelexecution

#requires -version 3

#First we get an array of Domains, of all DCs in the Forest and of the best ones (in the same site as we are) to collect extensive domain data from them

$domains=(Get-ADForest).domains

$dcs=@()

$bestdcs=@()

$date=get-date -Format yyyyMMddhhmm

foreach ($domain in $domains){

$dcs+=get-addomaincontroller -filter * -server $domain

$bestdcs+=get-addomaincontroller -server $domain

}

#Then we get the information per domain

$bestdcs| select -ExpandProperty hostname| Start-ParallelExecution -InputCommandFile .commandDomain.csv -OutputFile ".output_domains_$($date).xml" -TimeoutInSeconds 900 -Verbose

#Then we get the information we want per DC

$dcs| select -ExpandProperty hostname | Start-ParallelExecution -InputCommandFile .commandDC.csv -OutputFile ".output_DCs_$($date).xml" -TimeoutInSeconds 900 -ScriptFolder .scripts -Verbose

#we compress and delete the output files

Get-ChildItem -Path . |where{$_.Extension -eq ".xml"} | Compress-Archive -DestinationPath .DocumentedAD$date.zip

Get-ChildItem -Path . |where{$_.Extension -eq ".xml"} | remove-item


Let understand that code line by line

#requires -modules parallelexecution

#requires -version 3

As we said we will use the parallelexecution module, so if you have not yet installed it in your collection machine, go review this article.

https://blogs.technet.microsoft.com/fernandorubio/2018/01/25/powershell-remoting-made-easy-with-parallelexecution-module/

We also need version 3 of PowerShell (but really, on the machine you use to launch scripts you should be using PowerShell 5 anyway)

#First we get an array of Domains, of all DCs in the Forest and of the best ones (in the same site as we are) to collect extensive domain data from them

$domains=(Get-ADForest).domains

$dcs=@()

$bestdcs=@()

$date=get-date -Format yyyyMMddhhmm

foreach ($domain in $domains){

$dcs+=get-addomaincontroller -filter * -server $domain

$bestdcs+=get-addomaincontroller -server $domain

}

 

We first get the list of domains from the AD forest, then we initialize a couple of other arrays, $dcs will be used to store all Domain Controllers in the forest, $bestdcs will contain one Domain Controller per domain that is near (in the same site) that the machine we are using to collect extensive AD data that is replicated at the Domain level and that therefore we just need to collect once for Domain.

We also get the current date and time, so that output files are timestamped and finally, we iterate over the domains populating the dcs and bestdcs arrays.

#Then we get the information per domain

$bestdcs| select -ExpandProperty hostname| Start-ParallelExecution -InputCommandFile .commandDomain.csv -OutputFile ".output_domains_$($date).xml" -TimeoutInSeconds 900 -Verbose

 

Now, is when the magic begins. We pipe the list of the preferred DCs per domain (as objects with lots of properties), we extract from there the hostnames as that is all we are interested about (select -ExpandProperty hostname) and then call start-parallelexecution using that list of machines as input. Let´s understand which parameters we are using

-InputCommandFile .commandDomain.csv

So instead of asking our engine to execute a single command, we use a commands file. This is a # separated file (we didn´t use “,” or “;” as these characters are used from time to time inside powershell commands) In our example commandDomain.csv looks like this


propertyname#command#Script#Description

AllADObjects#get-adobject -filter * -properties *#false#Get all data about all AD objects, do not launch this on a huge enterprise

Users#get-aduser -filter * -properties *#false#Get alldata about all users

Machines#get-adcomputer -filter * -properties *#false#Get all data about all machine objects

Groups#get-adgroup -filter * -properties *#false#Get all data about all group objects

GPOs#get-gpo -all#false#get the list of all GPO objects

GPOReport#Get-GPOReport -All -ReportType xml#false#get an xml report representing all existing GPOs

DCInfo#get-addomaincontroller -filter *#false#retrieves the list of dcs in the domain in the domain

FineGrainedPasswordPolicy#Get-ADFineGrainedPasswordPolicy -Filter *#false#gets the fine grained password policies

#ADOptionalFeature#Get-ADOptionalFeature -filter *#false#get the enabled optional features such as recycle bin

OUs#Get-ADOrganizationalUnit -filter * -Properties *#false#get the list of all OUs

RootDSE#Get-ADRootDSE#False#Get the root DSE info

ServiceAccounts#Get-ADServiceAccount -Filter * -Properties *#False#Get all AD service accounts info

Trusts#Get-ADTrust -Filter * -Properties *#False#get all trust information

ADReplicationMetadata#Get-ADReplicationPartnerMetadata -Target $env:computername#False#Get Ad replication metadata


 

It´s easier to read or modify it if you open it in Excel and use # as separator

Much better. Our commands file has 4 columns. Propertyname is just a name, that will be used to store the results. (more on this later), Command is the actual command or script we want to execute. If command as in this example we just put there the actual code we want executed, if script we put the name of the script. The script columns specify if we are running a command (false) or a script (true). And finally, description is a text that helps describing the command we are executing.

-OutputFile ".output_domains_$($date).xml"

The next parameter is the output file we want to extract the collected info to, we could just pipe this to the console, or to a variable but in this case, we want to save the collected info. We include the date on it so that if you end up creating a scheduled task for this, it is easy to take your time machine and see how the environment was at a specific date.

-TimeoutInSeconds 900

This parameter specifies for how long we are going to wait for each command to finish before failing.

-Verbose

This parameter specifies if we want verbose output, so instead of running silently you get an output such as this:

Going back to our code…

#Then we get the information we want per DC

$dcs| select -ExpandProperty hostname | Start-ParallelExecution -InputCommandFile .commandDC.csv -OutputFile ".output_DCs_$($date).xml" -TimeoutInSeconds 900 -ScriptFolder .scripts -Verbose

Very similar to the previous one, the only differences is that we run this against all DCs in the forest, that we use a different commands file, commandsDC.csv and that we are specifying a scripts folder

The commandsDC.csv used looks like this


propertyname#command#Script#Description

Fixes#get-hotfix | Select-Object PSComputerName,InstalledOn,HotFixID,InstallDate,Description#False#Get the list of installed hotfixes #

Services#get-service#False#Get the services information

ScheduledTasks#get-scheduledtask#False#Get the scheduled tasks

RegAssociationsMachine#get-childitem -path "HKLM:SoftwareClasses"#False#gets the machine file associations

Drivers#get-windowsdriver -online#False#Get the list of third party drivers running on the machine

Audit#auditpol.ps1#true#get the audit policy of the machine using auditpol

OSInfo#get-wmiobject Win32_OperatingSystem#False#Get the OS information and version#

ComputerInfo#get-wmiobject Win32_ComputerSystem#False#Get the machine name, manufacturer, model, etc#

DiskInfo#Get-wmiobject Win32_logicaldisk |where-object{$_.drivetype -eq 3}#False#Get the disk information

##############Network Config##############

IPInfo#get-wmiobject Win32_NetworkAdapterConfiguration -Filter IPEnabled=TRUE #False#Get the ip network card information#

Shares#get-wmiobject Win32_share#False#Get the list of shares

netstat#get-NetTCPConnection#False#Get the opened network connections

routeprint#get-netroute#false#gets the machine routes

HostParsed#hostparsed.ps1#true#Gets the parsed contents of the host file

##############Certificates##############

RegCertificatesmachine#get-childitem -path "HKLM:SoftwarePoliciesMicrosoftSystemCertificates" -recurse#False#get the machine info about certificates from registry

CertificatesAuthroot#get-childitem -path cert:LocalMachineAuthroot#False#get the certificates in the authroot container

certificatesroot#get-childitem -path cert:LocalMachineroot#False#get the certificates in the root container

##############Miscelaneous##############

EnvironmentVariables#Get-ChildItem Env:#False#Get the environment Variables

ADReplicationConnection#Get-ADReplicationConnection -Server $env:COMPUTERNAME#false#get the replication connections


A couple of important things about the commands file.

First notice that lines starting with # are ignored so you can use that to split the files in parts or to disable specific checks.

Then look at this line

Audit#auditpol.ps1#true#get the audit policy of the machine using auditpol

Here is an example of a script being called, instead of the command we specify the name of the script (the path is specified in the scriptsfolder parameter) and the third column is set to true because this is an script. (The actual code of the auditpol script that I use to parse the audit policy is on the github I referenced at the beginning of this article)

 

#we compress and delete the output files

Get-ChildItem -Path . |where{$_.Extension -eq ".xml"} | Compress-Archive -DestinationPath .DocumentedAD$date.zip

Get-ChildItem -Path . |where{$_.Extension -eq ".xml"} | remove-item

These last lines retrieve the generated xml files, compress them for future reference and then deletes the original files.

Well, that is, piece of cake, right? The question is what we can do with the collected info. To load the output to a variable we can run:

$domainsdata=Import-Clixml -Path .output_domains_201801261041.xml

$DCdata=Import-Clixml -Path .output_DCs_201801261041.xml

Then, we can access the collected information such as in the picture

The collected data, is a hashtable, for a more detailed explanation about hashtables check:

https://docs.microsoft.com/en-us/powershell/module/microsoft.powershell.core/about/about_hash_tables?view=powershell-5.1

in simple terms, a hashtable is a indexed collection of keys and values. In our case, the keys are the name of the machines we have been working with,and the values are powershell objects, that will have one property per each one of the commands we executed against them (named using the propertyname, first column of the csv file). The content of each property will be the result of the command we executed against that machine.

For example running

$DCdata.'rootdc1.contoso.com'.fixes | select HotfixID,Installedon | ft *

That’s all for today, hope you have found it interesting. I will keep updating the csv files that document the AD infrastructure, if you have any suggestion please let me know!

Cheers

Fernando

Discos Administrados en Máquinas Virtuales.

$
0
0

Hola:

 

Un tema que ha levantado interés debido a su aparición en la calculadora, son los discos administrados para las máquinas virtuales.

 

Los discos administrados simplifican el manejo de discos para las MV de Azure, ya que administra las cuentas de almacenamiento asociados a la máquina virtual. Solo especificamos si es Premium o Standard y el tamaño del disco, y Azure lo crea y administra.

 

Managed Disks controla automáticamente el almacenamiento en segundo plano. Anteriormente, era preciso crear cuentas de almacenamiento que contuvieran los discos (archivos VHD) de las máquinas virtuales de Azure.

Al escalar verticalmente, era preciso asegurarse de que se habían creado cuentas de almacenamiento adicionales, para que no se superase el límite de IOPS de almacenamiento con cualquiera de los discos. Si Managed Disks controla el almacenamiento, desaparecen los límites de la cuenta de almacenamiento (por ejemplo, 20 000 IOPS por cuenta).

Managed Disks le permitirá crear un máximo de 10 000 discos de máquina virtual en suscripción, lo que le permitirá crear miles de máquinas virtuales en una sola suscripción. Esta característica también aumenta la escalabilidad de los conjuntos de escalado de máquinas virtuales (VMSS), ya que permite crear hasta mil máquinas virtuales en un VMSS con una imagen de Marketplace.

 

Los discos de Azure están diseñados para ofrecer una disponibilidad del 99,999 %. Descanse tranquilo sabiendo que tiene tres réplicas de sus datos que aportan alta durabilidad. Si una o incluso dos réplicas experimentan problemas, las réplicas restantes garantizan la persistencia de los datos y una gran tolerancia a errores.

 

Los discos administrados pueden ser Standard o Premium al igual que los discos no administrados, con una diferencia importante, los discos administrados, ya sean standard o premium son de tamaños predefinidos y fijos de modo que se cobra por el disco completo desde un principio.

 

 

 

Podríamos decir que la diferencia entre los discos administrados y no administrados que genera esta diferencia en el esquema de costos, ya que en los no administrados standard pagamos por el espacio que utilizamos sin importar el tamaño definido del disco, es comparable a un esquema de almacenamiento en sitio, donde tenemos una SAN que sería equivalente a nuestra cuenta de almacenamiento con un arreglo de discos físicos donde definimos discos lógicos (LUNs) que son los discos de las Máquinas virtuales, estos discos lógicos están alojados en múltiples discos físicos, es por eso que solo pagamos lo que usamos.

Mientras que los discos administrados, son discos completos asignados a la máquina virtual, por lo cual pagamos el disco completo.

 

Para la documentación oficial y la explicación detallada pueden ir a los siguientes enlaces:

 

Introducción a Azure Managed Disks

https://docs.microsoft.com/en-us/azure/storage/storage-managed-disks-overview

 

Azure Managed Disks Deep Dive, Lessons Learned and Benefits

https://blogs.msdn.microsoft.com/igorpag/2017/03/14/azure-managed-disks-deep-dive-lessons-learned-and-benefits/

 

Gracias y esperamos que sea de su agrado.

 

Saludos

 

Mariano Carro

 Enviar correo a latampts

 

 

Differences between the “Created” or “Modified” date in search results compared to list/library view

$
0
0

There are times when you may observe differences between the "Created" or "Modified" date and how they appear in search results compared to how they appear in the list/library view. 

Scenario 1: We noticed that the search results, for example in the Enterprise search center, returns results that display a different created and/or modified date than the one shown in the list/library view. 

Scenario 2: In the Security and Compliance center, when using the eDiscovery functionality, the last modified date does not match the last modified date seen in the SharePoint library. 

Why is this occurring?  

Office Documentcontain document properties and metadata that include the created and modified date from the file system. The document library shows the created and modified date, based on the upload date to SharePoint, not the original Office Document properties 

Note: There are instances where the Created and modified date information displayed in the list/library view will be the same as the office document properties and will be discussed in a different blog.  

The search results are showing the original created date from the Office Document properties when the document property promotion is not disabled. By default, property promotion is enabled, to allow SharePoint access to the Document properties. 

 

How can I setup my search to show the SharePoint created/modified date? 

 

To return the created and modified date of SharePoint you can take the following steps to update the managed property to show the date in SharePoint: 

  1.  Go to the SharePoint Admin center 

    Note: We recommend changing the Managed Properties that you are going to use on more than one site at the Tenant level as a best practice.  

  2. Go to search  
  3. Go to Manage search schema  
  4. Search for “LastModifiedTime 
  5. Click on “Edit/Map property” 
  6. Change the order of the crawled property as shown below: 
  7. Save. 
  8. Search for “Created” 
  9. Click on “Edit/Map property” for “Created” 
  10. Change the order of the crawled property as shown below:
  11. Save.  

Once you have completed these steps you will need to re-index the site collections/list/library. Instruction for this can be found in the following articleManually request crawling and re-indexing of a site a library or a list. After content is re-indexed the search results will display the same modified and created dates as SharePoint libraries.  

If you have any feedback or suggestions for search, please submit those suggestions to https://sharepoint.uservoice.com/The Product Group checks the requests and feedback on a regular basis and uses this feedback for new features and enhancements to the product. 

Authors: Steffi Buchner [MSFT], Tania Menice[MSFT]

Contributors: Paul Haskew[MSFT], Sridhar Narra [MSFT]

Welcome to my Blog

$
0
0

Hello everyone! First let me introduce myself. My name is Jason Colburn and I am a Consultant at Microsoft. I primarily support ConfigMgr. My specialization is in Operating System Deployment (OSD).

The focus of this blog is to detail solutions to common and unique issues, as well as best practices and lessons learned in regards to SCCM and EMS.

Add your logo to MBAM Helpdesk and SelfService

$
0
0

Microsoft BitLocker Administration and Monitoring gives you the ability to manage the BitLocker Disk Encryption keys, monitor client compliancy, and report on your client encryption status.  It is part of the MDOP (Microsoft Desktop Optimization pack) that you can download from your VLSC.    To get started with MBAM, please refer to the documentations here: https://docs.microsoft.com/en-us/microsoft-desktop-optimization-pack/mbam-v25/

In this blog, I will show you how to customize the MBAM helpdesk and selfservice portal by adding a logo to both webpages.

Please note:  Customization will be overridden when doing upgrades for MBAM and therefore you will have to edit the files again to match your original settings.

Helpdesk Portal

The default MBAM helpdesk portal looks like this:

Browsing to C:inetpubMicrosoft BitLocker Management SolutionHelp Desk Website  (assuming you have chosen the default location during install), and editing in notepad the file Site.Master (which is ASP.net Master Page), we can see that the header information is calling the image "logo.png" stored under C:inetpubMicrosoft BitLocker Management SolutionHelp Desk WebsiteContentimages. 

 

Your customized logo should be around the same size in terms of pixels so visually would look nice on the page and can fit accordingly.  For this example, the logo I used is around 377 x 55 px.

 

Copy your logo image to C:inetpubMicrosoft BitLocker Management SolutionHelp Desk WebsiteContentimages and then edit the Site.Master file shown above to change the name from logo.png to your image file name.

Save the file and close it.  Refresh your MBAM helpdesk portal and your new logo should be showing:

 

SelfService Portal

 

Same concept here but I will show you the entire process and steps involved.   Again, the default SelfService portal where authenticated users get to recover their disk encryption key looks like this:

If you like to change the "Notice" dialog box above, you can do that by editing the Notice.txt located under C:inetpubMicrosoft BitLocker Management SolutionSelf Service Website

 

If you don't want the above page to show up and have the users be taken immediately to the recovery page, you can do that by going to the IIS manager and under MBAM site --> SelfService --> Application Settings,  look for "DisplayNotice"  and set value to false.  (true is the default)

 

 

you can also change the value under "CompanyName" to match your company name.

 

Please Note: Since I will use the same logo for both webpages (helpdesk and selfservice), I went ahead and cleared the value "Contoso IT" from the "CompanyName" so its empty.

 

If you check the box next to "I have read and understand the above notice" and click continue, you will see the following self recovery page:

This is where users will type in the Recovery Key ID and get the recovery password associated with it.

In order to add logo into this page, first copy your logo file to C:inetpubMicrosoft BitLocker Management SolutionSelf Service WebsiteContentImages.  Then browse to C:inetpubMicrosoft BitLocker Management SolutionSelf Service WebsiteViewsShared and open Site.Master in notepad and locate the following section:

You will need to add the following HTML code:

<img src= <%= Url.Content("~/Content/Images/myCustomLogo.jpg") %> alt="My Company SelfService Portal">

right before this line <asp:Literal runat="server" Mode="Encode" Text="<%$appSettings:CompanyName %>" />  as shown below:

Save the file and close it.  Refresh your MBAM selfservice portal and your new logo should be showing:

 

Happy MBAM!

Upcoming Microsoft 365 for SMB Training for Rhipe CSP Partners

$
0
0

I'll be running the following training courses for Rhipe next month. Day one focuses heavily on Microsoft 365 for Business, and day two introduces some of the additional capabilities that Microsoft 365 Enterprise SKUs bring to the table.

Date & Locations: Sydney (February 19-20); Melbourne (February 26-27)

Rhipe is pleased to extend an invitation for you to attend the Microsoft 365 Business Tech Series. Microsoft 365 is complete, intelligent solution, including Office 365, Windows 10, and Enterprise Mobility + Security, that empowers everyone to be creative and work together, securely. The Business Tech Series will help empower your team, safeguard your business, and simplify IT management with a single solution, purpose-built for your business. REGISTER HERE

[無料ダウンロード]チームの販売方法を変革する(e-book)【1/27 更新】

$
0
0

 

営業担当者がスマートに働いて顧客と強固な関係を構築できるよう、支援する

ハードに働き続ければ、営業チームがすぐに疲弊してしまう可能性があります。顧客の連絡先、販売目標、生産性向上ツール、およびソーシャル ネットワーキングがすべてばらばらに存在していて互いに連携していない場合、難しい状況になります。

ばらばらのシステムを使って働いていると、日々の営業活動が煩雑になります。貴社チームの生産性と効率を高めるために、営業担当者の働き方を簡素化するよう支援しましょう。マイクロソフトの e-Book「The Savvy Seller’s Guide to Building Profitable Relationships」には、営業活動の苦痛を和らげて利益を増やすためのアドバイスが記載されています。

 

▼ ダウンロードはこちらから

 

 

 

 


Kriminelles Krypto-Mining über offenes WLAN

$
0
0

In Zeiten, in denen die Kurse von Krypto-Währungen durch die Decke gehen, wird auch das Krypto-Mining für Kriminelle immer interessanter. Entsprechende Malware taucht mittlerweile in zahlreichen Unternehmens-Netzwerken auf, dazu mehr im letzten Absatz dieses Beitrags. Zu Beginn soll es um die Machbarkeitsstudie eines Software-Entwicklers gehen: Arnau Code hat sich die Frage gestellt, wie man über ein freies WLAN, etwa in einem Cafe oder Hotel, die Notebooks der Gäste zum Krypto-Mining missbrauchen könnte. Natürlich ohne ihr Wissen und ihre Einwilligung.

In seinem Blog beschreibt Arnau Code eine typische Man-in-the-Middle-Attacke. Sie basiert auf einem von ihm geschriebenen Skript, das er CoffeeMiner genannt hat. Es unterbricht zunächst den Datenverkehr zwischen dem Router des Coffeeshops und den WLAN-Clients und leitet ihn um über einen virtuellen Router. Dort ist das Tool mitmproxy installiert, mit dem Arnau Code in jede HTML-Seite, welche die Kaffeehaus-Gäste aufrufen, eine zusätzliche Zeile JavaScript-Code einfügt. Mit diesem Code werden die WLAN-Clients zu einem einfachen HTML-Server verbunden, auf dem die Krypto-Miningsoftware Coinhive läuft und die Ressourcen der Gäste-Rechner zum Schürfen der Kryptowährung Monero missbraucht. Um auch Besucher von HTTPS-Seiten in das Mining einzubeziehen, setzt Arnau Code zusätzlich das Skript sslstrip ein.

Krypto-Mining-Malware ist ein dickes Problem

Der Clou an diesem Angriffsszenario ist, dass die Rechenpower der Kaffeehaus-Gäste verhältnismäßig lange genutzt werden kann. Normalerweise ist Coinhive in einzelne Webseiten integriert, die ein Besucher lediglich einige Sekunden lang betrachtet. Die geschilderte Attacke läuft jedoch so lange, wie der Gast über das WLAN des Kaffeehauses Seiten im World Wide Web aufruft.

Malware für das Krypto-Mining gehört aktuell zu den am weitesten verbreiteten Schadsoftware-Varianten, wie der Global Thread Report für den Dezember 2017 des Sicherheitsanbieters Check Point meldet. Demnach sind in 55 Prozent aller Unternehmen weltweit entsprechende Schadprogramme zu finden. Unter den Top 100 der aktuell im Umlauf befindlichen Malware-Programme befinden sich zehn Krypto-Miner, zwei davon gehören sogar zu den drei am häufigsten gefundenen Malware-Samples überhaupt. Auch viele Websites, die Medien abspielen oder Filesharing-Services anbieten, verwenden Krypto-Miner, um die Rechenkapazitäten der Besucher abzugreifen, häufig ohne sie darüber zu informieren.

Collecting members of the Local Administrators group

$
0
0

A while ago I had to collect the members of the local administrators group via ConfigMgr. This data has come in handy a number of times so it’s certainly one of those inventory items I don’t plan on stopping just yet. Security being such a big deal, it’s nice to have a way to review local admins for your servers en masse.

Unfortunately, there isn’t a nice WMI class that contains this information (at least I certainly hope not otherwise I’m gonna look really stupid). So, to get this data requires running a script. Since I wanted to be able to collect the data via hardware inventory I chose to create a script which would be used in a Compliance Setting (aka DCM) to create a WMI class and populate the data on a routine basis. Then, hardware inventory just needs to be extended to collect the data from that class. I know it’s not a pretty solution, and perhaps it can be argued that it’s not even the best solution, but this is how I chose to do it.

Early in the testing of my script I realized that it would only work for English because I was using names as they appear in English. So I tried to find a way to make it work with any language. I believe I’ve done that by using SIDs but perhaps there are some outliers that would not work correctly; if you know of an issue please let me know so I can try to fix it!

Before I paste the PowerShell script I use, let me just mention a little about the CI. I used the PowerShell script as the “Remediation script” and for the “Discovery script” I simply used “wscript.echo 3” (VBScript). Then I set the compliance rule like so:

This ensures that every time the compliance setting runs the discovery script is not compliant and therefore the remediation script is run – which in turns populates the data we’re after.

Here’s the PowerShell script I use as the remediation script (where all the real magic happens):

Clear-Host

#*****************************************************
#  HWINV_LocalAdmins Class Creation
#*****************************************************
$WMIClassName = "HWINV_LocalAdmins"
$WMINameSpace = "rootcimv2"
#Delete the class if it exists; if it doesn't don't stop because of the error
Remove-WmiObject -Class $WMIClassName -Namespace $WMINameSpace -ErrorAction SilentlyContinue

#Create the new Class
$NewClass = New-Object System.Management.ManagementClass($WMINameSpace, [String]::Empty, $null);
$NewClass["__CLASS"] = $WMIClassName;
$NewClass.Qualifiers.Add("Static", $true)

$NewClass.Properties.Add("Member",[System.Management.CimType]::String, $false)
$NewClass.Properties["Member"].Qualifiers.Add("Key", $true)

$NewClass.Put()

#*****************************************************
#  Script to Populate the HWINV_LocalAdmins class
#*****************************************************

# Use the universal SID to get the Administrator group information regardless of language:
$AdminGroup = New-Object System.Security.Principal.SecurityIdentifier("S-1-5-32-544")
[String]$AdminGroupName = $AdminGroup.Translate([System.Security.Principal.NTAccount]).Value
# Remove the 'domain' from the group name:
$AdminGroupName = $AdminGroupName.Substring($AdminGroupName.IndexOf("")+1)

# Get the local admins:
$LocalAdmins = net localgroup $AdminGroupName | Where {$_} | Select-Object -Skip 4 -ErrorAction Stop # I believe all languages will return the same number of header lines

# Because $LocalAdmins is an array and the last item/index is the "command completed successfully" message we'll use a for loop and not do anything with the last item:
for ($i=0; $i -lt $LocalAdmins.Count-1; $i++) {
    [String]$CurAdmin = $LocalAdmins[$i]
    if ($CurAdmin -notmatch "\") { # escape the backslash so the match doesn't throw an error
        # Add the computername as the account domain since no domain was given:
        $CurAdmin = "$($env:ComputerName)$CurAdmin"

        # Because the Administrator account is listed without the domain it will fall into this loop; we want to ignore the Administrator account
        # but want to account for any language; so we'll get the account's SID and do a regex compare to ensure we don't include the Admin:
        $CurAdminObj = New-Object System.Security.Principal.NTAccount($CurAdmin)
        $CurAdminSID = $CurAdminObj.Translate([System.Security.Principal.SecurityIdentifier]) | Select -ExpandProperty Value

        if ($CurAdminSID -notmatch "S-1-5-21-d+-d+-d+-500") { # The local Admin account SID always follows this pattern. Note: the SID is variable length hence "d+" rather than "d{n}"
            # The account is not the local Admin account so we'll add the account to the WMI class:
            Set-WMIInstance -Class $WMIClassName -Namespace $WMINameSpace -argument @{Member=$CurAdmin} -ErrorAction Stop
            #Write-Host $CurAdmin
        }
    }
    else {
        # The account already has the domain included so just add it directly to the WMI class:
        Set-WMIInstance -Class $WMIClassName -Namespace $WMINameSpace -argument @{Member=$CurAdmin} -ErrorAction Stop
        #Write-Host $CurAdmin
    }
} # End For Loop
# End Script

Since the class is deleted each time the script runs we ensure that the class only contains the latest data (as of script run time).

To collect this data via inventory, here’s the piece needed to add to your “SMS_DEF.mof”

[ SMS_Report (TRUE),
  SMS_Group_Name ("HWINV_LocalAdmins"),
  SMS_Class_ID ("MICROSOFT|HWINV_LocalAdmins|1.0"),
  Namespace ("root\\cimv2") ]
class HWINV_LocalAdmins : SMS_Class_Template
{
    [ SMS_Report (TRUE), key ]
    String     Member;
};

Then, you should be able to use the following (assuming you don’t update the script at all) to see your results in ConfigMgr:

SELECT  TOP 100 ResourceID
       ,Member0
  FROM dbo.v_GS_HWINV_LocalAdmins;

[Cross-Post] Bitlocker: ‘Add your logo to MBAM Helpdesk and SelfService’ by Imad Balute (Technology Professional).

$
0
0

Hello everyone,

Imad Balute (Technology Professional). started his own personal Technet blog post.

Check it out at:

Add your logo to MBAM Helpdesk and SelfService
https://blogs.technet.microsoft.com/ibalute/2018/01/27/add-your-logo-to-mbam-helpdesk-and-selfservice/

Applies to:

Windows Server 2016 with Bitlocker

Windows 10 with Bitlocker

Windows 2012 R2 with Bitlocker

Windows 8.1 with Bitlocker

Windows 2012 with Bitlocker

Windows 8 with Bitlocker

Windows 2008 R2 with Bitlocker

Windows 7 SP1 with Bitlocker

Yong

P.S.  Imad’s team Technet blog:

[Cross-Post] The “Modern Desktop” “Technology Professionals” have a new blog.
https://blogs.technet.microsoft.com/yongrhee/2018/01/18/cross-post-the-technology-professionals-have-a-new-modern-desktop-blog/

Running Kubernetes Cluster in Docker for Windows

$
0
0

In the latest Edge version (18.02 CE Edge) of Docker for Windows support for Kubernetes is added.

If you want to start playing with Kubernetes you need to do the following:

  1. Download the latest (18.02 CE Edge) Docker for Windows Edge version from here.
  2. Install the Docker for Windows 18.02 CE Edge version you downloaded in step 1.
  3. Enable Kubernetes in the settings of the Docker for Windows Edge version.

Here are some screenshots made during the configuration of Kubernetes in the Docker for Windows Edge Client.

Wait till the Kubernetes cluster is deployed.

The Kubernetes cluster is now running.

The Kubernetes client command, kubectl, is included and configured to connect to the local Kubernetes server. If you have kubectl already installed and pointing to some other environment, such as minikube or a GKE cluster, be sure to change context so that kubectl is pointing to docker-for-desktop:

kubectl config get-contexts
kubectl config use-context docker-for-desktop

Let's check our Kubernetes Cluster.

NGINX Deployment

Let's deploy NGINX using the following deployment yaml file:

apiVersion: apps/v1beta2 # for versions before 1.9.0 use apps/v1beta2
kind: Deployment
metadata:
  name: nginx-deployment
  labels:
    app: nginx
spec:
  replicas: 3
  selector:
    matchLabels:
      app: nginx
  template:
    metadata:
      labels:
        app: nginx
    spec:
      containers:
      - name: nginx
        image: nginx:1.7.9
        ports:
        - containerPort: 80

We see that NGINX is now running.

You can easily parse the kubectl JSON output using the following PowerShell Code:

#region get k8s pods info
(kubectl get pods --all-namespaces -o=json | convertfrom-json).items | select @{L='nodeName';E={$_.spec.nodeName}}, @{L='podIP';E={$_.status.podIP}}, @{L='hostIP';E={$_.status.hostIP}}, @{L='podName';E={$_.metadata.name}}, @{L='states';E={$_.status.containerStatuses.state}} | format-Table *
#endregion

Interested in Kubernetes Nodes info?

#region get k8s nodes info
(kubectl get nodes --all-namespaces -o=json | convertfrom-json).items | select @{L='IPAddress';E={$_.status.Addresses[0].address}}, @{L='Name';E={$_.metadata.name}}, @{L='Role';E={$_.metadata.labels.'kubernetes.io/role'}} | Format-Table *
#endregion

Expose Deployment NGINX

Retrieve Deployment(s)

kubectl get deployments

Expose NGINX deployment:

kubectl expose deployment nginx-deployment --type=NodePort

Have fun playing with Kubernetes in Docker for Windows.

References:

Top Contributors Awards! January’2018 Week 4!!

$
0
0

Welcome back for another analysis of contributions to TechNet Wiki over the last week.

First up, the weekly leader board snapshot...

 

As always, here are the results of another weekly crawl over the updated articles feed.

 

Ninja Award Most Revisions Award
Who has made the most individual revisions

 

#1 Ken Cenerelli with 71 revisions.

 

#2 Richard Mueller with 65 revisions.

 

#3 RajeeshMenoth with 26 revisions.

 

Just behind the winners but also worth a mention are:

 

#4 Peter Geelen with 19 revisions.

 

#5 Denis Dyagilev with 17 revisions.

 

#6 DBS14 with 16 revisions.

 

#7 mb0339 - Marco with 13 revisions.

 

#8 Nonki Takahashi with 10 revisions.

 

#9 H Shakir with 10 revisions.

 

#10 Mandar Dharmadhikari with 9 revisions.

 

 

Ninja Award Most Articles Updated Award
Who has updated the most articles

 

#1 Ken Cenerelli with 67 articles.

 

#2 Richard Mueller with 46 articles.

 

#3 Denis Dyagilev with 11 articles.

 

Just behind the winners but also worth a mention are:

 

#4 RajeeshMenoth with 10 articles.

 

#5 Kapil.Kumawat with 7 articles.

 

#6 Nonki Takahashi with 5 articles.

 

#7 DBS14 with 3 articles.

 

#8 Peter Geelen with 3 articles.

 

#9 [Kamlesh Kumar] with 3 articles.

 

#10 Mandar Dharmadhikari with 2 articles.

 

 

Ninja Award Most Updated Article Award
Largest amount of updated content in a single article

 

The article to have the most change this week was Forum Ninjas Blog Authoring Schedule, by Ed Price - MSFT

This week's reviser was [Kamlesh Kumar]

All forum ninjas, if you are author of Forum ninjas blog, please book your place and schedule your post here.

 

Ninja Award Longest Article Award
Biggest article updated this week

 

This week's largest document to get some attention is Archive - Forum Ninjas Blog Authoring Schedule, by [Kamlesh Kumar]

This week's reviser was [Kamlesh Kumar]

Do you want to know previous years schedule detail for forum ninjas blogs author, visit this article.

 

Ninja Award Most Revised Article Award
Article with the most revisions in a week

 

This week's most fiddled with article is Office 365: How To Add A Shared Mailbox To An Android Device With Stock Applications, by mb0339 - Marco. It was revised 10 times last week.

This week's revisers were Ken Cenerelli, Peter Geelen & mb0339 - Marco

Do you know how To Add A Shared Mailbox To An Android Device With Stock Applications, read this article for answer. Great article Marco 🙂

 

Ninja Award Most Popular Article Award
Collaboration is the name of the game!

 

The article to be updated by the most people this week is TechNet Guru Competitions - January 2018, by Peter Geelen

Gurus, where are you? Last week of month January and we have only 23 articles in all categories. Go Go Gurus!!

This week's revisers were Mandar Dharmadhikari, Vincent Maverick Durano, DBS14, Peter Geelen, Dave Rendón, Av111 & Nonki Takahashi

 

The article to be updated by the second most people this week is Remove Common Group Permission from a Subsite , by Shelley Liu

Sharepoint lovers, do you want to know "Remove Common Group Permission from a Subsite", check this article. Good work Shelley Liu 🙂

This week's revisers were Ken Cenerelli, Richard Mueller, Kapil.Kumawat, Maruthachalam, RajeeshMenoth & Shelley Liu

 

Ninja Award Ninja Edit Award
A ninja needs lightning fast reactions!

 

Below is a list of this week's fastest ninja edits. That's an edit to an article after another person

 

Ninja Award Winner Summary
Let's celebrate our winners!

 

Below are a few statistics on this week's award winners.

Most Revisions Award Winner
The reviser is the winner of this category.

Ken Cenerelli

Ken Cenerelli has been interviewed on TechNet Wiki!

Ken Cenerelli has featured articles on TechNet Wiki!

Ken Cenerelli has won 55 previous Top Contributor Awards. Most recent five shown below:

Ken Cenerelli has TechNet Guru medals, for the following articles:

Ken Cenerelli's profile page

Most Articles Award Winner
The reviser is the winner of this category.

Ken Cenerelli

Ken Cenerelli is mentioned above.

Most Updated Article Award Winner
The author is the winner, as it is their article that has had the changes.

Ed Price - MSFT

Ed Price - MSFT has been interviewed on TechNet Wiki!

Ed Price - MSFT has featured articles on TechNet Wiki!

Ed Price - MSFT has won 148 previous Top Contributor Awards. Most recent five shown below:

Ed Price - MSFT has TechNet Guru medals, for the following articles:

Ed Price - MSFT's profile page

Longest Article Award Winner
The author is the winner, as it is their article that is so long!

[Kamlesh Kumar]

[Kamlesh Kumar] has been interviewed on TechNet Wiki!

[Kamlesh Kumar] has won 26 previous Top Contributor Awards. Most recent five shown below:

[Kamlesh Kumar] has TechNet Guru medals, for the following articles:

[Kamlesh Kumar] has not yet had any featured articles (see below)

[Kamlesh Kumar]'s profile page

Most Revised Article Winner
The author is the winner, as it is their article that has ben changed the most

mb0339 - Marco

mb0339 has won 3 previous Top Contributor Awards:

mb0339 has not yet had any interviews, featured articles or TechNet Guru medals (see below)

mb0339's profile page

Most Popular Article Winner
The author is the winner, as it is their article that has had the most attention.

Peter Geelen

Peter Geelen has been interviewed on TechNet Wiki!

Peter Geelen has featured articles on TechNet Wiki!

Peter Geelen has won 195 previous Top Contributor Awards. Most recent five shown below:

Peter Geelen has TechNet Guru medals, for the following articles:

Peter Geelen's profile page

 

Shelley Liu

This is the first Top Contributors award for Shelley Liu on TechNet Wiki! Congratulations Shelley Liu!

Shelley Liu has not yet had any interviews, featured articles or TechNet Guru medals (see below)

Shelley Liu's profile page

Ninja Edit Award Winner
The author is the reviser, for it is their hand that is quickest!

MrChiyo

This is the first Top Contributors award for MrChiyo on TechNet Wiki! Congratulations MrChiyo!

MrChiyo has TechNet Guru medals, for the following articles:

MrChiyo has not yet had any interviews or featured articles (see below)

MrChiyo's profile page

 

H Shakir

This is the first Top Contributors award for H Shakir on TechNet Wiki! Congratulations H Shakir!

H Shakir has not yet had any interviews, featured articles or TechNet Guru medals (see below)

H Shakir's profile page

 

Another great week from all in our community! Thank you all for so much great literature for us to read this week!
Please keep reading and contributing!

 

Best regards,
— Ninja [Kamlesh Kumar]

 

Viewing all 36188 articles
Browse latest View live


<script src="https://jsc.adskeeper.com/r/s/rssing.com.1596347.js" async> </script>