Quantcast
Channel: TechNet Blogs
Viewing all 36188 articles
Browse latest View live

Course 1 of 11: – Getting Started with Cloud Administration

$
0
0

(This post is part of my review of the Microsoft Professional Program: Cloud Administration)

Course 1 of 11: - Getting Started with Cloud Administration

Overview: This first introductory course is split into two parts; Part 1: Cloud and Azure basics and Part 2: Tools you will need. This course is a great starting point for IT pros coming from a on-premises data center background as well as those who may or may not have experience with cloud services like Azure. The introduction from Julia White (Microsoft Corporate Vice President) highlights the capability of Azure while the rest of the first part serves as a summary of what to expect in this course. The second part is all about getting started with your own Azure subscription, learning the portal, installing Azure PowerShell modules, Azure Command Line Interface (CLI), how billing works, and a primer of the Azure Pricing Calculator.

Time Spent / Level of Effort: I completed this course right under 3 hours. I recommend reading through written resources in addition to watching the videos since there's a wealth of information inside each lesson.

Course Highlight: My favorite part of this course was the virtual walk-through of an Azure data center and where they are located around the globe. Seeing how Azure data center architecture has evolved over the years from traditional construction to the modular iterations was fascinating. Learning about Azure resources available at no cost and free account subscriptions was also helpful for me and for anyone else who wants to get their hands dirty and learn with no commitment.

Suggestions: A colleague of mine, Sam Lester, has shared his experiences while completing the Microsoft Professional Program (MPP) in Big Data. Following his great advice, I watched the videos at x2 speed which allowed faster viewing while still allowing me to retain the information. Having the quiz open in another browser tab while watching the videos and reading the material is a sure fire way to ensure a 100% success rate. As you complete course 1, please take a few moments to provide your feedback in the End of Course survey. Your feedback genuinely does matter.

 

If you have taken this course in the past or are going through it now, please leave a comment and share your experience.

Thanks,

Adam Lichtenberg [MSFT]


TNWiki Article Spotlight – Text manipulation with Telerik RadRichTextEditor

$
0
0

Telerik Logo

Welcome to another Tuesday TNWiki Article Spotlight.

In today’s spotlight, we talk about third-party tools for C#. Specifically, using a third-party tool to create a text editor to do text manipulation. To do this, we can use RadRichTextEditor by Telerik. To understand how to get started with RadRichTextEditor, Emiliano Musso has created the TechNet Wiki article [C#] Word-like editor and RTF text manipulation with Telerik RadRichTextEditor.

As he states in his post, “In this article, we will see how to create a Word-like software, using one of Telerik's controls for WinForms, i.e. RadRichTextEditor and C#. Moreover, we will discuss several ideas in regards to the possibility of a programmatical modification of the RTF text hosted by the control, in order to produce DOCX/PDF files compiled by our applications.”

In the article, Emiliano takes the reader through creating a new sample project using the RichTextEditor on WinForms, how to create and manage documents, and how to create a simple app. The article also has a link to the source code of the demo app.

Emiliano’s article won a silver medal in the Microsoft TechNet Guru Awards: November 2017 under the Visual C# category.

If you ever wanted to know about Telerik RadRichTextEditor, start with this post.

by Ken Cenerelli (TwitterBlogMSDN ProfileMVP Profile)

Windows システム上の Spectre および Meltdown に対する緩和策のパフォーマンスへの影響について

$
0
0

本記事は、Microsoft Secure ブログUnderstanding the performance impact of Spectre and Meltdown mitigations on Windows Systems” (2018 1 9 日 米国時間公開) を翻訳したものです。


先週、テクノロジ業界およびお客様の多くは、携帯電話や PC、サーバーに搭載されているハードウェア チップの新しい脆弱性について知りました。マイクロソフト (および業界内の企業) では、数か月前に機密保持契約のもとでこの脆弱性の存在を知り、直ちに緩和策の開発を開始し、クラウド インフラストラクチャの更新に取り掛かりました。本ブログでは、発見された脆弱性についてできる限り明確に説明し、お客様が安全を保つためにできることと、パフォーマンスへの影響について現時点で把握している内容について解説します。

新しい脆弱性について

2018 年 1 3 (米国時間) に、数人のセキュリティ研究者が “Meltdown” “Spectre” と呼ばれる 3 つの潜在的な脆弱性の情報を公開 (英語情報) しました。複数のブログでこれらの脆弱性について詳細な説明が試みられています。明確な解説は、Stratechery (英語情報) に記載されています。

携帯電話や PC では、悪意のあるソフトウェアがシリコンの脆弱性を悪用し、あるソフトウェア プログラムの情報に別のプログラムからアクセスすることが可能になります。これらの攻撃はブラウザーにもおよび、Web ページや広告を介して展開された悪意のある JavaScript が、システム内で実行中の別のソフトウェア プログラムやブラウザー タブの情報 (法的文書や財務情報など) にアクセスすることができるようになります。複数のサーバーが機能を共有している環境 (クラウド サービスの構成によっては存在する環境) では、これらの脆弱性によってある仮想マシンから別の仮想マシン上の情報にアクセスできる可能性があります。

お使いのシステムを保護するために実施できること

現在、3 つの脆弱性の悪用が技術的に可能であることが実証されています。シリコン パートナーとの協業のもと、Windows およびシリコン マイクロコードに変更を加えることによって、これらの脆弱性を緩和しました。

悪用された脆弱性 CVE エクスプロイト名 公開されている脆弱性の名前 Windows への変更 ホスト上のシリコン マイクロコードの更新の要否
Spectre 2017-5753 Variant 1 境界チェックのバイパス コンパイラの変更: Windows 用の更新プログラムの一部のバイナリを再コンパイル

JavaScript を利用した悪用を防止するために Edge および IE11 を機能強化

不要
Spectre 2017-5715 Variant 2 分岐ターゲットのインジェクション リスクのある状況での分岐投機を排除するために、新しい CPU 命令をコール 必要
Meltdown 2017-5754 Variant 3 不正なデータ キャッシュの読み込み カーネル モードおよびユーザー モードのページ テーブルを分離 不要

 

Windows クライアントは、広告やダウンロード アプリを含む Web ページの閲覧など、信頼されていないコードとさまざまな方法で対話するため、Windows の更新プログラムとシリコン マイクロコードの更新ですべてのシステムを保護することをお勧めします。

Windows Server では、サーバー上で実行されている仮想ワークロードを分離できるよう、管理者は物理サーバー レベルでの緩和策を確実に実施してください。オンプレミスのサーバーでは、物理サーバーに適切なマイクロコードの更新を適用することで緩和できます。Hyper-V を実行している場合は、直近にリリースされた Windows 用更新プログラムを使用して更新してください。Azure をお使いのお客様は、マイクロソフトのクラウド上の他のお客様からワークロードが確実に分離されるよう、Azure のすべてのサーバーにインフラストラクチャの更新プログラムを適用済みであるため、仮想分離を実現するための特別な措置を講じる必要はありません。つまり、Azure 上の他のお客様がこれらの脆弱性を悪用して、お使いの仮装マシンやアプリケーションを攻撃することはできません。

オンプレミスまたはクラウド上で Windows Server をお使いのお客様は、Windows Server VM ゲストもしくは物理インスタンスごとに追加のセキュリティ緩和策を適用するかどうかを評価する必要があります。これらの緩和策は、Windows Server インスタンス内で信頼されていないコードを実行しており (たとえば、特定のお客様が Windows Server インスタンス内で実行するバイナリまたはコード スニペットのアップロードを許可している場合など)、許可のない Windows Server インスタンス内のメモリへのアクセスを確実に防ぐためにアプリケーション バイナリやコードを分離したい場合に必要です。これらの緩和策は、仮想サーバー上の Windows Server VM を他の VM から分離するためには必要ありません。特定の Windows Server インスタンス内で実行中の信頼されていないコードを分離する場合のみ必要です。

現在、マイクロソフトでは 45 Windows エディションをサポートしています。そのうちの 41 のエディション用の修正が Windows Update から利用可能です。残りのエディションについても、近いうちに公開予定です。エディションごとの更新プログラムのリリース予定については、Windows のお客様ガイダンスでお知らせしています。

シリコン マイクロコードは、シリコン ベンダーによってシステム OEM へ配布され、その後 OEM でお客様へのリリースが決定されます。Windows Update を使用してマイクロコードを配布するシステム OEM もあれば、独自の更新プログラムのシステムを使う OEM もあります。システム マイクロコードの更新プログラムの情報については、こちらでお知らせしています。Surface については、本日より Windows Update を通じて更新が行われます。

 

これらの緩和策を確認し、有効 / 無効にする方法のガイダンスは、以下を参照してください。

パフォーマンスへの影響について

これらすべての修正に対する質問としてよく挙げられるのは、PC およびサーバーの両方に対するパフォーマンスへの影響です。現時点で公開されているベンチマークのほとんどは、OS とシリコンの両方に関する更新プログラムを含まないことにご留意ください。マイクロソフトでは独自のベンチマークを実施し、完了した時点でその結果を公開する予定です。同時にパフォーマンス チューニングをさらに改善するための取り組みも進めています。一般に、Variant 1 Variant 3 の緩和策のパフォーマンスへの影響はごくわずかで、OS およびマイクロコードを含むVariant 2 の緩和策はパフォーマンスに影響があることが分かっています。

現時点で把握している影響の概要は、以下のとおりです。

  • 新しいシリコン (SkylakeKabylake またはそれ以降の CPU が搭載されている 2016 世代の PC) 上の Windows 10 のベンチマークでは 1 桁台の遅延が見られましたが、ミリ秒単位の割合であるため、多くのユーザーはその変化に気づかないと考えられます。
  • 古いシリコン (Haswell またはそれ以前の CPU が搭載されている 2015 世代の PC) 上の Windows 10 のいくつかのベンチマークでは、もう少し顕著な遅延が見られ、システム パフォーマンスの低下に気づくユーザーがいると予測しています。
  • 古いシリコン (Haswell またはそれ以前の CPU が搭載されている 2015 世代の PC) 上の Windows 8 Windows 7 では、大半のユーザーがシステム パフォーマンスの低下を感じると予測しています。
  • すべてのシリコン上の Windows Server、特に IO 集約型のアプリケーションでは、Windows Server インスタンス内の信頼されていないコードを分離する緩和策を有効にした場合、より著しいパフォーマンスへの影響がみられます。そのため、各 Windows Server インスタンスの信頼されていないコードのリスクを慎重に評価し、お使いの環境において、トレードオフともなるセキュリティとパフォーマンスのバランスを取ることが重要です。

Skylake 以降などの新しい CPU について、Intel 社は分岐投機を無効にする命令を改良して間接的な分岐に限定することで、Spectre に対する緩和策の包括的なパフォーマンスへの影響を減らしています。Windows の古いバージョン、つまり Windows 7 および Windows 8 では、すべてのフォントのレンダリングがカーネルで行われるなど、レガシの設計決定によってユーザーとカーネル間のトランザクションが多いため、より大きなパフォーマンスへの影響があります。数週間先にベンチマーク パフォーマンスのデータを公開する予定です。

結論

お察しのとおり、サイドチャネル攻撃の手法について対処すべきことがたくさんあります。このような新しいエクスプロイトに対しては、業界全体で取り組み、お客様にとって最良のソリューションを提供することが求められます。お客様が信頼して使用できるシステムのセキュリティ確保は、マイクロソフトにとって最優先のテーマです。また、私たちはできる限り透明性を保ち事実に即することで、お客様が組織を運営するために世界中でお使いのデバイスとシステムに対して、最良の選択を可能にするご支援をします。それが、1 3 日に迅速に更新プログラムと緩和策をリリースし、本日追加の状況説明と情報を公開した理由です。今後も引き続き信頼できるテクノロジを提供し、可能な限りのパフォーマンス最適化に取り組むことにコミットし、新しい情報を入手した際にはお知らせします。

-Terry

Executive Vice President, Windows and Devices Group in Security Development, Security Strategies, Industry Trends

Mixed Reality パートナープログラム 認定パートナーが日本で9社に【1/23 更新】

$
0
0

昨年 9 月に国内展開を発表した Mixed Reality パートナープログラムですが、これまで認定パートナーとして 6 社を発表していましたが、今月新たに、株式会社インフォマティクスKPMG コンサルティング株式会社株式会社南国ソフトが加わりました。

 

詳細はこちらからご覧ください

 

 

関連情報

 

Microsoft 365透過與Compliance Manager 預覽的合規性來幫助企業增進信任與創新

$
0
0

今日文章是由微軟副總裁Ron Markezich所撰寫

科技和雲端創新的發展使數據變得更為親民,進而推動數位轉型。接受每一層面的數位轉型,能讓組織有機會與顧客更良好的接觸、激勵員工,並將產品和服務的創造和運輸達到最佳化,然而,為了客製化顧客體驗,個人數據的使用量不斷增加,因此符合法律,例如:歐盟資料保護規範(GDPR)的合規性,理所當然的成為我們技術藍圖的一部分。Microsoft 365提供一項完整的雲端解決方案來幫助您達到GDPR的合規性,同時Compliance Manager可以幫助您使用和管理合規性風險。

合規性透過建立客戶對技術的信任來促進創新

GDPR的核心是加強歐盟中每位個體的個人隱私權,並要求組織建立對於個人數據的控制。為了透過科技建立與維護顧客關係管理所需的信任,組織必須更嚴謹的控制其所持有的個人數據,以及管理和保護這些數據的方式。系統和流程需要現代化,以防止數據的非法使用、符合個體對於個人數據的要求,並適時地收到數據違反使用的通知。

 

企業正向雲端前進,以增進價值

我們的研究指出,企業不僅看到保護顧客數據所建立起的長期價值,事實上,他們也相信投資在合規性上,會對其他領域的業務範圍產生正面影響,如:生產力與協同合作。若詢問歐洲和美國的IT決策者對於達到GDPR合規性的首要顧慮為何?第一名為「保護顧客數據」,而「避免罰金」則落在第八名。超過半數的受訪者提及,GDPR會帶來協同合作、生產力和資訊安全上的效益;雲端解決方案,如:Microsoft 365,則是讓企業看到合規性帶來機會的原因之一。在這些調查中,41%的受訪者表示,他們可能會將更多公司的基礎設施移至雲端,以達到合規性;而在這些領導雲端提供商中,微軟在信任度上大幅領先 (28%),隨後為IBM(16%)Google(11%)Amazon(10%)92%公司內部的IT決策者對將數據儲存於雲端且符合GDPR感到有信心,但相較只有65%的人偏好將數據儲存於內部佈署。

 

Microsoft 365是符合GDPR的完整雲端解決方案

Microsoft Cloud具獨特的定位優勢,能幫助您達到GDPR的合規性義務,擁有最大的認證合規性組合、以資訊安全所設計的服務,以及產業中最廣泛使用的全球數據中心。

我們的雲端解決方案是為了提供強大、規模與彈性能力。Microsoft 365結合了Office 365Windows 10Enterprise Mobility + Security,提供一個豐富的組合,利用AI來協助使用與管理合規性風險的整合性解決方案,保護您最重要的數據並讓工作流程更加順暢。

 

使用Compliance Manager 預覽評估與管理合規性風險

要實現組織合規性非常具有挑戰性,所以理解合規性風險是您的首要任務。今天,透過Compliance Manager預覽,我們可以更輕鬆地完成這項任務。

Compliance Manager是一種跨Microsoft雲端服務解決方案,旨在協助組織完成像GDPR這樣複雜的合規性義務。它使用Microsoft雲端服務執行即時性的風險評估,反映您的合規性狀況是否違反資料保護法規,並提供建議的行動與階段性指導。了解更多有關Compliance Manager與如何存取預覽

 

保護您的敏感性資料

除了了解您的合規性風險外,保護個人資訊與其他的敏感性資料是關鍵。Microsoft資訊保護解決方案提供了一個整合性分類、標籤與保護體驗,無論在何處,都能夠達成長久的治理與敏感性資料的保護跨裝置、應用程式、雲端服務與內部部署。比如,Office 365進階資料治理使用機器輔助的見解來協助您自動分類、制定政策與保護在Office 365中的資料,這對您的組織來說相當重要。

Azure資訊保護掃描程式可以解決混合式與內部部署的情況,透過您所制定的策略在Windows Server檔案共用上自動標記與保護檔案。閱讀「公開預覽中的Azure資訊保護掃描程式」以了解更多有關掃描程式的資訊。Microsoft還提供外部的威脅保護解決方案,以防止與檢測在工作負載上的網絡攻擊無論是使用Windows 10的裝置、內部部署、以Azure為基礎的系統設備,或是我們的雲端服務,像是Office 365。其中一種解決方案,Windows Defender進階威脅防護,內置於Windows 10中,在您的裝置上提供威脅的能見度,協助您找出最具可能性的目標攻擊、洞察威脅的範圍,只要按下一鍵,就能立即隔離威脅。

 

 

簡化您的流程

GDPR要求組織能夠辨識與定位個人資料。具有可規模化的調查與審查一隨時能預備好達到要求是很重要的。內容搜尋,是Office 365電子文件探索的一個功能,可以輕鬆地在Office 365 中搜尋與個人相關的資料。由於搜尋結果可能會包含大量的資料或數據,這對組織來說相當重要。因此,可以使用進階電子文件探索中的機器學習來最小化資料,從而僅根據GDPR來提供相關的數據。最後,客戶加密箱提供稽核線索,顯示在服務作業期間個人資料何時被存取。

 

從今天開始與Microsoft展開您的GDPR之旅

無論您是在GDPR工作的哪個階段,Microsoft雲端和我們在Microsoft 365 上的智慧合規性解決方案都可以協助您實現GDPR合規性

—Ron Markezich

Create VMM template for Ubuntu 16.04

$
0
0

There seems to be a lot of guidance - but none of it was clear enough for me.. these are my quick notes - sorry for any typo's / mistakes

  • Download Ubuntu 16.04 ISO
  • Create & boot Gen2 VM using this ISO & a blank disk
  • Follow wizard (I didn't encrypt the disks) - I suggest a generic username & password - as the one used here appears to still be there after VMM template is deployed.
  • After deployment, login & get VM IP address
    • i'm not sure what is needed for the VM's IP to be reported to the Integration Components
 ifconfig
  • From VMM server:
Cd "C:Program FilesMicrosoft System Center 2016Virtual Machine ManageragentsLinux"
c:program filesputtyPSCP.exe *.* username@VmIp:
  • the ':' after the IP is important - specifies the location to copy the files to. without anything after the ':' it will copy it to the users' home folder
  • Then from VM:
chmod +x install
sudo install
sudo grub-install --target=x86_64-efi --efi-directory=/boot/efi --no-nvram --removable
sudo shutdown now
  • Copy VHD to VMM library
  • Set VHD OS type to Ubuntu 16.04 (64 bit)
  • Create VM template
    • Make sure secure boot is disabled & VM Generation matches that used above.

 

The above steps didn't work for me when using Ubuntu 17.04

用於 Linux Service Fabric 的 Azure Log Analytics 容器監控解決方案

$
0
0

我們把監控功能擴展到運行於 Linux 伺服器的 Service Fabric 容器上了!!

Linux 上之 Service Fabric 作為容器 orchestrator 是現在常見的情形。欲知更多容器如何在 Service Fabric 上部署和協作的資訊,請見。若是關於 Service Fabric 整體的資訊,請閱讀 Azure Service Fabric 概觀

有了運行於 Service Fabric Linux 叢集的 Azure Log Analytics 容器監控解決方案,您可以:

  • 在雲端集中和關聯數百萬來自容器的紀錄
  • 檢視關於 CPU、記憶體、存儲、網路使用狀況、容器和節點的性能及時指標
  • 辨認主機上消耗過多資源的容器
  • 監控每個進程階段 (per-pocess level) 的資源使用情況 (Docker 容器頂部)
  • 檢視整體容器節點清單,包含協作資訊


用於 Service Fabric 無縫安裝的 Azure 資源管理模板

Service Fabric 已經建立了一個 Azure 資源管理模板,它將 Azure Log Analytics OMS 代理器安裝在所有新的 Service Fabric 叢集節點上。此模板還會在叢集部署旁產生 Log Analytics 工作區。這讓您可以更容易的將多個資源部署在一起,或能依您的需求,靈活的擴展資源。此代理器作為 VM 延展的一部分,它會自動部署於各個新的機器上,並掛在正確的工作區。

叢集部署完後,您可以將監控容器監控解決方案加到 Log Analytics 工作區(透過 Azure Marketplace)。此工作會區會在幾分鐘內自動開啟。有了這個 Azure 資源管理模板,您可以單獨進行設置,而不是單獨安裝多個組件並進行配置。正如下圖所示,當模板部署好後,Log Analytics 會顯示以下事件。

若要使用此模板,以透過 Log Analytics 為您的 Service Fabric 編排容器設定監控和診斷, 請前往此處

 

Outlook が実際に TLS 1.2 を使用した通信を行っているか確認する方法

$
0
0

こんにちは。日本マイクロソフト Outlook サポート チームです。

KB4057306 で公開しているように、Office 365 では 2018 年 3 月 1 日以降、TLS 1.2 での接続が必要となります。
前回、Windows 7 環境の Outlook が TLS 1.2 を使用した通信を行うために必要な準備を こちら の記事でご紹介しました。

今回は、Outlook が実際に TLS 1.2 を使用した暗号化通信を行っているかについて確認する方法をご紹介します。


はじめに

現在のところ Office 365 や Exchange Online の管理者側で TLS 1.2 を使用してクライアントからの接続が行われているか確認するレポート機能などは実装されていません。

現時点では、クライアント側で Network Monitor 3.4 で Outlook による通信のパケットをキャプチャして確認するのが確実な方法となります。


注意が必要な点

Outlook は Exchange Online への接続に HTTP の通信を行いますが、ここで TLS 1.2 プロトコルを使用した HTTPS による暗号化通信が必要となります。

Outlook が Exchange Online をふくめた Exchange Server へ HTTP での接続を行う際、Windows の WinHTTP と呼ばれる機能を使用しますので、Exchange Online へ Outlook で接続する Windows 7 端末では WinHTTP が TLS 1.2 を使用するための準備が必要であり、この制御方法を紹介したのが 前回記事 の「Exchange Server へ接続する場合」の箇所です。

しかしながら、前回記事でも記載したように、先進認証や Office 共通の動作などで、Outlook が WinINet と呼ばれる機能で HTTP 通信を行う場合もあり、WinINet では Internet Explorer のインターネット オプションで [TLS 1.2 を使用する] が選択されていれば TLS 1.2 が使用されます。

このため、Outlook が行う WinINet による通信で TLS 1.2 が使用されていても、WinHTTP は TLS 1.0 のままだった、という状況が特に Windows 7 では発生しやすく注意が必要です。

Qualys SSL Labs  のように、Web ブラウザでアクセスして暗号化のバージョンを確認するようなサイトでは、WinINet など Web ブラウザで使用される TLS バージョンの確認が可能ですが、WinHTTP の暗号化に使用されている TLS バージョンの確認はできません。

なお、Windows 8.1 以降では WinINet と WinHTTP の何れにおいても TLS 1.2 が既定で使用されます。

それでは、ご利用の端末で実際に Outlook が TLS 1.2 を使用した HTTPS の通信で Exchange Online へ接続しているか確認する方法を具体的にご紹介していきます。


準備

1. 以下のサイトから Network Monitor 3.4 のインストール ファイルをダウンロードし、確認を行う端末に Network Monitor をインストールします。

タイトル: Microsoft Network Monitor 3.4
http://www.microsoft.com/en-us/download/details.aspx?displaylang=en&id=4865

NM34_x64.exe (64 bit OS 用)
NM34_x86.exe (32 bit OS 用)

※ インストール後、正常にパケットのキャプチャを行うために Windows OS の再起動が必要となります。

2. OS 再起動後、コマンド プロンプトを起動して以下のコマンドを実行し、DNS リゾルバーのキャッシュをクリアします。

ipconfig /flushdns


パケット キャプチャの実施

1. Outlook が起動している場合は終了します。
2. Network Monitor を右クリックの [管理者として実行] から起動します。
3. Network Monitor が起動されたことを確認します。
※この時、左下の [Select Networks] が空で表示される場合は、管理者として起動されていない可能性があります。
4. Network Monitor の [New Capture] ボタンをクリックします。
5. 表示された [Capture x] (x は キャプチャの通し番号です) のタブが選択された状態で [Start] ボタンをクリックしてパケットのキャプチャを確認します。

6. 上部の Frame Summaryにパケットが表示され始めたら、Outlook を起動して Exchange Online へ接続します。
7. Outlook の起動が完了して Exchange Online に接続されたことを確認したら Network Monitor の[Stop] ボタンをクリックします。


キャプチャしたパケットの確認

1. Network Monitor 上部の [Display Filter] ウィンドウに "DNS" と入力して [Apply] ボタンをクリックします。
2. DNS のクエリが表示されるので、Exchagne Online の接続先である "outlook.office365.com" を探して、クエリ ID を元に応答された IP アドレスを確認します。

※ 複数の IP アドレスが返されますが、基本的には 1 つ目を控えておけば OK です。

3. [Display Filter] の [Remove] ボタンをクリックしてフィルターを解除します。
4. Network Monitor 左ペインの [Network Conversations] で "Outlook.exe" を展開して、outlook.office365.com の IP と通信しているスレッドを選択すると、キャプチャされたパケットが表示されている中央ペインで Outlook が当該 IP アドレスと通信を行ったパケットのみが表示されます。

5. 中央ペインで [ProtocolName] が TLS のパケットを探して選択します。
6. 選択されたパケットの実際のデータが下部の [Frame Details] に表示されるので、[TLS] の階層を展開して、[Version] に表示されている TLS のバージョンを確認します。

以上により、Outlook が Exchange Online への接続にメインで使用する WinHTTP を使用した通信で TLS 1.2 が使用されているかを確認することが可能です。


プロキシを使用している環境について

プロキシ サーバーを使用している環境では、名前解決をプロキシが行うため上記方法で確認対象のパケットが WinHTTP によるものか WinINET によるものかを判別することができず、技術的に別の方法での確認は可能ですがハードルがやや高くなります。

メール送受信などを行ったタイミングの Outlook.exe によるパケットがすべて TLS 1.2 になっているか、という確認方法が現実的です。


本情報の内容 (添付文書、リンク先などを含む) は、作成日時点でのものであり、予告なく変更される場合があります。


PowerShell Core and Jenkins

$
0
0

I have been working with a customer who wants to get some usage data from Azure around virtual networks and available IP addresses. Specifically how many IP addresses are available in a subnet within an Azure virtual network. This is a simple enough script and I can use the Get-AzureRMVirtualNetworkUsageList cmdlet to get the exact information. However the customer's environment has some challenges.

  • It has to be non-interactive (eventually this script will run as part of their build process)
  • They are using Jenkins to run the script
  • Jenkins is on a Linux box and I can't add a Windows slave
  • Azure CLI is installed but won't get me the information I need

This post explains how I overcame these hurdles using the new cross platform capability of PowerShell Core.

Non-Interactive Azure Login

To be able to authenticate with Azure I need to use a token - this is so I don't have to run Login-AzureRMAccount and the process can work unattended. For this I have to create a new application in Azure so I can authenticate.

In Azure Active Directory - I create a new application. Click on New application registration.

Fill in some details about the application and click Create.

I need to generate a client secret for use with my login - select the application and click on Settings -> Keys.

Enter a description for the key and click Save. A secret will be generated - you must copy and save it somewhere because when you close the blade it will be unaccessible again. This secret will be used in the script run by Jenkins.

Now that the application is created we can update the script with the application ID.

Script to calculate available IP addresses.

The script I use is located at https://github.com/anwather/SubnetCount and performs the following steps.

  1. Logs in to Azure using the application created above
  2. For each virtual network it iterates through the subnets and calculates how many IP addresses are available.

Very simple - but it makes for a quick example.

Provision and Configure Jenkins

I can create a Jenkins instance using the Azure marketplace image which will do all the work of setting up a virtual machine and installing the product for me.

In Azure I search for Jenkins in the marketplace.

Select it and click Create.

Step through the wizard and complete the details required - Azure will complain if you use any reserved names. You can also select instance size. I have screenshots below of the changes I made - for anything not listed I just used the default settings.

When complete click Create - the deployment will begin and the portal will notify you when it is complete.

Configuring Jenkins and PowerShell Core

To configure Jenkins you can follow the steps at https://docs.microsoft.com/en-us/azure/jenkins/install-jenkins-solution-template. First we have to connect to the Jenkins instance running in Azure by browsing to its URL. In the virtual machine you have created it will be listed in the overview page under DNS Name.

Browse to this and when the Jenkins page appears click Log in.

Because we don't want anyone to be able to log in to your instance we disable the public IP on it - you have to use ssl to connect and forward the port to your local machine. I use the Bash shell on Windows 10 and just follow the instructions replacing the username with my username. You will have to enter Yes to accept the host thumbprint and also enter your password for the Jenkins instance. When complete you should be presented with a login as below.

Let's install PowerShell Core on the Jenkins box. I follow the instructions at https://github.com/PowerShell/PowerShell/blob/master/docs/installation/linux.md#ubuntu-1604 and simply copy and paste the commands in the section below into the command prompt.

The full output from this will look similar to the image below. At the bottom of the image is where I launch PowerShell (pwsh)

Now I can just install the modules for AzureRM Networking,Profile and Resources by running the command below.

Install-Module AzureRM.Profile.NetCore,AzureRM.Network.NetCore -Force

Don't close the terminal window as we can now configure the job in Jenkins.

Creating and Running the Jenkins Build

Open the web browser to http://localhost:8080. The Jenkins page should appear and you can click on Login. You can use the username "admin" - the initial password can be retrieved by running sudo cat /var/lib/jenkins/secrets/initialAdminPassword at the terminal prompt. Once you have logged in click New Item and select Freestyle Project. Click ok.

In the section marked Source Code Management select git and enter the repository information as in the image.

In the section Build click Add Build Step -> Execute Shell. Enter the command as below replacing the sections with the information from your Azure Service Principal you created earlier.

pwsh -File "IPUsage.ps1" -TenantID <<your tentant ID>> -ClientID <<your client ID>> -ClientSecret <<your client secret>>

Click on Save and then Click Build Now - you will see the build start...

Click on the number of the build and select console output. You should see the network details from your Azure subscription.

So this is just an example that when faced with the possibility of writing a script in Azure CLI or Shell, now we have the option of using PowerShell Core instead.

Unable to delete file in SharePoint Online

$
0
0

Hello All,

Recently I had a customer contact me with an issue in one of their document libraries, when they tried to delete a group of documents thru the GUI they got the error 'File not Found'.

 

 

As well when they tried to access the documents using CSOM they got an error 'Exception calling "ExecuteQuery" with "0" argument(s)" "File Not Found."

 

The solution in the end was rather manual but very simple, to change the name of the document then delete it via GUI or PowerShell and since it was a small hand full of documents that was what we elected to do.  If you have a large number of documents I would recommend calling support and working with them to clean up the documents.

Pax

Simulating 1000 agents using ACS, ACI, and Durable Functions – (1) ACI

$
0
0

I did some experiment to simulate 1000 agents using several measures. I'd like to share some learning and code in this post.

 

Problem Overview

I wanted to simulate 1000 agents with cost effective way with the simplest solution.  Also, wanted to use .Net based technology as much as possible. In this case, How can we use Azure technologies?
On this experiment, I use ACI, ACS (Kubernetes with Go lang), Durable Functions.  This system is simple. Just want to printout when we've got a queue. They have 1000 client in on Premise. If possible we want to achieve less than 1 sec latency from sending message to the queue to store print state to the Storage Table.

 

The architecture is also simple. When customer want to print on a web server, send a message to Storage Queue. Then Azure Functions create data on a table storage. Print Agents are always polling the table storage. Once get a data, it print the data and sends a queue to Storage Queue. Then Azure Functions store the print status to the queue.

Simulator Candidates

Which technologies to use for this use case? Using a container is one idea. We use .Net framework this time, We convert it to the .NetCore then pack it using Visual Studio. You can refer Visual Studio Tools for Docker with ASP.NET Core. We can use Azure Container Instances or Azure Container Service. Also, Durable Functions might be good since it has good orchestrator. I'm not sure if it fits for this use case, however, it worth trying. I can learn something at least.

Packing a docker image

Once you use Visual Studio Tools for Docker, Visual Studio automatically generate proper Dockerfile like this.

Dockerfile

FROM microsoft/dotnet:2.0-runtime AS base
WORKDIR /app

FROM microsoft/dotnet:2.0-sdk AS build
WORKDIR /src
COPY *.sln ./
COPY ClientAppNetCore/ClientAppNetCore.csproj ClientAppNetCore/
COPY CommonNetCore/CommonNetCore.csproj CommonNetCore/
RUN dotnet restore
COPY . .
WORKDIR /src/ClientAppNetCore
RUN dotnet build -c Release -o /app -c ClientAppNetCore.csproj

FROM build AS publish
RUN dotnet publish -c Release -o /app -c ClientAppNetCore.csproj

FROM base AS final
WORKDIR /app
COPY --from=publish /app .
ENTRYPOINT ["dotnet", "ClientAppNetCore.dll"]

 

It is using multi staging build, well created. All we need is to name it and push to public/private repository. If you want to push this one, move to the root directory which have *.sln file.

$ docker build . -f ClientAppNetCore/Dockerfile -t tsuyoshiushio/client:1.0.0 -t tsuyoshiushio/client:latest
$ docker push tsuyoshiushio/client:1.0.0
$ docker push tsuyoshiushio/client:latest

Now you are ready to use this agent simulator using docker. 'tsuyoshiushio' is my DockerHub repository name.

Azure Container Instance

This is the Serverless docker hosting service. If it works, it might be a very good solution. Since this client requires different environment variables for one by one containers, I need some code to control the containers. You can refer the whole source code on my GitHub. You can create containers quite easily.

First, Getting credentials for client

 var credentials = SdkContext.AzureCredentialsFactory.FromServicePrincipal(clientId, clientSecret, tenantId, AzureEnvironment.AzureGlobalCloud);
 var client = new ContainerInstanceManagementClient(credentials);
 client.SubscriptionId = subsctiptionId;

Then configure container. Especially specify the resource you need.

var resources = new ResourceRequirements();
 var request = new ResourceRequests();
 request.Cpu = 0.2;
 request.MemoryInGB = 0.3; // once I tried 0.1 it cause a long execution time.

resources.Requests = request;

 var list = new List<Container>();
 for (int i = 0; i < 5; i++)
 {
 list.Add(CreateClientContainer("DOCKERHUB_NAME/client", i, resources, $"{guid}-{i}"));
 }

Then create an instance.   On the actual code, I needed to deploy one more client called spammer. It sends a lot of queue. Once finished, I wanted to terminate. That is why I specify RestorePolicy = "Never".

await client.ContainerGroups.CreateOrUpdateAsync(resourceGroup, containerGroup,
 new ContainerGroup()
 {
 Containers = list,
 Location = location,
 OsType = "Linux",
 RestartPolicy = "Never" // try not to emit the message by restarting
 }
 );

This must be the best solution for this time! Very easy! However, it wasn't I can't generate enough performance for this. Since this is preview, we have some limitation.
By default, Container Group limitation is 20 for a subscription. Number of container per container group is 60. We can deploy 1200 containers by default. The biggest problem is container create 60 per hour. I can't create 1000 container. obviously. I needed to contact support service to expand the quotas. However, I'm not sure if we can try 1000 containers since this is preview. This is totally great for "Serverless" solution. However, I needed to give up this time.

However, operating ACI with C# is very easy! We can use it for a lot of purposes!

Conclusion

ACI interface is very good and easy to operate using Azure SDK. However, it have some quota limitation. That is why, I give up this time. However ACI is very good tool to create a some containers with serverless architecture!

I ask the support to expand it, if I can do it, I'll edit this blog.

On the next blog, I'm talking about the k8s with go lang strategy to achieve this issue.

Resource

2018 年 1 月 4 日以降で Disk 11 のエラーが発生し MARS Agent バックアップが失敗する (0x8007045D)

$
0
0

こんにちは、Azure Backup サポート チームです。

本日は 1 4 日に発生しましたメンテナンスによる仮想マシンの再起動以降、Azure VM MARS Agent によるファイルとフォルダーのバックアップが失敗する弊社製品不具合の事象についてご案内いたします。
本情報の内容(添付文書、リンク先などを含む)は作成日時点でのものであり、予告なく変更される場合があります。

事象について

MARS Agent による Azure VM のファイルとフォルダーのバックアップが下記イベント ID 11 の記録とともに失敗します。

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

当該事象はバックアップ取得時に作成される VHD ファイルのマウント/アンマウントの内部処理に問題があり、IO エラー (0x8007045D) が返されることでバックアップが失敗します。

根本原因としては、Agent の処理に問題があることが分かっており現在 Microsoft 開発チームにて修正対応が進められております。

 

対処策

本事象につきましては、回避策としてキャッシュの場所変更がございます。

VM に OS ディスク以外のデータ ディスクが接続されている場合にはキャッシュの場所変更についてご検討をいただけますようお願いいたします。

また、2018 年 1 月 23 日時点で Private Fix が公開されておりますので、上記対処策の実施が難しい場合には Private Fix の適用についてご検討を頂ければと存じます。

// キャッシュの場所変更方法

1. タスク マネージャー (Ctrl + Shift + Esc キー) を起動し、[サービス] タグの「obengine (Microsoft Azure Recovery Services Agent)」を停止します。

2. 現在のスクラッチ フォルダーのバックアップ対象ファイルやフォルダーを十分な空き容量のあるスクラッチ フォルダーへコピーします。

   (規定 C:Program FilesMicrosoft Azure Recovery Services AgentScratch) 

    

   (例えば E:Scratch など)

3. 新しい Scratch フォルダーへ既定の Scratch フォルダー内にある OnlineBackup.KEK ファイルをコピーします。

4. レジストリ エディター (スタートボタン + R キーし、「regedit」と入力) を起動し、以下設定を手順 2 と同じ場所に変更します。

   レジストリ パス :

HKEY_LOCAL_MACHINESOFTWAREMicrosoftWindows Azure BackupConfig

   HKEY_LOCAL_MACHINESOFTWAREMicrosoftWindows Azure BackupConfigCloudBackupProvider

   レジストリ キー :

   ScratchLocation

5. バックアップを実行します。

 

[参考]

- Azure Backup サービスについての質問
https://docs.microsoft.com/ja-jp/azure/backup/backup-azure-file-folder-backup-faq#backup
参考箇所 : [バックアップ] "Azure Backup エージェント用に指定されたキャッシュの場所を変更する方法を教えてください。"

//  Private Fix 適用方法について

1. タスク マネージャー (Ctrl + Shift + Esc キー) を起動し、[サービス] タグの「obengine (Microsoft Azure Recovery Services Agent)」を停止します。

2. Agent を最新の 2.0.9105.0 のバージョンにアップデートします。

2-1. 下記 URL より最新版の MARS エージェントをダウンロードします。
https://aka.ms/azurebackup_agent
2-2. ダウンロードした "MARSAgentInstaller.exe" を対象のサーバーで実行します。
2-3. 更新プログラムをインストールするかの画面では [次へ] をクリックします。
2-4. インストールの画面で必要なソフトウェアのアップグレードをするかメッセージが表示されますので、[アップグレード] をクリックします。
2-5. アップグレードが完了した事を確認し [完了] をクリックします。

3. 下記からダウンロードした最新版の VhdFileProvider.dll ファイルを既存のものと置き換えます。
VhdFileProvider

既定のパス C:Program FilesMicrosoft Azure Recovery Services AgentbinVhdFileProvider.dll
※ 元々の VhdFileProvider.dll ファイルは任意の場所に保管をお願いします。

4. バックアップを実行します。
※ 最初のバックアップは下記メッセージが表示され失敗する可能性がございます。
これは、キャッシュ ロケーションを含むディスクのエラーが原因でございます。

「バックアップが失敗しました。これは、Azure Backupが設定されたキャッシュロケーションでメタデータvhdを準備できなかったためです。」

5. 別のバックアップをトリガーし、再度バックアップを取得します。

 

今後修正予定

現在 (2018/01/23)、当該製品不具合の修正を含む Agent の最新版の公開を 2018 2 1 週目に予定しております。
Agent 最新版の公開予定日については予告なく変更される可能性がございますのでご注意くださいませ。

Investigadores de Microsoft construyen un bot que dibuja lo que le pidas

$
0
0

Si les pasan una nota en la que les piden dibujar un ave con cuerpo amarillo, alas negras y pico corto, es probable que empiecen con un esquema general de un ave, luego revisen la nota, vean la parte amarilla y busquen una pluma de ese color para rellenar el cuerpo, van a leer la nota de nuevo y buscarán una pluma negra para dibujar las alas y, después de una revisión final, acorten el pico y lo definan con un destello luminoso.

Ahora ya existe un bot que también puede hacer eso.

La nueva tecnología de inteligencia artificial que se encuentra en desarrollo en los laboratorios de investigación de Microsoft está programada para poner especial atención a palabras individuales cuando se generan imágenes a partir de descripciones en texto de tipo pie de foto. Este enfoque deliberado produjo un incremento casi del triple en la calidad de la imagen comparado con la anterior técnica de vanguardia para la generación de texto a imagen, de acuerdo con resultados de una prueba de estándares de la industria reportados en un documento de investigación publicado en arXiv.org.

La tecnología, que los investigadores llaman de manera sencilla el bot dibujante, puede generar imágenes de cualquier cosa, desde escenas pastorales comunes, como pastoreo de ganado, a lo absurdo, como como un autobús de doble piso flotante. Cada imagen contiene detalles que están ausentes de las descripciones en texto, lo que indica que esta inteligencia artificial contiene imaginación artificial.

“Si van a Bing y buscan un ave, obtienen la imagen de un ave. Pero aquí, las imágenes son creadas por una computadora, pixel por pixel, desde cero”, comentó Xiaodong He, investigador principal y gerente de investigación en el Centro Deep Learning Technology, en el laboratorio de investigación de Microsoft en Redmond Washington. “Tal vez estas aves no existan en el mundo real – son sólo un aspecto de lo que nuestra computadora imagina de las aves”.

El bot dibujante cierra un círculo de investigación alrededor de la intersección de la visión de computadora y el procesamiento natural de lenguaje que él y sus colegas han explorado en el último lustro. Comenzaron con tecnología que de manera automática escribe pies de foto – conocida como CaptionBot – y luego se movieron a una tecnología que responde preguntas que los seres humanos hacen sobre imágenes, tales como la ubicación o atributos de objetos, que pueden ser de especial ayuda para la gente con ceguera.

Estos esfuerzos de investigación requieren que modelos de entrenamiento en aprendizaje automático identifiquen objetos, interpreten acciones y conversen en lenguaje natural.

“Ahora queremos utilizar el texto para generar la imagen”, comentó Qiuyuan Huang, investigador de post-doctorado en el grupo de He y co-autor de un documento. “Así que, es un ciclo”.

La generación de imágenes es una tarea más retadora que la subtitulación de imágenes, agregó Pengchuan Zhang, investigador asociado en el equipo, debido a que el proceso requiere que el bot dibujante imagine detalles que no están en el pie de foto. “Esto significa que ustedes necesitan que sus algoritmos de aprendizaje automático corran inteligencia artificial para imaginar algunas partes faltantes de la imagen”, mencionó.

Cuidadosa generación de imágenes

En el centro del bot dibujante de Microsoft se encuentra una tecnología conocida como Generative Adversarial Network, o GAN. La red consiste en dos modelos de aprendizaje automático, uno que genera imágenes a partir de descripciones en texto y otro, conocido como discriminador, que utiliza las descripciones en texto para juzgar la autenticidad de las imágenes generadas. El generador busca pasar imágenes falsas a través del discriminador; el discriminador no quiere ser engañado nunca. Con ese trabajo en conjunto, el discriminador empuja al generador hacia la perfección.

El bot dibujante de Microsoft fue entrenado por medio de conjuntos de datos que contienen imágenes y pies de foto emparejadas, lo que permite a los modelos aprender cómo emparejar palabras con la representación visual de las mismas. Por ejemplo, el GAN, aprende a generar la imagen de un ave cuando un pie de foto dice ave y, del mismo modo, aprende cómo debería verse una imagen de un ave. “Esa es una razón fundamental por la que creemos que una máquina puede aprender”, comentó He.

GAN trabaja bien cuando genera imágenes de descripciones simples en texto como un ave azul o un árbol siempre verde, pero la calidad se estanca con descripciones de texto más complejas como un ave con una corona verde, alas amarillas y pecho rojo. Esto es debido a que todo el enunciado sirve como una sola entrada para el generador. La información detallada de la descripción está perdida. Como resultado, la imagen generada es un ave borrosa con algo de verde, amarillo y rojo en lugar de algo más cercano a la descripción.

Cuando una persona dibuja, toma como referencia de manera repetida el texto y presta especial atención a las palabras que describen la región de la imagen que van a dibujar. Para capturar esta característica humana, los investigadores crearon lo que se conoce como GAN de atención, o AttnGAN, que representa de manera matemática el concepto humano de atención. Esto lo realiza al romper el texto de entrada en palabras individuales y emparejar esas palabras con regiones específicas de la imagen.

“La atención es un concepto humano; utilizamos matemáticas para que la atención sea computacional”, explicó He.

El modelo también aprende desde los datos de entrenamiento lo que los humanos llaman sentido común, y toma de esta noción aprendida para llenar detalles de las imágenes que son dejados a la imaginación. Por ejemplo, debido a que muchas imágenes de aves en los datos de entrenamiento muestran a las aves sentadas en ramas, el AttnGAN por lo general dibuja aves sentadas en ramas a menos que el texto especifique otra cosa.

“A partir de los datos, el algoritmo de aprendizaje automático aprende este sentido común de a qué lugar debería pertenecer el ave”, comentó Zhang. A manera de prueba, el equipo alimentó al bot dibujante con pies de fotos para imágenes absurdas, como “autobús rojo de doble piso que flota en un lago”. Esto generó una imagen borrosa y rara que da la impresión de ser tanto un bote con dos cubiertas o un autobús de doble piso en un lago rodeado de montañas. La imagen sugiere que el bot tuvo una lucha interna entre su conocimiento de que los botes flotan en lagos y la especificación en texto del autobús.

“Podemos controlar lo que describimos y ver cómo reacciona la máquina”, explicó He. “Podemos hurgar y probar lo que aprendió. La máquina tiene algo de sentido común aprendido como contexto, pero aún puede seguir lo que le pides y tal vez, en ocasiones, puede parecer un poco ridículo”.

Aplicaciones prácticas

La tecnología de generación de texto a imagen podría encontrar aplicaciones prácticas que actúen como una especie de asistente de bocetos para pintores y diseñadores de interiores, o como una herramienta para el refinamiento de foto activada por voz. Con más poder de cómputo, He imagina que la tecnología podría generar películas animadas basadas en libretos y aumentar el trabajo que los cineastas de animación realizan al remover algo de la labor manual involucrada en el proceso

Por ahora, la tecnología es imperfecta. Una examinación cercana de las imágenes casi siempre revela alguna falla, como aves con pico azul en lugar de negro y fruteros con plátanos mutantes. Estas fallas son una clara indicación de que una computadora, y no un humano, creó las imágenes. No obstante, la calidad de las imágenes del AttnGAN presentan una mejora casi del triple sobre el mejor GAN previo y sirve como un logro en el camino hacia una inteligencia de tipo humana genérica que aumente las capacidades humanas, de acuerdo con He.

“Para que la IA y los seres humanos vivan en el mismo mundo, deben tener una manera de interactuar entre ellos”, explicó He. “Y el lenguaje y la visión son las dos modalidades más importantes para que los humanos y las máquinas interactúen entre sí”.

Además de Xiaodong He, Pengchuan Zhang y Qiuyuan Huang en Microsoft, entre los colaboradores se encuentran los ex becarios de Microsoft Tao Xu de la Universidad Lehigh y Zhe Gan de la Universidad de Duke; y Han Zhang de la Universidad Rutgers y Xiaolei Huang de la Universidad Lehigh.

Office 365: ADConnect synchronization interval changed automatically…

$
0
0

In Azure AD Connect, the default synchronization interval is set to 30 minutes during installation.  In the majority of cases, 30 minutes is an appropriate balance between getting changes to Office 365 in a timely fashion, keeping the export set small enough to be effectively transmitted, and not overloading the on premises directories or Azure Active Directory. 

 

The configuration of the Azure AD Connect synchronization schedule can be viewed using Get-ADSyncScheduler

 

PS C:> Get-ADSyncScheduler

AllowedSyncCycleInterval            : 00:30:00
CurrentlyEffectiveSyncCycleInterval : 00:30:00
CustomizedSyncCycleInterval         :
NextSyncCyclePolicyType             : Delta
NextSyncCycleStartTimeInUTC         : 1/23/2018 2:58:30 PM
PurgeRunHistoryInterval             : 7.00:00:00
SyncCycleEnabled                    : True
MaintenanceEnabled                  : True
StagingModeEnabled                  : False
SchedulerSuspended                  : False
SyncCycleInProgress                 : False

 

Administrators may adjust the synchronization interval using Set-ADSyncScheduler.  When administrators adjust the schedule manually this is reflected in the CustomizedSyncCycleInterval. 

 

PS C:> Set-ADSyncScheduler -CustomizedSyncCycleInterval 02:00:00
WARNING: The sync interval you provided will only become effective after a sync cycle.You can choose to wait for the
automatic sync cycle to happen in next 30.00 minutes, or you can manually start a sync cyle by running
Start-ADSyncSyncCycle cmdlet.

 

PS C:> Get-ADSyncScheduler

AllowedSyncCycleInterval            : 00:30:00
CurrentlyEffectiveSyncCycleInterval : 00:30:00
CustomizedSyncCycleInterval         : 02:00:00
NextSyncCyclePolicyType             : Delta
NextSyncCycleStartTimeInUTC         : 1/23/2018 2:58:30 PM
PurgeRunHistoryInterval             : 7.00:00:00
SyncCycleEnabled                    : True
MaintenanceEnabled                  : True
StagingModeEnabled                  : False
SchedulerSuspended                  : False
SyncCycleInProgress                 : False

 

When a synchronization cycle is administratively configured the value that is configured must be greater than the AllowedSyncCycleInterval.  In our example, the AllowedSyncCycleInterval is 30 minutes, therefore any customization must be greater than 30 minutes or it will be ignored.  A customized schedule cannot be created less than the AllowedSyncCycleInterval.

 

PS C:> Set-ADSyncScheduler -CustomizedSyncCycleInterval 00:15:00

The value for the customized sync interval is lower than the allowed value.
Requested new interval = 00:15:00  Allowed interval = 00:30:00
Scheduler will still run at the allowed sync interval even after successful execution of this cmdlet.

Are you sure you want to continue?
[Y] Yes  [N] No  [S] Suspend  [?] Help (default is "Y"): y
WARNING: The sync interval you provided will only become effective after a sync cycle.You can choose to wait for the
automatic sync cycle to happen in next 30.00 minutes, or you can manually start a sync cyle by running
Start-ADSyncSyncCycle cmdlet.

 

In recent days, some customers have reported that the AllowedSyncCycleInterval was set to 2 hours even though the default should be 30 minutes.  Here is an example…

 

AllowedSyncCycleInterval            : 02:00:00
CurrentlyEffectiveSyncCycleInterval : 02:00:00

CustomizedSyncCycleInterval         :
NextSyncCyclePolicyType             : Delta
NextSyncCycleStartTimeInUTC         :
PurgeRunHistoryInterval             : 7.00:00:00
SyncCycleEnabled                    : True
MaintenanceEnabled                  : True
StagingModeEnabled                  : False
SchedulerSuspended                  : False
SyncCycleInProgress                 : False

 

The AllowedSyncCycleInterval is not administratively configured.  If this value is not administratively configured then how did the value automatically change? 

 

Azure AD Connect is a client of Azure Active Directory.  The AllowedSyncCycleInterval is determined through the clients connection with Azure Active Directory.  There could be some instances where this value may change.  For example, if an Azure AD replication partition becomes behind the service may back off the synchronization interval of Azure AD Connect.  In this instance, the value was adjusted through the server side policies controlling sync intervals.  When any service issues are rectified, the value automatically reverted to default.

 

The effective sync cycle is determined as a combination of the AllowedSyncCycle and the CustomerizedSyncCycle.  For example if the CustomerizedSyncCycle is greater than AllowedSyncCycle, the CustomizedSyncCycle will take precedence.  In this instance, most customers noted that the AllowedSyncCycle was greater than the default and any attempts to set CustomerizedSyncCycle to default were ignored since the value was lower than allowed.

 

When the allowed changes, you are encouraged to open a case with customer support services for review and confirmation.  Should the administrator require synchronization at intervals lower than the allowed, it would have to be accomplished through manual synchronization. 

 

Information regarding the AD Connect sync scheduler and manual synchronization can be found here - https://docs.microsoft.com/en-us/azure/active-directory/connect/active-directory-aadconnectsync-feature-scheduler.

GDPR Akademie včetně dokumentace reálného projektu v běžné české firmě

$
0
0

GDPR akademie je série 3 českých online webinářů, které jsou určeny pro pověřené osobě odpovědné za ochranu osobních údajů a agendu spojenou s GDPR. Slouží jako přehledný průvodce v problematice GDPR a poskytují návod, jak mohou služby a produkty společnosti Microsoft a třetích stran pomoci naplnit regulaci GDPR.

Na webinářích se dozvíte, jak můžete vyřešit tyto oblasti problematiky GDPR:

  • Efektivní vyhledávání, řízení a zabezpečení osobních informací v dokumentech a v e-mailech
  • Zabezpečení dat a přístupu z mobilních zařízení
  • Zajištění bezpečnosti provozu vašich aplikací s osobními daty
  • Smluvní zajištění zpracování informací v rámci GDPR a přenesení části odpovědnosti
  • Posouzení správy a zpracování osobních údajů vaší organizace
  • Nastavení bezpečného používání cloudových služeb
  • Zpracování procesů a agend souvisejících s GDPR
Součástí akademie bude i představení skutečného projektu souladuGDPR u konkrétního zákazníka.
Získáte tak nejen informace, ale i konkrétní dokumentaci, kterou následně můžete využít pro vlastní přípravu naplnění GDPR požadavků.

1.  Efektivní vyhledávání, řízení a zabezpečení osobních informací v dokumentech a v e-mailech
25. 1. 2018 |14:00 - 15:30   Registrace


2.  Zajištění bezpečnosti provozu aplikací s osobními daty a partnerská řešení pro podporu GDPR
8. 2. 2018 |14:00 - 15:30   Registrace


3.  Představení skutečného příběhu zákazníka, jak naplnil požadavky GDPR
2. 2. 2018 | 14:00 - 15:00   Registrace


Těšíme se na na vaši účast.

Jiří Burian


Windows Server Dashboards

$
0
0

These are some cool Dashboards brought to the community by Satya Vel a few years ago.

 

This was brought to my attention for Dashboard functionality from SCOM 2012R2 to provide visibility for Windows Computer Health state

After a history lesson, I had to find the source!

256 cores increased the limit in Windows Server 2008R2

Prior it was 64 cores (look how far we've come!)

 

The Processor perfmon object is potentially limited since.  The Windows Team built the 'Processor Information' counter to handle above 64 cores (256 as of the below article)

 

Windows 2008 R2 Performance Monitor – Processor Information Counters have replaced Processor Counters

 

 

 

Beyond the history lesson, let's get to the dashboards!

Why do you ask?     The Windows Server MP's as far back as I have (MP version 7230) use 'Processor Information' instead of 'Processor'

 

Flash forward to the Momteam blog in 2012

Blog https://blogs.technet.microsoft.com/momteam/2012/06/12/free-windows-server-2008-dashboards-for-opsmgr-2012-and-tool-to-help-create-your-own-customized-dashboards/

 

 

Windows Server Summary Dashboard

 

 

Task Pane Dashboard

 

From the Monitoring Tab

Click on the Windows Computer view

Highlight the computer you want to see performance information on

Click the 'Windows Server Task Pane Dashboard' in Tasks pane

 

What happened to CPU!

 

 

Using with SCOM 2012R2, 2016, and even TP1801 the Dashboard happened to work on my DC's.  Processor is gathered from the AD Directory Services management packs.

 

With some help, the Task Pane Dashboard was corrected to target Processor Information versus Processor

 

 

If you use the console to troubleshoot issues, it's simple to do.

Save the packs from the Gallery, and import the two MP's

Go use the dashboards!

 

Gallery https://gallery.technet.microsoft.com/Updated-Windows-Server-ff45737d

 

Microsoft Premier Workshop: Security: Modern authentication and authorization

$
0
0

Beschreibung
Die Intension des dreitägige Workshop Security: Modern authentication and authorization ist es, Architekten und Developer, die Anwendungen entwickeln, die Cloud Authentication und Authorization Technology verwenden, das notwendigen Wissen zu vermitteln.

Agenda
Module 1: Introduction:
An overview of authentication and authorization issues in full-trust, partial-trust and full internet based applications, purpose of various protocols (e.g. OpenIDConnect, OAuth2, SAML) and Microsoft tools used to support them (Azure AD, AD FS, Windows Application Proxy, OWIN and ADAL toolkits).

Module 2: OAuth2 and OpenID Connect:
This modules delves into the details of these two protocols. It reviews the various flows defined by OAuth2 and how their apply to common application topologies. It also describes their security threat models.

Module 3: Introduction to AD FS:
An overview of the Active Directory Federation Services tool. Included is an overview of its architecture, main functions, management console, basic PowerShell commands and typical use to support application authentication requirements.

Module 4: Introduction to Azure AD:
Discusses the purpose and main features of the Azure AD, including an overview of its B2E, B2B and B2C functionality, user management, application configuration and use of GraphAPI.

Module 5: Claims-based applications:
This module focuses on hands-on use of knowledge acquired in the previous modules to implement a set of related applications using OAuth2 protocols, GraphAPI and various other features of Azure AD (e.g. application roles).

Module 6: ADAL/MSAL toolkits:
Review of APIs used to obtain OAuth2 and OIDC tokens from Azure AD or ADFS.

Module 7: OWIN protocol handlers:
Review of toolkits used to initiate passive protocols in web applications and handle (validate/augment) received security tokens.

Module 8: Application development:
Hands on exercise focused on developing a complex system topology, consisting of web UI and API apps as well as native, rich-client and service apps communicating and authenticating to each other. This exercise can be tailored to customer’s intended development

Zielgruppe
Der Workshop richtet sich an Architekten und Entwickler, die mehr über OAuth2, OpenID Connect, JWT und SAML erfahren wollen.

Level 300
(Level Skala: 100= Strategisch/ 200= technischer Überblick/ 300=tiefe Fachkenntnisse/  400= technisches Expertenwissen)

Anmeldung
Zur Anmeldung wenden Sie sich bitte direkt an Ihren Microsoft Technical Account Manager oder besuchen Sie uns im Web auf Microsoft Premier Education. Dort finden Sie eine Gesamtübersicht aller offenen Workshops, für die Sie sich dort auch gleich anmelden können.

Looking at the Hyper-V Event Log (January 2018 edition)

$
0
0

Hyper-V has changed over the last few years and so has our event log structure. With that in mind, here is an update of Ben's original post in 2009 ("Looking at the Hyper-V Event Log").

This post gives a short overview on the different Windows event log channels that Hyper-V uses. It can be used as a reference to better understand which event channels might be relevant for different purposes.

As a general guidance you should start with the Hyper-V-VMMS and Hyper-V-Worker event channels when analyzing a failure. For migration-related events it makes sense to look at the event logs both on the source and destination node.

Windows Event Viewer showing the Hyper-V-VMMS Admin log

Below are the current event log channels for Hyper-V. Using "Event Viewer" you can find them under "Applications and Services Logs", "Microsoft", "Windows".
If you would like to collect events from these channels and consolidate them into a single file, we've published a HyperVLogs PowerShell module to help.

Event Channel Category Description
Hyper-V-Compute Events from the Host Compute Service (HCS) are collected here. The HCS is a low-level management API.
Hyper-V-Config This section is for anything that relates to virtual machine configuration files. If you have a missing or corrupt virtual machine configuration file – there will be entries here that tell you all about it.
Hyper-V-Guest-Drivers Look at this section if you are experiencing issues with VM integration components.
Hyper-V-High-Availability Hyper-V clustering-related events are collected in this section.
Hyper-V-Hypervisor This section is used for hypervisor specific events. You will usually only need to look here if the hypervisor fails to start – then you can get detailed information here.
Hyper-V-StorageVSP Events from the Storage Virtualization Service Provider. Typically you would look at these when you want to debug low-level storage operations for a virtual machine.
Hyper-V-VID These are events form the Virtualization Infrastructure Driver. Look here if you experience issues with memory assignment, e.g. dynamic memory, or changing static memory while the VM is running.
Hyper-V-VMMS Events from the virtual machine management service can be found here. When VMs are not starting properly, or VM migrations fail, this would be a good source to start investigating.
Hyper-V-VmSwitch These channels contain events from the virtual network switches.
Hyper-V-Worker This section contains events from the worker process that is used for the actual running of the virtual machine. You will see events related to startup and shutdown of the VM here.
Hyper-V-Shared-VHDX Events specific to virtual hard disks that can be shared between several virtual machines. If you are using shared VHDs this event channel can provide more detail in case of a failure.
Hyper-V-VMSP The VM security process (VMSP) is used to provide secured virtual devices like the virtual TPM module to the VM.
Hyper-V-VfpExt Events form the Virtual Filtering Platform (VFP) which is part of the Software Defined Networking Stack.
VHDMP Events from operations on virtual hard disk files (e.g. creation, merging) go here.

Please note: some of these only contain analytic/debug logs that need to be enabled separately and not all channels exist on Windows client. To enable the analytic/debug logs, you can use the HyperVLogs PowerShell module.

Alles Gute,

Lars

Top 7 Reasons to attend SharePoint Conference North America (SPC18)

$
0
0

SharePoint Conference North America promises to be the largest and most comprehensive event dedicated to SharePoint, OneDrive, and related technologies in 2018.  Since our first SharePoint Conference in 2006 and each thereafter I've been blown away by the passion and creativity demonstrated by our community.  2018 promises to be a watershed moment for SharePoint and we can't wait to share with you what we're working on and I wanted to share with you my top 7 reasons (one for each previous SharePoint Conference + 1 for 2018) for why you should join me and almost 100 of our SharePoint and OneDrive team in Las Vegas, Nevada May 21-23 for the event.

  1. The most SharePoint experts in one place.  Meet, mingle and network with hundreds of Microsoft SharePoint engineers, Product and Program Managers, and MVPs.
  2. Learn something new from the top industry speakers.  With over 140 sessions (8,400 minutes of content) and dedicated on-site workshops, SharePoint Conference North America is the most comprehensive event in 2018 covering SharePoint, OneDrive, and related technologies to include Yammer, Microsoft Teams, and more... You're bound to find the perfect mix of sessions.
  3. Real Customers. Real Deployments. Real Experience.  Experience hundreds of real world examples and demos from some of our largest customers.
  4. Drive SharePoint adoption.  With new business sessions, your non-technical colleagues will leave SharePoint Conference North America with the insight and knowledge they need to be successful.
  5. Find the right SharePoint solution for you.  Connect with over 60 SharePoint partners exhibiting in the expo hall all week. Learn about partner solutions to help drive your business needs and strategy through partner led sessions and an expansive expo hall with dozens of sponsors and exhibitors.
  6. Roadmap, vision, and strategy.  Be the first to hear about the exciting new features we're bringing across SharePoint, OneDrive, Yammer and more and experience a compelling and informative keynote featuring Jeff Teper, Seth Patton, and Omar Shahine where you'll be able to learn about future vision and strategy and gain in person access to additional SharePoint Virtual Summit content...
  7. Workshops and labs to help build your skills.  In addition to exclusive session content you will have access to Hands on Labs, as well as opportunities to network with technical and industry experts including Microsoft engineers, Microsoft Most Valuable Professionals (MVPs), SharePoint customers and many of our top Certified Partners.

Still not convinced? To learn more about Microsoft SharePoint Conference North America, see our list of breakout sessions and to register, visit http://www.sharepointna.com.

マイクロソフトクラウドに関する日本のパートナー様の主なニュース – 2017 年【1/24 更新】

$
0
0

日頃からマイクロソフトクラウドの拡販にご協力いただいているパートナー様に敬意を表し、広報活動をしていただいている事例について、当社と一緒に出しているニュースリリースおよびパートナー様が単独で出している主なプレスリリースの一覧をまとめました。この記事では 2017 年 4 月から 2017 年 12 月までに発表された内容をカバーされています。

 

Microsoft Azure

 

Office 365 / Microsoft 365

 

Dynamics 365

 

 

前回の情報については以下の記事をご覧ください。

 

 

 

Viewing all 36188 articles
Browse latest View live


<script src="https://jsc.adskeeper.com/r/s/rssing.com.1596347.js" async> </script>