Quantcast
Channel: TechNet Blogs
Viewing all 36188 articles
Browse latest View live

Understanding Volume Activation Services – Part 1 (KMS and MAK)

$
0
0

Windows Activation and KMS have been around for many years - and still - a lot of people don't understand the basics of Windows activation, what are the differences between KMS and MAK, and how to choose the best Volume Activation method that meets the organization’s needs.

In this blog post, we'll shed some light on these subjects and explain how to deploy and use Volume Activation services correctly.
This will be the first part in the series.
 

Series:

  • Part 1 - KMS and MAK
  • Part 2 - Active-Directory Based Activation
  • Part 3 - Office Considerations and Other Activation Methods

 

So... What is KMS?

KMS, like MAK, is an activation method for Microsoft products, including Windows and Office.
KMS stands for Key Management Service. The KMS server, called 'KMS host', is installed on a server in your local network. The KMS clients connect to the KMS host for activation of both Windows and Office.

Prerequisites

A KMS host running on Windows Server 2019/2016/2012R2 can activate all Windows versions, including Windows Server 2019 and Windows 10 all the way down to Windows Server 2008R2 and Windows 7. Semi-Annual and Long-Term Service Channel (LTSC) are both supported by the KMS.

Pay attention that Windows Server 2016 and Windows Server 2012R2 will require to install the following KB's in order activate the newest Windows 10 Enterprise LTSC and Windows Server 2019:

For Windows 2016:
1. KB4132216 - Servicing stack update, May 18 (Information, Download).
2. KB4467684 - November Cumulative Update or above (Information, Download).

For Windows 2012R2:
1. KB3173424 - Servicing stack update (Information, Download).
2. KB4471320 - December 2018 Monthly Rollup (Information, Download).

In order to activate clients, the KMS uses a KMS host key. This key can be obtained from the Microsoft VLSC (Volume Licensing Service Center) website. By installing that key, you are configuring the server to act as a KMS host.
Because KMS host key of newer Windows version can be used to activate older Windows versions, you should only obtain and install the latest KMS host key available in VLSC.
Also, note that KMS host key for Windows server can be used to activate Windows clients - so you can (and should) use one KMS host key to rule them all.

Now that you understand those facts, you know you should look for 'Windows Server 2019' version in VLSC and obtain the KMS host key for that version. Once again, this key will let you activate any Windows server and Windows client version in your environment.

Deploying the KMS host

After getting the KMS host key from VLSC, you'll need to install it. For that, we'll use the Volume Activation Tools feature, available on Windows Server 2012R2 and above.
You can install the Volume Activation Tools feature using the Server Manager (Remote Server Administration Tools -> Role Administration Tools -> Volume Activation Tools) or by using the following PowerShell command: Install-WindowsFeature RSAT-VA-Tools.

Run the tool right from Server Manager -> Tools or by typing 'vmw' in your PowerShell screen.
Volume Activation Tools lets you choose between Active Directory-Based Activation (will be covered in the second post) and Key Management Service (KMS). For now, we'll choose to the KMS activation method.

After selecting the activation method, you'll be asked to provide the KMS host key obtained from the VLSC.

Choose your preferred activation method (by phone or online using the internet) to activate the KMS host key for the selected product.

In the 'Configuration' step, pay attention to the following settings:

  1. Volume license activation interval (Hours) - determines how often the KMS client attempts activation before it is activated. The default is 2 hours.
  2. Volume license renewal interval (Days) - determines how often the KMS client attempts reactivation with KMS (after it has been activated). The default is 7 days.
    By default, Windows activates by the KMS host for 180 days. After 7 days, when there are 173 days left for the volume activation to be expired, the client attempts reactivation against the KMS host and gets a new 180 days activation period.
  3. KMS TCP listening port - By default, the KMS host is listening on port 1688 (TCP). You can change the port if needed using this setting.
  4. KMS firewall exceptions - Creating the relevant firewall exceptions for the Private/Domain/Public profiles.
  5. DNS Records - By selecting 'Publish', the Volume Activation Tools wizard creates the _vlmcs SRV record (e.g _vlmcs._tcp.contoso.com). Windows uses this SRV record to automatically find the KMS server address.

Reviewing KMS client settings

By now, you should be running a KMS host configured with KMS a host key for Windows Server 2019.

Any Windows client that configured to use 'KMS Client Channel' will be activated against the new KMS host automatically within 2 hours (as this is the 'KMS Activation Interval' default value).
The 'KMS Client Channel' determined by the product key used in the client. By default, computers that are running volume-licensed editions are KMS clients with no additional configuration needed.
In case you'll be required to convert a computer from a MAK or retail edition to a KMS client, you can override the currently installed product key and replace it with an applicable KMS client key that suitable for your Windows version. Pay attention that the selected key should exactly match the Windows version you're using, otherwise it won't work.
These KMS clients keys, also known as Generic Volume License Keys (GVLK), are public and can be found in the KMS Client Setup Keys page.

From the client perspective, you can use the slmgr.vbs script to manage and view the license configuration.
For a start, you can run 'slmgr.vbs /dli' to display the license information currently applied on the client.
You can see in the screenshot that a KMS client channel is being used.

If required, use 'slmgr.vbs /ipk PRODUCTKEY' (e.g slmgr.vbs /ipk WC2BQ-8NRM3-FDDYY-2BFGV-KHKQY) to replace the current product key with a new one (KMS client channel in this example).

In order to initiate an activation attempt, you can use the 'slmgr.vbs /ato', which will immediately try to activate Windows.
The KMS host will respond to the activation request with the count of how many computers have already contacted the KMS host for activation. Computers that receive a count below the activation threshold are not activated.
The activation thershold is different for Windows clients and servers:

  • Clients will activate if the count is 25 or higher
  • Servers will activate if the count is 5 or higher.

You can find the full list of slmgr.vbs command-line options right here.

When to use KMS

Compared to MAK, KMS should be your preferable activation method as long as you meet the activation threshold and the (very) basic requirements for deploying KMS (which are DNS and TCP/IP connectivity between the clients and the KMS host).
Saying that, we'll see in part 2 why Active Directory-Based Activation is actually even better than KMS for most scenarios.
 

What is MAK?

MAK (Multiple Activation Key) is another activation method for Microsoft products, including Windows and Office.
Unlike KMS, MAK activation is used for a one-time activation against Microsoft's hosted activation services.
This means that MAK does not require any server or services within your network - the activation request approved by Microsoft servers either online or by phone (for isolated environments that can't reach the internet).

Just like KMS, the MAK keys can be found in your VLSC portal. Each MAK has a predefined number of allowed activations, and each activation occurrence will incrementally increase the number of used activation for that MAK.
In the screenshot above, you can see that 3 activations (out of 300 allowed activation/seats) were completed using a MAK for Windows Server 2016 Standard.

How to use MAK

Using MAC for activation is very simple.
First, you'll have to go to VLSC and obtain the suitable MAK for your product (like Windows Server 2016 Standard).
then, open Command Prompt (cmd) in elevated mode and run the following commands:

  1. Install your MAK key using 'slmgr.vbs /ipk MAKProductKey' (e.g slmgr.vbs /ipk ABCDE-123456-ABCDE-123456-ABCDE).
  2. Activate Windows using 'slmgr.vbs /ato'. The following message should appear:
  3. To view the activation details you can use the 'slmgr /dli' command.

When to use it

MAK activation method should be used only for computers that never connect to the corporate network and for environments where the number of physical computers does not meet the KMS activation threshold and Active Directory-based activation could not be used for some reason.

 

Summary

In the first part of the series we learned about KMS and MAK, and we understood the purpose of each activation method.
As a thumb rule, you should always try to stick with KMS activation as long as it possible.
When KMS is not an option (usually due to lack of connectivity to the corporate network), consider using a MAK.

Remember that one KMS host key can be used to activate all of your Windows versions includes servers and clients. Grab the latest version from your VLSC and you're good to go.
If you encounter problems when trying to activate, check that your KMS server is available and running, and use slmgr.vbs tool to get more details about your client's activation status.

In the next posts, we'll cover the Active Directory-based activation and understand how to activate Office using the Volume Activation services. Stay tuned!


[パートナー事例] “遅いわね。止まって見えるわ…” ~ プライム・ストラテジーの「KUSANAGI」による Web システムの数千倍の高速化【1/14更新】

$
0
0

今日、WordPress は Web システムとして広く使用されています。その WordPress を数千倍のレベルで高速化するプライム・ストラテジー株式会社 (以下、プライム・ストラテジー) の「KUSANAGI」を導入した企業ではどのようなメリットが生まれているのでしょうか。マスコット キャラクターに「遅いわね。止まって見えるわ」と言わせしめる「KUSANAGI」の特長とパフォーマンスについて、代表取締役の中村 けん牛 氏とマーケティング部長の楠木 大三郎 氏にお話をお聞きしました。

プライム・ストラテジー株式会社

代表取締役

中村 けん牛 氏 (写真左)

プライム・ストラテジー株式会社

マーケティング部長

楠木 大三郎 氏 (写真右)

 

プライム・ストラテジーの概要について

―― まず会社の概要についてお教えください。

中村 プライム・ストラテジーは今年で 16 期目を迎える会社です。創業以来、私が社長を務めています。主なビジネスは当社が提供する KUSANAGI をコアとしたインテグレーション サービスとマネージド サービスです。また、私はプログラミング歴に加えて執筆歴も長く、マイコン少年として中学一年生のときに『マイコン BASIC マガジン』誌に寄稿したときから数えて 30 年ほどの経験があります。その経験を生かして技術者向けの書籍の執筆なども手掛けていて、SBクリエイティブ社や O’Reilly 社等から出版されている WordPress 関連のシリーズは累計 5 万部を売り上げています。私が金融系の経験があることもあり、会社としては技術色に加えてビジネス色が強い傾向があり、現在、東京に加えて、ニューヨーク、シンガポール、そしてインドネシアのジャカルタといったビジネスの中心地にオフィスを展開しています。

―― 提供製品の特長は?

中村 KUSANAGI はCentOS 7 をベースとし、セキュリティとパフォーマンスがチューニングされた OS 実行環境です。WordPress をより高速かつセキュアに運用するためのベスト プラクティスが組み込まれています。ご存知の通り、WordPress はオープン ソース ソフトウェアですが、Web システムで広く使用されています。特にメディア系のサイトでは CMS (コンテンツ管理システム) として活用されています。最近の W3Techs による調査によると、WordPress はアクセス数の多い世界トップ 1 千万サイトの約 30% で使用されていて、CMS としてのシェアは約 60% です。日本の検索トレンドでも WordPress が 2 位を大きく突き放してトップです。当社の KUSANAGI は、この WordPress のパフォーマンスとセキュリティを大幅に強化した仮想マシンです。KUSANAGI はフリーミアムとして無償で提供していますが、当社は KUSANAGI を使用したサーバー構築などのインテグレーション サービスと保守運用をメインとするマネージド サービスの 2 つのサービスを提供しています。

 

WordPressを標準の CentOS 7 にインストールした場合と比べて、KUSANAGI では 10 ~ 15 倍の高速化が可能です。ここで理解していただきたいポイントは、この高速化はページ キャッシュによるものではないということです。具体的に言えば、キャッシュに残った情報から情報漏洩につながる可能性が危惧される管理画面や、ユーザーごとにパーソナライズされた画面を表示する必要がある場合など、キャッシングなしでパフォーマンスの強化が求められる場合に KUSANAGI を使用すれば大幅な効率化による業務改善を実現できます。キャッシュが使用できる場合であれば、数千倍といったレベルでの高速化が可能です。

―― KUSANAGI はフリーミアムで提供されているとのことですが、どのようなビジネス モデルを展開されているのですか。

中村 当社の 2 つのビジネス モデルのうち、プロジェクト単位で当社がサーバー構築やマイグレーションのサービスを提供するインテグレーション サービスは当社のビジネスの 40% を占めています。残りの 60% を占めるマネージド サービスは主に運用と保守に関するもので、システム インテグレーターの企業様が KUSANAGI で構築したシステムの保守を KUSANAGI の開発元である当社が担当するという形で展開しています。開発元による保守ということで多くのお客様から高い信頼をいただいています。

―― これまでの導入実績はどのくらいですか。

楠木 KUSANAGI は Microsoft Azure を始めとする主要なクラウド プラットフォームで動作します。KUSANAGI が実行しているプラットフォームは多岐にわたりますが、Microsoft Azure だけでも 1 冊の導入事例が作れるほどです。

 

中村 KUSANAGI は 26 か国の 215 リージョンで利用可能です。ローカルやオンプレミスで利用されていて計測できないケースを除き、実際に計測可能な範囲では、現在 2 万台以上のマシンで KUSANAGI が使用されています。1 年前は 1 万台だったので、この 1 年で倍増したことになります。

 

楠木 ベトナムでもKUSANAGIがクラウドサービスとして作られていて、事後承諾的に私が社長に報告したという変わったケースもありました (笑)。

 

中村 国内でのケースとしては、読売新聞東京本社様が Yomiuri Online のポータルとして提供している「yomiDr.」とメルセデス・ベンツ日本株式会社様の「Mercedes-Benz LIVE!」を始めとして多くの事例が当社のホームページで紹介されています。「yomiDr.」は医療・健康・介護に関する情報を提供するサービスで Microsoft Azure のコンピューティング リソースを使用していることとコンテンツの運用を除き、企画/デザインから設計、実装、そして保守/運用まで、すべての作業を当社が担当しています。「Mercedes-Benz LIVE!」では、他のクラウド上にあった既存のサイトを KUSANAGI for Microsoft Azure に移行したプロジェクトをきっかけに当社のマネージド サービスをご利用いただいています。

KUSANAGI」のメリット

―― 数千倍の高速化が可能とのことでしたが、他にはどのようなメリットがあるのですか。

中村 KUSANAGI には高度に強化されたセキュリティという特色もあります。この記事が公開されている頃にはリリースされていると思いますが、今回予定されている v.8.4 のアップデートでは WAF (Web アプリケーション ファイアウォール)、Vuls (脆弱性検出ツール)、そして IDS/IPS (不正侵入検知/防御システム) の実装によってエンタープライズの要件が満たされると同時に、TLS 1.3、対応 と SELinux 完全対応という形でセキュリティが大幅に強化されています。個人的には、これ以上どこを強化できるのかというレベルでセキュリティが強化されていると思います (笑)。

楠木 KUSANAGI ではアプリケーション リポジトリから最新のミドルウェアを提供しています。一般的に WordPress ではアップデートが問題になることが多いのですが、KUSANAGI ではアップデート可能な仮想アプライアンスとして提供されています。たとえば、CentOS 7 の PHP のバージョンは非常に古く、標準では PHP 5.4 のアップデートしか提供されていませんが、Microsoft Azure で作成した KUSANAGI のインスタンスでは、PHP 7 系の最新版へアップデートが可能です。仮想アプライアンスを提供するサービスでもミドルウェアのアップデートまで行っているケースは稀ですが、KUSANAGI では常に最新のミドルウェアをリポジトリから提供しているので、最新機能を活用した Web アプリケーションも利用できます。

 

 

 

中村 高速化と堅牢なセキュリティという 2 つのメリットはエンタープライズだけでなく、特にメディア系のサイトを運営するお客様に高く評価されています。回遊率がアップした結果、ページ ビュー (PV) が 40% 増えたというケースがあります。

 

楠木 CMS で使用する場合、ページキャッシュではなく KUSANAGI そのものの性能によって高速化が行われるので、管理画面の処理が非常に高速になります。また、専用のプラグインを使えば、画像のトリミングなどの処理も自動的に行って公開用に最適化することが可能になるので、結果として大幅な業務改善が期待できます。さらに、KUSANAGI ではハイスペックのコンピューティング リソースは必要ないので、サーバー インスタンスそのものをロースペック化してコストを削減することもできます。

 

中村 クラウドでアクセスが増大するとオートスケールで対応するというケースが多いのですが、私たちは元々オートスケールに依存しないサーバーを構築しています。実際、これまでオートスケールが必要になったことはありません。オートスケールのようなシステマチックな方法ではアクセス数の急激な増加には対応できずにサーバーがダウンすることがあるのですが、KUSANAGI では、ユーザー エクスペリエンスを維持したまま高速化とセキュリティ向上を実現できるので、サーバーの管理労力が大きく削減されます。

 

楠木 KUSANAGI のコマンドでデプロイや SSL 化が可能なので、KUSANAGI ベースで開発を行う開発者も増えてきています。フリーミアムで無償提供されていることに加えて、さまざまなツールが含まれているのでエンジニアの生産性もアップします。Web システム開発の標準環境として KUSANAGI が使われているケースも多く、システム インテグレーターがシステムを構築して、その保守作業が当社に依頼されるという形で棲み分けが行われています。

KUSANAGI の可能性を広げるマイクロソフトの多様なテクノロジとソリューション

―― どのような経緯でマイクロソフト パートナーになったのですか。

中村 当社がスポンサーした WordPress コミュニティのイベントにマイクロソフトもスポンサーとして参加し、ブースが隣り合うというようなことが頻繁にあって、その現場レベルで親密な交流が生まれたのがきっかけです。そのうちに Azure のハンズオン資料の作成を依頼されたり、WordPress on Microsoft Azure のロードショーを一緒に開催したりという流れでパートナー登録されたと記憶しています。

 

楠木 日本の企業で初めて Azure Marketplace に登録されたのが KUSANAGI for Microsoft Azure でした。現在、当社は Gold クラウド コンピテンシーを取得しています。最初はエバンジェリストのチームとマーケティングすることやセミナーを開催するということが多かったのですが、マイクロソフトと一緒に動いているということがエビデンスとしてお客様にアピールできたケースも少なくありませんでした。

中村 そのような意味では、営業面の連携という点では大いに恵まれていると思います。さらに、マイクロソフトで開発系のチームにいた方々が別の部署に異動して、いろいろな部署から個別案件の相談を受けたりするので、現在はパートナー チーム以外のさまざまなチームと頻繁に連携させていただいています。

 

 

楠木 2020 年に Windows Server 2008 のサポートが切れることを受けて、Web システムとして使っている Windows Server 2008 を Microsoft Azure に移行して KUSANAGI でリプレースするというような案件の相談を受けることがあります。マイクロソフトが Microsoft Azure をコアとして新たな次元でビジネスを展開しているのだと考えています。

 

中村 パートナー部門の KPI に稼働台数が設定されていたときは KUSANAGI for Microsoft Azure はトップでした。最近の KPI は Azure リソースのコンサンプションになったようで、「もっと (KUSANAGI を) ブン回してリソースのコンサンプションを上げてほしい」とリクエストいただいています。KUSANAGI の性質上、どうやってもブン回らないのですが (笑)、期待に応えたいと思っています。

―― 最後にマイクロソフト パートナーへのメッセージをお願いします。

中村 マイクロソフトのパートナーに対する力の入れ具合は他のクラウド ベンダーに比べて桁違いです。加えて、マイクロソフトのプロダクトとソリューションの幅は非常に広いので、プロダクトとソリューションごとに異なるパートナーがいます。他のクラウド ベンダーのパートナーが協業しようとしても結果的に競合してしまうのですが、マイクロソフトの場合は、パートナーごとに得意分野が異なるので質の高い協業が可能です。

 

楠木 Web システムはオープン化が進んでいるので、その点からも多様なテクノロジを持っているマイクロソフトと協業するメリットは大きいと思います。KUSANAGI は優れた OS 実行環境ですが、マイクロソフトのテクノロジを使うことでその可能性は大きく広がります。たとえば、可用性、冗長性、そしてサイト リカバリーといった DR 機能を使うとなると専用のデータ センターが必要ですが、Microsoft Azure ではリージョン間での自動的なレプリケーションが行われるので、月額わずか数万円のコストで高度な DR を実現できます。

 

プライム・ストラテジー株式会社

WordPress のリーディング カンパニーとしてだけでなく、超高速 WordPress 実行環境 KUSANAGI の開発元として、インテグレーション サービスとマネージド サービスを多岐にわたって提供している企業です。同社の KUSANAGI for Microsoft Azure は日本企業のソリューションとして初めて Azure Marketplace に登録された製品です。多様なクラウド プラットフォームで動作する KUSANAGI は、メディア系を始めとする多くのサイトで驚異の高速化とセキュリティ強化を実現しています。

So long, and thanks for all the fish…

$
0
0

Heute wird dieser Blog deaktiviert - genauso wie viele andere der TechNet Blogs. (es kommen noch 2 weitere Wellen, die voraussichtlich bis aller spätestens dieses Fiskaljahr beendet sein werden)

Die Bloggingplatform geht komplett in mehrere andere, bereits existierende Bereiche auf:

  1. Die Produkt-Blogs
    1. Für mich persönlich am relevantesten: Enterprise Mobility + Security
  2. Die TechCommunity und die Blogs innerhalb dieser.
    1. Für mich persönlich am relevantesten: Security, Privacy & Compliance

Ich werde meinen "individual" Blog vermissen und kann euch leider noch nicht sagen, wie ich die Inhalte, die ich über diesen Kanal zu euch gebracht habe, in Zukunft teilen werde.

Für den Anfang werde ich in unser Microsoft Partner Deutschland Modern Workplace Yammer Gruppe  (Microsoft Partners only) meine Inhalte teilen, mache mir aber natürlich darüber hinaus weiterhin Gedanken, wie ich "statischen" Content zur Wissensvermittlung in geeigneterer Form bereitstellen kann.

 

Ansonsten bleibt mir nur "Danke" zu sagen für die treue Leserschaft über die letzten Jahre und lasst uns im Kontakt bleiben, über die Yammer Gruppe oder per LinkedIn!

 

Viele Grüße

Stephanus

ShowIT 2019, najväčšia IT odborná a vzdelávacia konferencia na Slovensku

$
0
0

Príďte si vypočuť TOP IT spíkrov zo Slovenska a zahraničia na 10. ročník konferencie ShowIT, ktorá sa bude konať  5. - 7. februára v Cinema City Aupark. Tešiť sa môžete na viac ako 40 vysokoodborných prednášok, ktoré sa zameriavajú na aktuálne témy vo svete IT.

 

PREČO PRÍSŤ NA SHOWIT?

  1. Top IT spíkri z Česka a Slovenska
  2. Vysoká odborná úroveň prednášok
  3. Úžasná atmosféra a možnosť stretnutí so spíkrami
  4. Legendárna ShowIT PARTY

 

ZÍSKAJTE VSTUP NA ShowIT 2019 ZDARMA!
Objednejte si a absolvujte ľubovoľný 5-dňový verejný kurz, realizovaný v IT školiacom stredisku GOPAS SR do 30.09.2019 a Gopas vrátí vstupné zo ShowIT 2019 v plnej výške (cena vstupného bude odpočítaná od ceny kurzu). Podmienky akcie »

Nechce se Vám do Bratislavy ale raději byste do Brna?
Pak nepřehlédněte "sesterskou akci"  G2B•TechEd, o dva dny dříve v Brně.

Těšíme se na viděnou.

 

Office 365 Weekly Digest | January 6 – 12, 2019

$
0
0

Welcome to the January 6 - 12, 2019 edition of the Office 365 Weekly Digest.

Seven features were added to the Office 365 Roadmap last week, with important updates for Microsoft Teams, Advanced Threat Protection, and Office 365. One Office 365 feature of note is the update for the Office app tile icons on the Office 365 app launcher and Office.com.

The "Getting Started with Microsoft Teams" sessions have multiple events scheduled this week, and there is one event focused on end user guidance for making the switch from Skype for Business to Microsoft Teams. The customer immersion experience sessions still have open slots for the two options on Wednesday, January 23, 2019.

There were a couple of big announcements last week - new features in Microsoft Teams for Firstline Workers and a new cloud-based policy management service for Office 365 ProPlus. Other blog posts from last week include new improvements to the SharePoint Migration Tool, availability of the CIS Microsoft 365 Foundations Benchmark, and the answer to the question "Why are some Office 365 network endpoints provided as URLs only with no IP addresses?".

Wrapping up the post are noteworthy items on recent updates to Microsoft Forms, learning tools, Yammer adoption resources and self-service password reset in Microsoft 365 Business. Also announced was the availability of Microsoft Planner for US government customers.

 

OFFICE 365 ROADMAP

 

Below are the items added to the Office 365 Roadmap last week…

 

Feature ID

App / Service

Title Description

Status

Added

Estimated Release

More Info
45268

Office 365

Auto-Investigation with threat playbooks Auto-investigation capabilities for threats will be available in Office 365 E5. Also, there will be key threat playbooks available at this time also. Ability to trigger automated investigations using the playbooks from Threat Explorer also will go live.

In development

01/08/2019

Q2 CY2019

n / a
45441

Office 365

Office app tile icons update on the Office 365 app launcher and Office.com Existing functionality with the app launcher and Office.com will remain the same. The only difference will be the icons for Outlook, OneDrive, Word, Excel, PowerPoint, OneNote, SharePoint, Teams, Yammer and Skype.

Rolling out

01/09/2019

January CY2019

n / a
45426

Word

PowerPoint

To improve performance, cached files will open before syncing changes Word and PowerPoint will open non-synced cloud files directly from the Office Document Cache instead of waiting for any changes to be downloaded. This will allow users to start working on documents and presentations faster and match the behavior when opening files within a user's sync folders. If the user has a cloud-based presentation available in the Office Document Cache, the user will see the last version stored on their machine while the changes are downloaded.

Rolling out

01/11/2019

February CY2019

n / a
45522

Advanced

Threat

Protection

Additional ATP Plan 1 capabilities for existing Office Threat Intelligence (ATP Plan 2) customers We're consolidating the capabilities in current Office 365 Advanced Threat Protection(ATP) and Office 365 Threat Intelligence products to help customers with detection, protection, investigation and remediation of threats. We're offering this through two SKUs: 1. Current Office 365 ATP SKU becomes Office 365 ATP Plan 1 2. Current Office 365 Threat Intelligence SKU becomes Office 365 ATP Plan 2 Office 365 ATP Plan 2 includes Office 365 ATP Plan 2. So, we'll be backfilling Office 365 ATP P1 capabilities to existing Office 365 Threat Intelligence customers.

In development

01/11/2019

February CY2019

n / a
43333

Teams

Microsoft Teams for Firstline Workers Microsoft Teams is continuing to expand to meet the needs of Firstline Workers with 4 capabilities: the new customizable mobile experience, Shifts, Praise, and Graph APIs for Shifts.

Rolling out

01/11/2019

January CY2019

n / a
45511

Teams

Microsoft Teams Availability for Office 365 Government DoD Microsoft Teams, the hub for teamwork in Office 365, brings together everything a team needs: chats, meetings, calls, files, and tools. Microsoft Teams will be made available to Office 365 US Government DoD customers.

In development

01/12/2019

February CY2019

n / a
45516

Office 365

Azure AD

New option on the Office 365/Azure AD login screen When you sign in with your Microsoft account you will now be able to click for More sign-in options. This will show you alternative sign-in methods and help for getting in to accounts. Signing in with additional options will only enable personal account access and will not change how users sign-in to their work or school resources.

Rolling out

01/12/2019

February CY2019

n / a

 

 

UPCOMING EVENTS

 

Getting Started with Microsoft Teams

When: Tuesday, January 15, 2019 at 10am PT | This 60-minute session introduces you to the key activities needed to get started with Microsoft Teams today. From setting your profile, to running a meeting, users will leave this session with the foundation needed to use Teams with confidence. Check here for sessions in different time zones and other dates.

 

Getting Started with Microsoft Teams

When: Wednesday, January 16, 2019 at 7am PT | This 60-minute session introduces you to the key activities needed to get started with Microsoft Teams today. From setting your profile, to running a meeting, users will leave this session with the foundation needed to use Teams with confidence. Check here for sessions in different time zones and other dates.

 

Getting Started with Microsoft Teams

When: Thursday, January 17, 2019 at 1pm PT | This 60-minute session introduces you to the key activities needed to get started with Microsoft Teams today. From setting your profile, to running a meeting, users will leave this session with the foundation needed to use Teams with confidence. Check here for sessions in different time zones and other dates.

 

Make the switch from Skype for Business to Microsoft Teams: End User Guidance

When: Thursday, January 17, 2018 at 10am PT | Designed specifically for Skype for Business end users, this course offers everything you need to help make the transition to Microsoft Teams. We'll focus on the core communication capabilities you use today, chat and meetings, as well as provide an orientation to additional collaboration functionality Teams has to offer. Check here for sessions in different time zones and other dates.

 

Customer Immersion Experience: Productivity Hacks to Save Time & Simplify Workflows

When: Wednesday, January 23, 2019 at 9am PT and 12pm PT | This 2-hour hands-on experience will give you the opportunity to test drive Windows 10, Office 365 and Dynamics 365. A trained facilitator will guide you as you apply these tools to your own business scenarios and see how they work for you. During this interactive session, you will: (1) Discover how you can keep your information more secure without inhibiting your workflow, (2) Learn how to visualize and analyze complex data, quickly zeroing in on the insights you need, (3) See how multiple team members can access, edit and review documents simultaneously, and (4) Gain skills that will save you time and simplify your workflow immediately. Each session is limited to 12 participants, reserve your seat now.

 

BLOG ROUNDUP

 

3 new ways Microsoft Teams empowers Firstline Workers to achieve more

We are announcing three new features in Microsoft Teams to help Firstline Workers do their best work. Firstline Workers are more than two billion people worldwide who work in service- or task-oriented roles across industries such as retail, hospitality, travel, and manufacturing. We're expanding Teams with new capabilities to digitally empower the Firstline Workforce. New features include: (1) a customizable mobile experience with mobile-only features such as location sharing, (2) a Graph API for the Shifts scheduling tool, which provides integration between Teams and workforce management systems, and (3) the new Praise feature that makes it easy for managers and employees to recognize their coworkers right within Teams. | Related: Empower your Firstline Workers with new capabilities in Microsoft Teams

 

Announcing the new cloud-based policy management service for Office 365 ProPlus

We are pleased to announce the preview of the Office client policy service to help administrators manage policies for all Office 365 ProPlus users in their organization, from an easy-to-use, Internet-based portal focused on Office 365 ProPlus management. Office 365 ProPlus allows users to access full Office experiences from multiple Windows devices. These may be managed or MDM-enrolled devices, but are often also personally-owned and unmanaged. Now with the Office client policy service, you can define and enforce Office client policy without the infrastructure or MDM services traditionally required. The Office client policy service allows administrators to define policies for Office 365 ProPlus and assign these policies to users via Azure Active Directory security groups. Once defined, policies are automatically enforced as users sign in and use Office 365 ProPlus. This service is now available as a preview for all organizations with Office 365 ProPlus. | Related: Microsoft Mechanics - Deploying Office apps with ConfigMgr + new MDM-less policy management

 

Kick start the new year and your cloud migration with new SharePoint Migration Tool improvements

We're excited to announce new improvements to the SharePoint Migration Tool for the month of January. Designed to be used for migrations ranging from the smallest set of files to a large scale enterprise migration, the SharePoint Migration Tool will let you bring your information to the cloud and take advantage of the latest collaboration, intelligence, and security solutions with Office 365. Improvements this month include: (1) A new, updated UI aligned with the Office 365 user experience, (2) Ability to start new migrations without having to restart the SharePoint Migration Tool, and (3) Improved interaction flow including simplified setting review experience.

 

Best practices for securely using Microsoft 365—the CIS Microsoft 365 Foundations Benchmark now available

We're excited to announce the availability of the Center for Internet Security's (CIS) Microsoft 365 Foundations Benchmark—developed by CIS in partnership with Microsoft—to provide prescriptive guidance for establishing a secure baseline configuration for Microsoft 365. CIS is a nonprofit entity focused on developing global standards and recognized best practices for securing IT systems and data against the most pervasive attacks. The CIS Microsoft 365 Foundations Benchmark is designed to assist organizations in establishing the foundation level of security for anyone adopting Microsoft 365. The benchmark should not be considered as an exhaustive list of all possible security configurations and architecture but as a starting point. Each organization must still evaluate their specific situation, workloads, and compliance requirements and tailor their environment accordingly.

 

Why are some Office 365 network endpoints provided as URLs only with no IP Addresses?

IP Addresses for network endpoints that are categorized as Optimize and Allow are provided, but for the worldwide commercial instance no IP Addresses are provided for network endpoints that are categorized as Default. Instead we recommend customers direct Office 365 network traffic that goes to Default categorized endpoints to their default Internet egress location. There is usually some kind of proxy server which will review and send the request to the Internet over the organizations firewall and the firewall is configured to allow network traffic from the proxy server. Network traffic bound for Office 365 which is categorized as Default is proxy aware and is okay to manage in this way. It's the same as if a user enters a new URL into a web browser. The user doesn't have to provide the IP Address for that URL. Instead the request is sent to a proxy server. | Related: Office 365 URLs and IP address ranges – Updated January 7, 2019

 

NOTEWORTHY

 

Email confirmation receipt is available in Microsoft Forms

We are thrilled to announce our new feature, email confirmation receipt, which we're rolling out and will soon be available for all commercial customers. Respondents will receive a confirmation email, which includes a thank you message and link to view their responses. Note: Email receipt is only available when your respondents belong to your organization and you've checked "Record Name" in Settings.

 

Updated: Yammer Adoption Resource Center

Yammer Adoption Resources has a new look and updated content! This site, first launched at Microsoft Ignite 2017, has become a customer favorite becoming a one stop shop for over 30+ adoption materials. These adoption resources are centered around six steps focused on engagement and results with Yammer. You can use these resources to help take your Yammer community to the next level without having to reinvent the wheel, since many of the resources come with the ability to customize to fit the organization branding, culture and goals.

 

10 Learning Tools updates for the new year, including Translate and inclusive math improvements

With the kickoff of 2019 and school back in session again, we want to help you reinvigorate your teaching and reach all your students! Our product updates include ways to help you communicate with every student through translation capabilities, improve reading and writing skills, and even support math development. With all these updates, we're sure you'll find at least one feature to help you kick off the new year right – read on for more information! | Related: OneNote and Class Notebook updates for the new year

 

Catch ALL The Microsoft Flow Conference Sessions ON-DEMAND!

The Microsoft Flow Conference was an amazing event, full of useful demos, great humor and MOUNTAINS of valuable information! We had 16 sessions ranging from beginner to intermediate all the way to into advanced techniques. We also had sessions that focused on the community, on real world scenarios and even about non-connected connectors. Now that the event is over, be sure to go back and check out the sessions you might have missed or the ones you need to re-watch! Without further adieu, here is the list of sessions as they happened through the day. **For added value, be sure and pay attention to the chat box on the right. That was the questions and comments as the live event was happening! Enjoy! | Related: Filter resources in the Flow portal, SharePoint page approvals, and two new connectors

 

Microsoft Planner is now available in Microsoft's cloud offerings for US government customers

Since Planner first launched, we've heard a ton of interest and excitement from US government customers for a tool like Planner. End users in government agencies, from state and local to federal organizations, wanted a simple, intuitive, and collaborative task management tool to help them visually organize their team's work. IT admins wanted to provide their users with a simple work management solution while still meeting the strict security and compliance requirements of the US government. We've been hard at work to make sure Planner would do both. We're happy to announce Planner is available within Microsoft cloud offerings for US government customers. End users can now access Planner within Microsoft 365 Government GCC and Microsoft 365 Government GCC High, with Microsoft 365 Government DoD coming soon. Note: The following features in Planner will not be available in US government cloud during the initial release - (1) Microsoft Teams integration, (2) Email notifications, and (3) SharePoint integration.

 

Self Service Password Reset with on-premises writeback in Microsoft 365 Business

In August 2018 we announced support for on premises Active Directory in Microsoft 365 Business. To facilitate identities mastered on Active Directory, we are excited to announce Self-Service Password Reset with on-premises writeback capability in Microsoft 365 Business. Self Service Password Reset (SSPR) is a feature already included in Microsoft 365 Business, that allows users to change their password in the cloud. Password writeback is a complimentary feature that enables those password changes to be written back to an existing on-premises directory in real time. This simplifies password operations and helps ensure consistent application of password policies.

 

Migrating a WSUS Database from WID to SQL

$
0
0

Overviewin

  • In this video guide, we will be covering how to migrate WSUS Database (SUSDB) from Windows Internal Database instance to SQL Server
  • stance.
  • Topics in Video

    Commands and Notes:

    • Connect to WID instance in SQL Management Studio of sqlcmd (Server 2012 or Newer): \.pipeMICROSOFT##WIDtsqlquery
    • Connect to WID instance in SQL Management Studio of sqlcmd (Server 2008 R2 or Older): \.pipeMSSQL$MICROSOFT##SSEEsqlquery
    • Powershell command to see WSUS installed role services: Get-WindowsFeature -Name UpdateServices*
    • Powershell command to remove WSUS WidDB: Remove-WindowsFeature -Name UpdateServices-WidDB
    • Powershell command to install WSUS SQL Database Connectivity: Install-WindowsFeature -Name UpdateServices-DB
    • WsusUtil command: WsusUtil.exe postinstall SQL_INSTANCE_NAME="SCUP.CONTOSO.LOCAL" CONTENT_DIR="J:WSUS"
      • SQL_INSTANCE_NAME and CONTENT_DIR should be changed to for your environment details

    Helpful Resources:

    Save The Date – End of Exchange 2010 Support–T Minus 1 Year

    $
    0
    0

    End of Exchange 2010 SupportJanuary 2020 is going to be a very important month.  There are multiple large and important products which will exit out of their extended support lifecycle phase.  The list includes Exchange 2010.

    We reviewed this a year ago, to provide additional warning and notification as many customers still run Exchange 2010 on-premises.  For those who are not in the middle of upgrade or migration activities the time to start is now.  While the end of support date is January, consider that many organisations will have change freezes over Christmas and you should plan to have Exchange 2010 fully decommissioned prior to the 14th of January 2020.  Do you really want to be worrying about this over the holiday period?

    This post is a note to make sure the support lifecycle dates are factored into your project plans and appropriate action is taken.  The products will continue to be serviced as per the respective support policy. Make sure you are aware of what is happening on the 14th of January 2020.

    We are now just 12 months away from January 2020, everyone who is still running products which will exit out of support should have a plan to successfully migrate onto newer supported versions.  Previously these products transitioned from mainstream to extended support and was discussed in this post.

    The list of products which will transition out of extended support in January 2020 includes:

    Please note that Windows Vista, Office 2007 and Exchange 2007 previously exited out of extended support in 2017.

    Office 2010 will exit out of support of the 13th of October 2020, which is slightly later that its Exchange 2010 brethren.

    Exchange 2010 SP3 Support Lifecycle

    The relevant dates and details are available from the product support lifecycle site.

    Exchange 2010 Support Status

    Windows Server 2008 R2 Support Lifecycle

    Windows Server 2008 R2 Support Status

    For addition options for Windows and SQL Server, please see the Premium Assurance website.

    Cheers,

    Rhoderick

    (Azure) Tip of the Day: New Azure Storage Explorer & AzCopy integration feature

    $
    0
    0

    Today's tip...

    You can now use AzCopy v10 (Preview) for uploading and downloading Blobs from Azure Storage Explorer.

     To enable this feature:

    • Download and install Azure Storage Explorer
    • Open Azure Storage Explorer, select "Experimental" menu, select "Use AzCopy for Improved Blob Upload and Download"

    When enabled, AzCopy will be used in the following scenarios:

    • Upload of folders and files to blob containers, either via the toolbar or drag and drop.
    • Downloading of folders and files, either via the toolbar or context menu.
    • Supports resume option by default, very useful for large uploads
    • Auto generate AzCopy command with required arguments (this saves lot of time)

     References:

     


    (Cloud) Tip of the Day: Final reminder: OMS portal moving to the Azure portal

    $
    0
    0

    Today's tip...

    Over the last 12 months, Operations Management Suite (OMS) monitoring, management, and security capabilities have been incorporated into the Azure portal. We’ve also enhanced the Azure portal with many new features and capabilities.

    Because the Azure portal fully replaces it, the OMS portal will be retired on January 15, 2019. You can continue to use your existing services and licensing in the Azure portal.

    You can read more about the move from the OMS portal to the Azure portal in the documentation. If you have any questions or concerns, reach out to us at LAUpgradeFeedback@microsoft.com.

    Article 0

    $
    0
    0

    The SharePoint Conference is fast approaching – lf you’re an IT Professional, implementer, decision maker, business user, or developer you don’t want to miss the SharePoint Conference. Join us as Microsoft unveils its vision, roadmap, and latest innovations across SharePoint, OneDrive, Yammer, Microsoft Teams, Stream and Office 365. We cover all things teamwork related to help our customers succeed with Microsoft 365.

    This promises to be the largest and most comprehensive event dedicated to SharePoint in 2019. The SharePoint Conference will provide the training, insights, and networking opportunities you need to successfully develop, deploy, govern, and get the most from SharePoint, OneDrive, Yammer, Microsoft Teams, Stream, and Office 365.

    Register by February 18 to save and receive a hotel gift card.

    Still on the fence?  Hotel rooms at the venue are booking quickly, reserve your stay at the venue at https://book.passkey.com/event/49694527/owner/28465/home before they run out and register for the event at a later date.

    Exchange Server 2010 End of Support is (Still) Coming

    $
    0
    0

    In April 2018 we blogged about the coming End of Support date for Exchange Server 2010. It’s time for another reminder, but today’s post is extra special. Why?

    One year from today Exchange Server 2010 will no longer be supported.

    What does ‘end of support’ mean?

    Exchange Server, like almost all Microsoft products, has a support lifecycle during which we provide new features, bug fixes, security fixes, and so on. This lifecycle typically lasts for 10 years from the date of the product's initial release, and the end of this lifecycle is known as the product's end of support. When Exchange 2010 reaches its end of support on January 14, 2020, Microsoft will no longer provide:

    • Technical support for problems that may occur
    • Bug fixes for issues that are discovered and that may impact the stability and usability of the server
    • Security fixes for vulnerabilities that are discovered and that may make the server vulnerable to security breaches
    • Time zone updates

    Your installation of Exchange 2010 will continue to run after this date. However, due to the changes and risks listed above, we strongly recommend that you migrate from Exchange 2010 as soon as possible.

    What are my options?

    We’ve created a page (https://aka.ms/Exchange2010EndOfSupport) where we outline options, but in order to stay supported you essentially can;

    • Migrate all mailboxes to Office 365 and remove all Exchange 2010 servers by Jan 2020, making sure any on-premises servers used for administration purposes are on a supported version.
    • Go Hybrid with Office 365, remove all Exchange 2010 servers by Jan 2020 and make sure any on-premises servers are on a supported version.
    • Stay On-Premises and upgrade to a newer version of Exchange Server.

    Clearly, we think moving to Exchange Online and Office 365 is a good idea. We really do believe that’s where you’ll get access to the most secure and productive software with the lowest TCO. But over and above all of that, and in relation to the subject of this post – it gets you out of the upgrade business. If you migrate fully to Office 365 you really don’t need to worry about these big bang version migrations any more. You just have to make sure you keep a much smaller number of on-prem servers up to date, and you’re good.

    If you do want to stay on-premises don’t forget that you cannot upgrade directly from Exchange 2010 on-premises to Exchange Server 2019. You can upgrade to Exchange 2013 or 2016 directly from Exchange 2010 and we recommend you upgrade to Exchange 2016 if you have the choice. It will give you a longer support lifecycle and more features. Given how similar 2013 and 2016 are from a migration standpoint, it’s also just as easy to go to 2016 as it is 2013. So, upgrade to Exchange 2016, and then you have the option to go to 2019 if you want to.

    What if I need help?

    If you have a complex deployment, or if you just don’t have the time or skills you might need some help. That’s fine, there are plenty of ways to get help.

    If you're migrating to Office 365, you might be eligible to use our Microsoft FastTrack service. FastTrack provides best practices, tools, and resources to make your migration to Office 365 as seamless as possible. Best of all, you'll have a real support engineer that will walk you through your migration, from planning and design all the way to migrating your last mailbox. If you want to know more about FastTrack, take a look at Microsoft FastTrack.

    If you run into any problems during your migration to Office 365 and you aren't using FastTrack, or you are migrating to a newer version of Exchange Server, we're still here to help. Here are some resources you can use:

    You might choose to engage a partner to help too. We have a great number of partners with deep skills in Exchange, and we’re sure one of them will be able to help you. Start your search here.

    So what now?

    What now? You need to get started if you haven’t already. Time really does fly and Jan 14th 2020 is only a year away.

    (Tick, tock….)

    The Exchange Team

    Windows 10: Laptops/Tablets: How to set your apps to use the best performing video card?

    $
    0
    0

    Applies to:

    Windows 10 1809
    Windows 10 1803

    Does not apply to:

    Windows 10 1709
    Windows 10 1703
    Windows 10 1607
    Windows 10 1511
    Windows 10 1507

    Dani a good colleague reached out and asked on his laptop that had Dual GPU’s, how do we make his work related apps use the Discrete “Graphics Processing Unit” (GPU)?

    You might ask, what is a “Discrete GPU”?

    It’s a Dedicated GPU that is not a part of the CPU, it’s a separate add-in board or a separate chip on the system board, usually found on small factor PC’s such as laptops and/or tablets.

    Why did he want it to run the “Discrete GPU”?

    He wanted his apps to run faster.

    i.e. games and graphic intensive apps.

    In Task Manager, he was seeing the following:

    image

    What if your laptop or tablet doesn’t have two video cards?

    It probably doesn’t ship with an optional discrete driver.

    What kind of tablets have an optional discrete GPU?

    Such as the Surface Book 2 and others from your favorite OEM vendor(s).

    The first item that most folks will find is the following:
    "Adjust visual effects for best performance" should really be called "Adjust visual effects for crappiest appearance"
    https://blogs.msdn.microsoft.com/oldnewthing/20130327-00/?p=4833/

    and then the following articles:
    15055 Optimize Windows for better performance
    https://support.microsoft.com/?id=15055

    4002019 Tips to improve PC performance in Windows 10
    https://support.microsoft.com/?id=4002019

    In order to adjust this, in the past versions of Windows 10 1709 or older, Windows 8.1, and Windows 7, you would use a 3rd party software such as:

    • AMD Radeon Settings
    • or
    • Nvidia Control Panel

    Meanwhile, Dani had found that we had added a new feature to Windows 10.

    Select GPU to use by specific applications

    Click the Start button, type Graphics settings and then hit Enter.
    Choose between Classic app or Universal app (Windows Store Apps).
    Select desired app and then click Add.
    Select the app from the list and then click Options.
    Set the graphics preference for the app and then click Save to complete.

    Method 1)  Action Center

    image

    Click on “All Settings”

    image

    Click on “System”

    image

    Click on “Display”

    image

    In Display, “Scroll all the way down”

    Click on “Graphics settings”.

    image

    Under “Choose an app to set preference”.

    Select “Classic app” or “Universal app”

    For example:

    Windows Explorer

    image

    c:windowsexplorer.exe

    image

    Click on “Options”.

    image

    Change it to “High Performance”

    Click on “Save”

    image

    Repeat with the following “Classic apps”:

    Internet Explorer

    Microsoft Teams

    Microsoft Power BI Desktop

    Microsoft Outlook

    Microsoft Word

    Microsoft Excel

    Microsoft PowerPoint

    Microsoft Access

    How about “Universal apps” (aka Universal Windows Platform (UWP) apps (formerly Windows Store apps and Metro-style apps))?

    In this example, we will be using Microsoft Edge browser:

    image

    Under “Choose an app to set preference”

    Select “Universal app”

    Under “Select an app”

    image

    Select “Microsoft Edge”

    Click on “Add”

    image

    image

    image

    image

    image

    Now you should be able to see “High Performance” under Microsoft Edge.

    Repeat the steps for the other Universal app(s).

    I hope this helps,

    Yong (It’s raining in Southern California Smile ).

    Secure Credentials with Self-Signed Certificates for PowerShell Scripts

    $
    0
    0

    Hello everyone, I'm Preston K. Parsard, specializing in Platforms, Azure Infrastructure and Automation topics, and I'd like to share some insights for securing PowerShell credentials using certificates. This post is based on a recent customer project, but we'll also wrap a story around it on behalf of our made-up friends at our fictitous company Adatum.com.

    Adatum.com is a new IT consulting firm, and the DevSecOps team is evaluating approaches to securing PowerShell credentials so they can recommend the most suitable method for their customers considering credential security for scripting. At a minimum, the team also wants to adhere to the ISO/IEC 2700 family of standards to help their customers keep information assets secure when implementing any recommended solution. The sprint cycle for this team is an aggressive one week, which is how much time they schedule with each customer to provide a solution, so let's begin our initial lightning sprint together!

    Meet the Team


    Figure 1: Adatum DevSecOps Team

        Dev: Dave Delta

        Dave is the developer and a recent computer science college graduate focusing on .NET, Python     and PowerShell for infrastructure development projects.

        Sec: Samantha Sierra

        Samantha is the team lead and an expeirenced engineer with a 10 year background in IT     security, and have also held development, operations and management roles throughout her     career.

        Ops: Oliver Oscar

        Oliver is fairly new to IT and has 3 years experience with Windows administration and Active     Directory. (Yes, I realize that Dave and Oliver have a striking resemblance, but they're actually not twins. Trust me. 😉 )

    This post discusses:

    •    The reasons for making secure credentials available for interactive or scheduled scripts

    •    Certificate requirements

    •    Infrastructure requirements

    •    Scenarios for accounts to host combinations

    •    Creating and using certificates for credential encryption and decryption in scripts

    Technologies discussed:

    PowerShell, PKI

    Project Site: http://bit.ly/2Q8KY9m

     

    Why Should we Make Secure Credentials avaialble for scripts?

    Samantha covers the rationale provided by Fabrikam, the teams customer, for secure retrieval and use of credentials in their PowerShell scripts. It's Monday, the first day of the weekly sprint cycle at the dialy scrum standup. The customer is Fabrikam, which is a small regional petro-chemical refining company with operations in the south central US. They want to be able to launch a script either interactivlely or by means of a scheduled task or job, and after the initial setup, not be prompted for any required credential sets associated with service accounts during script execution.

    One particular use case cited by the customer is to interactively and remotely test DNS name resolution for their 700+ member servers in their primary data center. This is because they're planning a major DNS migration project and need to test and report the results for a pilot subset of servers for name resolution, before expanding the scope to the entire set of systems. They want to be able to do this on demand to verify name resolution, troubleshoot or spot check any inconsistencies for multiple servers at a time, but not have to worry about always being prompted for and supplying credentials to reach these remote machines.

    Since Fabrikam has several administrators with Active Directory priviledged accounts that will be running commands or scripts, they also need to support scenarios where multiple administrators can log onto multiple machines, either on a set of designated jump/development servers or each individuals own workstation to launch interactive code or setup scheduled scripts. The solution must only allow administrators to import or use the encryption/decryption certificate if they know the private key password. This is like using a shared secret that will allow the flexibility of the multiple accounts, multiple hosts scenario. When the combined certificate creation/password retrieval script runs, it should also implement transcript logging so that an audit trail is maintained. Furthermore, transcript logging will aid diagnostic efforts and debugging when required.

    While there are other alternatives for achieving password encryption, such as issuing certificates from their PKI servers or using the ConvertFrom-SecureString cmdlet method, Samantha proposed starting the first sprint using self-signed certificates. There are also other methods of cloning certificates, such as using keytool. This utility however, is a command line tool that must be downloaded and would not integrate natively into a PowerShell solution.

    A decision must ultimately be made by the customers security governance team whether using self-signed certificates is an acceptable risk. A PKI enterprise certificate server solution would normally be warranted if Fabrikam needed a wide scale distribution of cient certificates for general user or client authentication, but in this case, there will be no more than 3 administrators on the Fabrikam team using the script, so Fabrikam has decided that self-signed certificates are sufficient for this scope after-all. Samantha would still like her DevSecOps team to explore a solution (later) which integrates Active Directory Certificate Services as a Certificate Authority for a PKI based implementation of this project, so that the team can provide this as an option to other clients in the future. For now, they will proceed as planned with self-signed certificates.

    She also noted that if a ConvertFrom-SecureString implementation was employed, this would restrict Fabrikam to using only a single priviledged account on a single host per protected service account. With the proposed solution using certificates, Adatum can allow their customers to achieve greater flexibility for more account-host combination scenarios. We'll will explore the details of the 1) Single Account, Single Host (SASH) combination later, but for now, here are some basic images that represent all scenarios at a glance.

    Figure 1 Single Account, Single Host (SASH)

    Figure 2 Single Account, Multiple Hosts (SAMH)

    Figure 3 Multiple Accounts, Single Host (MASH)

    Figure 4 Multiple Accounts, Multiple Host (MAMH)

    Finally, this implmentation should also allow administrators to create multiple credential sets for multiple service accounts, where each service account will have it's own folder of artifacts. These artifacts will include a username, password and certificate files, stored and secured using access control entries on a central file server.

    On Tuesday, Samantha suggests that in order to develop a general outline of the script process for everyone on the team, they should first document that process. David, having some recent exposure to UML modeling from college, volunteers to create an activity diagram that will serve both as their guide to develop the solution and will also be included in the customer documentation for this project when completed.


    Figure 5 Set-SelfSignedCertCreds.ps1 Script Sequence of Activities

     

    DETAILS

    David finished the diagram on Tuesdsay, and on Wednesday morning, he decides that to better explain the process, he will also need to lists the details of the step.


    IMPORTANT: The following steps are associated with running this script initially to create the certificate and encrypted account credentials with the -ExportCert parameter.

    Set-SelfSignedCertCreds.ps1 Script Sequence of Activities Details: -ExportCert:$true

    Step 1: When you run this script initially, it must be executed using the -ExportCert parameter. This is because a self-signed certificate is required to encrypt a specified service account password. The service account name value used with the -svcAccountName parameter and the encrypted password, along with the certificate, are all exported to the directory path entered for the -netDirectory parameter. The -logDirectory parameter is used for indicating the path that will be used for the transcript file. To execute the Set-SelfSignedCertCreds.ps1 script for the first time, use the following parameter set as shown in Example 1 of the Get-Help -Name .Set-SelfSignedCertCreds.ps1 -ShowWindow results which is also shown here for convenience:

    EXAMPLE 1

    [WITH the -ExportCert switch parameter]

    .Set-SelfSignedCertCreds.ps1 -netDirectory "\<server><share><directory>" -logDirectory "\<server><share>logs" -svcAccountName <svcAccountName> -ExportCert -Verbose

    In this example, a new self-signed certificate will be created and installed. The service account password for the service account name specified will be encrypted and exported to a file share, along with the username.

    The certificate will also be exported from the current machine. The verbose switch is added to show details of certain operations.

    NOTE: If you are using VSCode to run this script, use this expression to dot source the script so that the variables will be available in your session after the script executes.

    . .Set-SelfSignedCertCreds.ps1 -netDirectory "\<server><share><directory>" -logDirectory "\<server><share>logs" -svcAccountName <svcAccountName> -Verbose

    IMPORTANT: At this point, service credentials can't be requested yet for decryption unless the script is run again without the -ExportCert parameter. The following steps assumes that the -ExportCert parameter switch was specified with the intent to create the certificate to encrypt and export the service account password, username and the encryption/decryption certificate.

    Step 2b: Since we are assuming that the -ExportCert switch was specified, the self-signed certificate will now be created and installed into the Cert:CurrentUserMy certificate store of the currently logged on user, which is Dave Delta using the alias: usr.g1.s1@dev.adatum.com. When the certificate is created, a password for the private key must also be specified. The certificate will have the following properties to support secure encryption and decryption of the service account password:

    # Create parameters for document encryption certificate

    $SelfSignedCertParams =

    @{

    KeyDescription = "PowerShell Script Encryption-Decryption Key"

    Provider = "Microsoft Enhanced RSA and AES Cryptographic Provider"

    KeyFriendlyName = "PSScriptEncryptDecryptKey"

    FriendlyName = "$svcAccountName-PSScriptCipherCert"

    Subject = "$svcAccountName-PSScriptCipherCert"

    KeyUsage = "DataEncipherment"

    Type = "DocumentEncryptionCert"

    HashAlgorithm = "sha256"

    CertStoreLocation = "Cert:CurrentUserMy"

    } # end params

    Step 4: A prompt appears for the service account password. As you enter this password, the character values will be obscured from view.

    Step 5: The service account password is encrypted using the public key of the certificate.

    Step 6: To ensure that the encrypted password can be centrally accessible for other administrators in the domain and protected with file system and share permissions, as well as backed up, it is then written to a file and exported to a file server share path that was previously specified by the -netDirectory parameter as the artifacts location.

    NOTE: A sub directory will be created with the common name of the service account so that if multiple service account credentials are encrypted and managed, each service account will have its own unique subfolder. This subfolder will contain the service account password, username and certificate file.

    Step 7: In this step, the script will also write the service account user name to a file and export it to the -netDirectory artifacts path.

    Step 8: Finally, the previously installed Self-Signed certificate will be exported to the -netDirectory artifacts path so that it can be subsequently retrieved from a central source by other administrators. These administrators can re-run the script without the -ExportCert parameter to retrieve and decrypt the service account credentials from the same or any other machines that supports the PowerShell PKI module.


    IMPORTANT: The following steps are associated with running this script with the intent to retreive and decrypt an existing encrypted service account credential set by NOT using the

    -ExportCert parameter.

    Set-SelfSignedCertCreds.ps1 Script Sequence of Activities Details: -ExportCert:$false

    Step 1: When you run this script without the -ExportCert parameter, the credentials and certificates must already exist on the file server from a previous execution of the script with the -ExportCert parameter. The -logDirectory parameter is used for specifying the path for the transcript and log files. To execute the Set-SelfSignedCertCreds.ps1 script for using an existing certificate, use the following parameter set as Shown in Examples 2 and 3 of the Get-Help -Name .Set-SelfSignedCertCreds.ps1 -ShowWindow results which is also shown here:

    EXAMPLE 2

    [WITHOUT the -ExportCert switch parameter]

    .Set-SelfSignedCertCreds.ps1 -netDirectory "\<server><share><directory>" -logDirectory "\<server><share>logs" -svcAccountName <svcAccountName> -Verbose

    This command will import the self-signed certificate associated with the service account name if required on a machine, retrieve the previously exported credentials, then use the certificate to decrypt the password component of the credential.

    NOTE: If you are using VSCode to run this script, use this expression to dot source the script so that the variables will be available in your session after the script executes.

    . .Set-SelfSignedCertCreds.ps1 -netDirectory "\<server><share><directory>" -logDirectory "\<server><share>logs" -svcAccountName <svcAccountName> -Verbose.

    EXAMPLE 3

    [WITHOUT THE -ExportCert AND WITH the -SuppressPrompts switch parameter]

    .Set-SelfSignedCertCreds.ps1 -netDirectory "\<server><share><directory>" -logDirectory "\<server><share>logs" -svcAccountName <svcAccountName> -SuppressPrompts -Verbose

    This command will import the self-signed certificate if required on a machine, retrieve the previously exported credentials associated with the service account name specified, then use the certificate to decrypt the password component of the credential. In this case, all interactive prompts will be suppressed, but transcript logging will continue.

    This switch is intended for non-interactive scenarios such as dot sourcing this script from another in order to retrieve the service account credential set for use in the main script.

    NOTE: If you are using VSCode to run this script, use this expression to dot source the script so that the variables will be available in your session after the script executes.

    . .Set-SelfSignedCertCreds.ps1 -netDirectory "\<server><share><directory>" -logDirectory "\<server><share>logs" -svcAccountName <svcAccountName> -Verbose

    Step 2a1: If example 2 in Step 1 was used where the -SuppressPrompt parameter was NOT used, the following list of tasks will be presented to the administrator, along with a prompt to continue or terminate the script.

    The following actions will be performed:

    1. Import the certificate $($SelfSignedCertParams.Subject) if not already imported and installed to $($SelfSignedCertParams.CertStoreLocation) for the current user account."

    2. Retrieve the username and password credential set for the service account that will be used to execute scripts.

    3. Decrypt the password for the service account using the imported certificate.

    4. Construct a credential set based on the retrieved service account username and the decrypted service account password.

    PLEASE PRESS [ENTER] TO CONTINUE OR [CTRL-C] TO QUIT.

    Step 2a2: The *.pfx certificate will be imported from the file server into the current user certificate store at Cert:/CurrentUser/My

    Step 9: The service account username will be retrieved from the file server.

    Step 10: The service account password is retrieved from the file server and decrypted.

    Step 11: Next, a credential object will be constructed from both the retrieved service account username and the decrypted password.

    Step 12: Finally, the credential set will be displayed to show that its components were successfully retrieved from the file server and constructed properly. This credential object can now be used for executing commands or scripts which require this service identity for authentication. This is what the credential set will look like when displayed in the console:

    UserName : svc.ps.script@dev.adatum.com

    Password : System.Security.SecureString

    Now that we have a basic idea of the process flow, let's look at the topology for this implmentation.

    On Wednesday afternoon, Samantha reviews the activity diagram and the detailed list, but would also like to have a physical view of the process, both to reinforce the teams own understanding and also to include in the project Wiki for the customer. Oliver, having the most operations experience, will create an infrastructure diagram on Thursday that will coincide with the steps already outlined from David's list above. It's late morning now on Thursday and as Oliver is completing this task, he decides to embelish the diagram with a few logical elements for the -ExportCert and -SuppressPrompts switched parameters.

    Figure 6 Set-SelfSignedCertCreds.ps1 Infrastructure View

    By Thursday evening, Samantha is delighted at the combined efforts of the team so far to produce all this cool documentation, and during the daily scrum meeting the team reviews the results and of a test plan that David developed and executed earlier that day. Here is the use case image for the test plan.


    Figure 7 Integration Test Plan

    Testing Interactive Authentication

    # Test parameters

    # TASK-ITEM: Update these parameters with your own custom values for your environment.

    $remoteTestMachine = "<remoteTestMachine>"

    $scriptPath = "<scriptPath>"

    $scriptContent = "Get-ChildItem -Path 'c:'"

    # Test case 1.0: To test a command interactively, use the following expression:

    # tc1.1 Interactive command test

    Invoke-Command -Computername $remoteTestMachine `

    -ScriptBlock { Get-Childitem -Path "c:" } -Credential $svcAccountCred

    A successful result should look similar to the following output:


    Figure 8 Interactive Directory Listing Test

    To test scheduling a scheduled job, use the following code snippet.

    # Test case 2.0: Register scheduled job using a script file, which contains the code: Get-ChildItem -Path "c:"

    # tc2.1 Register the job using the script file

    Register-ScheduledJob -Name psjob1 -FilePath $scriptPath -Credential $svcAccountCred

    # tc2.2 Create a trigger for 10 seconds from now

    $trigger1 = New-JobTrigger -At (Get-Date).AddSeconds(10) -Once -Verbose

    # t2.3 Add the trigger to the job

    Add-JobTrigger -Name psjob1 -Trigger $trigger1 -Verbose

    # t2.4 After 20 seconds, get the job information.

    Start-Sleep -seconds 20 -Verbose

    Get-ScheduledJob -Name psjob1 -Verbose

    # t2.5 Retrieve the results

    Receive-Job -Name psjob1 -Keep -Verbose

    # t2.6 The scheduled jobs will appear at in the Task Scheduler at the path: MicrosoftWindowsPowerShellScheduledJobs

    # t2.7 Remove the job

    Get-ScheduledJob -Name psjob1 | Unregister-ScheduledJob -Verbose

    The console view of the commands and results should resemble this:


    Figure 9 Scheduled Directory Listing from Script File Test

    For the final test case, we'll scheduled another job but use a script block instead of a script this time.

    # Test case 3.0: Register scheduled job using a script block

    # t3.1 Register scheduled job

    Register-ScheduledJob -Name psjob2 `

    -ScriptBlock { Get-ChildItem -Path "\azrads1003.dev.adatum.comc$" } `

    -Credential $svcAccountCred -Verbose

    # t3.2 Create a trigger for 10 seconds from now

    $trigger = New-JobTrigger -At (Get-Date).AddSeconds(10) -Once -Verbose

    # t3.3 Add the trigger to the job

    Add-JobTrigger -Name psjob2 -Trigger $trigger -Verbose

    # t3.4 After 20 seconds, get the job information.

    Start-Sleep -seconds 20 -Verbose

    Get-ScheduledJob -Name psjob2 -Verbose

    # t3.5 Retrieve the results

    Receive-Job -Name psjob2 -Keep -Verbose

    # t3.6 The scheduled jobs will appear at in the Task Scheduler at the

    # path: MicrosoftWindowsPowerShellScheduledJobs

    # t3.6 Remove the job

    Get-ScheduledJob -Name psjob2 | Unregister-ScheduledJob -Verbose

    Executing this snippet produces the result shown here:


    Figure 10 Scheduled Directory Listing from Script Block Test

    On Friday morning, the team meets with the Fabrikam customers for a sprint review to demonstrate the solution. Although David knows the most intricate details of the project, he can't present it because he's fictitious, remember? So I'll just have to show the demo on his behalf: (This is the best part if you've made it this far and would just prefer to watch a video 😉)

    Demo: See the video of the demo here.

    Wrapping Up

    With this solution, you get the convenience of avoiding manual password entries, the security of encrypted credentials and the capability of expanding this to multiple accounts across multiple systems.

    Although you can use the ConvertFrom-SecureString cmdlet, PKI based certificates, external command line utilities or even certain cloud based services, these approaches may not always suit your specific needs. Using document encryption self-signed certificates may be more appropriate to reduce or eliminate dependencies on the PKI team if it's separate from Dev, Sec, and or Ops, or to quickly prototype solutions in Dev/Test environments as proofs of concepts before expanding the scale to a production based PKI implementation. You can even use document encryption certificates for Desired State Configuration deployments.

    If your security requirements include reducing administrative effort while satisfying compliance and maintaining an audit trail, then the method described in this post may be just what you were looking for. Besides, having this knowledge may help train new techies when they onboard, or even just the intrinsic satisfaction that comes from being able to fully report or explain it to management 😊

    Where's the Source Code?

        The source code can be viewed at: http://bit.ly/2QagVOq and downloaded from: http://bit.ly/2QX75Vt

    ACKNOWLEDGEMENTS

    I'd like to extend a personal thanks and appreciation to the contributors of all the resources listed below, which helped me to sufficiently research the topic for this post. I'd like to also give a quick shout-out to one of my colleagues Bill Grauer, who gave me the idea and an initial script to implement a similar requirement for one of our customers. Thanks also to Dale Vincent for his technical review and Brandon Wilson for formatting suggestions.

    REFERENCES

    1. Using Self-Signed Certificates to Encrypt Text
    2. Using a Certificate to Encrypt Credentials…
    3. Using a Certificate to Encrypt Credentials… (Update)
    4. ISO Standard 27005, Edition 3:v1:en
    5. ISO-IEC 27001 Information Security
    6. PowerShell Code to Store User Credentials Encrypted for Re-use
    7. Encrypt and Store your Passwords and use them for remote…
    8. ConvertFrom-SecureString
    9. Data Protection API
    10. Searching for File attributes
    11. Function to Create Certificate Template in ADCS…
    12. Clone Certificate with New Identity (keytool)
    13. Keytool, Oracle Java SE Documentation

    Tip of the Day: One Year for EOS – Windows 7

    $
    0
    0

    Today's tip...

    What are you doing to plan for Windows 7 end of support? Soon after that, Office 2010 will also hit EOS. Are you ready? You have a full year to figure things out, but we suggest you start planning now.

    Check out today’s blog post for more information.

    • Desktop App Assure
    • Office 365 ProPlus
    • Configuration Manager
    • Active Directory
    • And more…

     Reference: “2019 is the year to make the shift to a modern desktop” - https://www.microsoft.com/en-us/microsoft-365/blog/2019/01/14/2019-is-the-year-to-make-the-shift-to-a-modern-desktop/

    TNWiki Article Spotlight – Bulk Insert Azure CSV Blob into Azure SQL Database

    $
    0
    0

    Dear All

    Back with another post in the Tuesday – TNWiki Article Spotlight category.

    The article on spotlight today is Bulk Insert Azure CSV Blob into Azure SQL Database written by Jayendran arumugam.

    The usage of Azure SQL Database has increased many fold in the present times. Similarly, Azure blob containers are also widely used as a storage for storing both structured and unstructured data in the cloud based projects.

    One of the most common scenarios we come across is the ability of transferring data to and from Azure blob containers to Azure SQL Database. This article gives a good overview on how this can be done

    The article provides step by step approach for doing the data transfer and includes the following stages

    • Creating master key encryption by password
    • Creating database scoped credential
    • Creating external data source
    • Bulk Insert from Azure Blob Container

    For anyone trying to implement similar scenario, this article will help them in getting started quickly

    This article also won Gold medal in the Technet Wiki Awards October 2018 under Transact-SQL category

    PS: Today's included banner image is from Kamlesh Kumar

    See you all soon with another blog post

    Yours,

    Visakh Murukesan
    MSDN Profile | MVP Profile | Facebook | Twitter 


    10 年先を見据えたエンタープライズ IT インフラを考える

    $
    0
    0

    執筆者: 佐藤 壮一(日本マイクロソフト株式会社 クラウド &エンタープライズビジネス本部 プロダクトマネージャー)
     

    2019 年に相次ぐ大きなイベント

    2019 年は改元や消費税増税を控え、かつ 2020 年の東京オリンピック開催に向けた準備に対しても重要な年になります。視点を変えると 2019 年には SQL Server 2008 および SQL Server 2008 R2 のサポート終了があり、また、2020 年には Windows 7 Windows Server 2008Windows Server 2008 R2、さらには弊社製品にとどまらない同世代の様々なソフトウェアのサポート終了が迫っています。今年はエンタープライズ IT においても非常に大きな年になることは間違いないでしょう。本ブログ投稿ではまず、これらの製品がリリースされた 10 年前の背景と、この 10 年間の変化を振り返り、その上でこれからの 1 年間を考えることから始めたいと思います。

    10 年前もまた、IT 業界は大きな変化の中にありました。特に代表的なものを挙げると以下の3つがあります。

    • 32 ビット環境から 64 ビット環境への移行。
    • 仮想化技術の一般化。サーバーを仮想マシンとして利用することが主流に。
    • ビジネス向け・管理用途アプリケーションの増加によるインフラ規模拡大と管理業務の増加。

    これらの変化は IT 部門で管理できる限界に挑戦するともいえる変化であり、運用最適化と IT ガバナンス強化が重要なポイントとして謳われていました。その後、スマートフォンが本格的に登場し、各種スマートデバイスの爆発的な増加と通信速度の高速化が進み続けています。この新しい変化により、それまでの十分に管理された PC と、そこから接続される特定システムという形式から、非常に多数の有象無象のデバイスから、どこからでも接続されるスケールアウトを前提とした様々なシステムという分散コンピューティングの世界観へと変化してきました。今、我々はこの、PC - サーバーという世代から、分散コンピューティングという新しい世代へのパラダイムシフトの最中にあると言えるでしょう。

    このパラダイムシフトはシステムの更なる拡大と複雑化を招いており、一般的な IT システム部門の手に負えないレベルに達しています。その結果として、例えばメールサーバーや ERP のような用途が特定されたシステムについてはサービスとして提供される形式のクラウド、いわゆる SaaS の利用が進みました。他方、汎用的なサーバー環境については今でもオンプレミス仮想環境が今でも多く使われていますが、仮想化基盤をグローバル規模に拡大し、様々な管理機能を付与した、分散コンピューティングとして最適化された仮想化基盤、いわゆる IaaS の利用も徐々に進んでいます。2017 年には業界全体でみると IaaS のビジネス規模は SaaS のビジネス規模を超えました。

    参考: https://www.idcjapan.co.jp/Press/Current/20180402Apr.html

    2019 年は前述のサポート終了に伴う各種システム移行と、このパラダイムシフトとが同時に進んでいく年になるでしょう。既に既存インフラをクラウド環境へ移行をすることでインフラの最適化を達成した事例は数多く存在します。

    B2B ファイル共有サービスを Microsoft Azure PaaS で向上

    https://customers.microsoft.com/ja-jp/story/ffs-fujifilm

    さらにその上で、 AI やサーバーレスといった新たなテクノロジーを利用した実例も生まれてくるようになりました。

    AI を活用したスポーツ写真の人物特定機能実現

    https://news.microsoft.com/ja-jp/2018/11/26/181126-image-works-ai/

     

    Windows Server 2008 サポート終了に向けた現状

    Windows Server 2008 および Windows Server 2008 R2 は前述の通り、2020 年にサポート終了を迎えます。正確には 2020 1 14 日がサポート終了日であり、サポート終了までに移行を完了するためには実質的に 2019 年中に対応を進める必要があります。サポート期間が終了すると、Premier Support のような有償サポートを含むサポート対応の終了と、セキュリティ更新プログラムを含む更新プログラムの提供を終了します。これにより、障害発生時等のサポートが受けられなくなるだけではなく、セキュリティリスクが増加します。また、弊社製品に限らず、3rd パーティ製品の対応も順次終了していくことが想定されます。

    我々は調査会社と協力し、日本市場における Windows Server 2008 環境の利用と移行の状況について調査しました。この市場調査の結果として、2018 12 月時点で 48 万台Windows Server 2008 および Windows Server 2008 R2 環境が存在していいると推定され、その内、約 65 % が移行に向けたアクションを開始していると考えられます。また、現状のまま推移した場合、サポート終了時点でも 17 万台強の Windows Server 2008 環境が残るものと想定されます。このサポート終了 1 年前時点での 48 万台という数についても、サポート終了時点での 17 万台という数についても、前バージョンの Windows Server 2003 のサポート終了時と比較して大きな数になっています。これは、先でも触れた通り、この 10 年間で仮想化環境が一般化したことから、以前はサーバー移行の切っ掛けとなっていたハードウェア保守切れに影響されず、仮想マシンとして多数が残存しているためと考えられます。

    Windows Server 2008 環境を管理する企業の内、30 % が人員不足やコストの問題から必要性を認識ながらも移行作業に未着手であり、さらに 5 % がそもそも移行の予定がないと回答していることも大きなポイントです。この移行予定無しとしている 5 % の企業が、移行を行わない理由として挙げているものの上位 5 つは以下となります。

    移行不要とする理由

    割合

    仮想環境に移行することで対策は可能と考えているため

    28.3 %

    会社の IT 予算事情から OS 更新を断念した

    26.1 %

    セキュリティーソフトウェアを導入することで対策は可能だと考えているため

    19.6 %

    漏洩して問題となるような情報が無いので移行の必要が無いため

    15.2 %

    社内運用の工夫で脆弱性への対処は十分と判断したため(延命サービス等も不要)

    15.2 %

     

    最も重要なセキュリティというトピックについて言及したいと思います。OS 単体で見た場合、Windows Server 2008 と最新の OS である Windows Server 2019 を比較すると、デバイスガードを代表する UEFI とも連動した仮想化ベースのセキュリティ機能や Azure Security Center と連動するセキュリティ機能である Windows Defender ATP 等、OS の根本的な部分から、振る舞い検知のようなより広い部分まで、網羅的にセキュリティが強化されていることがわかります。システム全体に目を向けた場合でも、10 年前に企業内に存在したサーバールームと、パブリッククラウドとして運用され、多数のコンプライアンスに準拠する Microsoft Azure のデータセンターではセキュリティレベルが大きく異なることは想像に難くないでしょう。OS 単体としても、システム全体でも標準として想定されるセキュリティレベルが劇的に変化していることを踏まえれば、アプリケーションレベルのセキュリティ対策ソフトウェアのみで万全のセキュリティを実現することは容易でないことはご理解いただけるのではないでしょうか。また、サイバーアタックも高度化しており、サーバー単体に重要な情報がなくとも、そのサーバーを踏み台とすることや、そのサーバーで得た情報を基に更なる攻撃があり得るということにも警鐘を鳴らしたいと思います。

    既報の通り、Windows Server 2008 および Windows Server 2008 R2 SQL Server 2008 および SQL Server 2008 R2 を対象とした延長セキュリティ更新プログラム(Extended Security Update、以下 ESU) の提供を予定しています。これはサポート期間終了後も、セキュリティ更新プログラムの提供を 3 年間継続するもので、Azure 上であれば無償提供、その他の環境に対しては有償提供となります。

    SQL Server 2008 および Windows Server 2008 のサポート終了に関する新たなオプションを発表https://blogs.technet.microsoft.com/mssvrpmj/2018/07/13/announcing-new-options-for-sql-server-2008-and-windows-server-2008-end-of-support/

    このオファリングの意図は、仮想化環境の一般化により非常に多くの Windows Server 2008 環境が残存しているということと、クラウド コンピューティングという分散コンピューティングベースのパラダイムシフトが進んでいることの両点を踏まえ、よりモダンな形への移行を、十分なリードタイムを持って検討していただくための一助としていただきたい、というところにあります。

     

    ■より良い形での移行の実現のために

    次いで移行そのものに関する調査結果に目を向けてみようと思います。現在、進行中の Windows Server 2008 環境の移行先は 60 %強がオンプレミスの仮想環境、20 % 弱がクラウド環境という調査結果になっています。この数字だけを見ればクラウドへの移行が進んでいないようにも見えます。しかし、この市場調査は定期的に実施しており、半年前の同様の調査では 7 % しか移行先としてクラウドを選択していなかったものが、2 倍以上に増えているという点は補足しておきたいポイントです。移行先の詳細な検討が進むと、クラウドが候補になる場合があるということでしょう。また、クラウド移行を予定しているお客様の内、移行先クラウドとして選択している対象について、この半年で Microsoft Azure が増加し、今回の調査では 40 % 強のお客様が Microsoft Azure を選択くださっています。

    これは前述した ESU とその意図や、後述するパートナー様を含めた支援を評価いただいた結果であると捉えています。Azure Hybrid 特典と Reserved Instance と併せて利用することで、競合他社のクラウドと比較してコストが 1/5 になることも一因と言えるでしょうか。

    コスト削減 - SQL Server Windows Server

    https://azure.microsoft.com/ja-jp/overview/azure-vs-aws/cost-savings/

    今、Windows Server 2008 で稼働しているワークロードについても調査を実施しました。既存サーバーの約 25 % がファイルサーバーとして稼働しており、Web サーバーやアプリケーション サーバー、DB サーバーといったいわゆる業務用アプリケーションサーバー群が約 50 % を占めています。これらをスムーズに移行していくにはどうすべきでしょうか。

    ☐大容量データのクラウドへの移行

    まず、大規模なファイルサーバーや業務アプリケーションで大容量を保持しており、これらをクラウド上へ効率的に移行する場合を考えましょう。この際 Microsoft Azure への移行を考えた場合に、ネットワーク経由で転送しようとすると転送に要するコストが嵩むことや、転送に要するリードタイムが許容できないということがあり得るでしょう。2019 年の第一四半期中に日本リージョンでも Azure Data Box の一般提供開始を予定しています。この Azure Data Box を利用することで専用ハードウェアを利用し、オフラインで物理的に迅速なデータ移行が実現できます。

    Azure Data Box とは

    https://docs.microsoft.com/ja-jp/azure/databox/data-box-overview

    クラウドを活かした最新のファイル管理

    また、ファイルサーバーというワークロードそのものについても再考してよいタイミングです。この 10 年間で、弊社サービスであれば One Drive のようなクラウドストレージを提供する SaaS は進化し、利用が広まっています。しかしながら、ファイルエクスプローラーからそのままアクセス・管理ができる、従来通りのファイルサーバーに対する需要は変わらず存在し、ユーザーだけではなく、アプリケーションやシステムが SMB プロトコルを利用してファイルサーバー上のデータを利用している場合もあるでしょう。このファイルサーバーを Azure File Storage と接続する Azure File Sync というサービスを、こちらも 2019 年の第一四半期中に日本リージョンで一般提供開始を予定しています。Azure File Sync を利用することで、オンプレミスのファイルサーバーの使い勝手はそのままに、ファイルを Azure 上に同期することができます。つまり、Azure 上のファイルを主とし、オンプレミスのファイルサーバーをローカルのキャッシュとして使うことができるようになります。また、Azure Backup を利用してファイルのバックアップ処理を Azure のデータセンター内で完結させることが可能です。特にクラウドとの専用線接続が難しいような中小企業でもクラウドのスケーラビリティを体感できるソリューションになっています。

    Azure File Sync について

    https://docs.microsoft.com/ja-jp/azure/storage/files/storage-sync-files-planning

    データベースのモダナイズ・ハイブリッド化

    LoB アプリを支えるデータベースの移行先にはどのような選択肢が存在するでしょうか。データベースは一般的に管理負荷が高く、PaaS を利用する効果の大きなワークロードであると言われます。Azure SQL Database のサービスの一環として 2018 12 月に Azure SQL Database Managed Instance Business Critical Tier の一般提供を開始しました。この Business Critical Tier を利用することで、より広範囲のデータベースをクラウド上に移行することが現実的になったと言えます。

    ミッション クリティカルな SQL ワークロードを最も経済的なクラウド上の移動先に移行するhttps://azure.microsoft.com/ja-jp/blog/migrate-mission-critical-sql-workloads-to-the-most-economical-cloud-destination/

    他方、移行先をオンプレミス環境とする場合については、今が分散コンピューティングをベースにした形へのパラダイムシフトであるということを念頭に投資をすることが望ましいでしょう。単純な仮想基盤への移行ではなく、分散コンピューティングの一形態ともいえる Hyper Converged Infrastructure (HCI) や、より効率的なハイブリッドクラウドとして、例えば Azure Site Recovery のようなサービスの活用を検討することが、その先に繋がる投資になると言えます。2019 年第一四半期中には Windows Server 2019 をベースにした HCI の認定済ソリューションとして、Windows Sever Software Defined (WSSD) のリリースを予定しています。また、オンプレミスに Microsoft Azure の機能を提供する Azure Stack についても、スケーラビリティの拡張をはじめとした機能改善を継続しています。

    移行作業そのものに関しても、Azure Migrate という移行評価ツールをリリースしています。単純な環境であれば、このツールを利用し、環境を評価した上で、Azure Site Recovery Azure Database Migration Service を利用して移行することが可能です。

    すべてのアプリ、データ、インフラストラクチャを今こそ Azure に移行https://blogs.technet.microsoft.com/mssvrpmj/2018/10/30/now-is-the-time-to-migrate-all-your-apps-data-and-infrastructure-to-azure/

    移行の支援については日本マイクロソフトだけではなく、57 社の戦略パートナーとともに支援する体制を整えています。これまでに 1,600 人を超えるエンジニアへのトレーニングを終え、今後も継続していきます。複雑なワークロードの移行で支援が必要な場合や、モダナイズした形での移行について相談したい場合等、移行支援センターまでお問合せください。

    2020 年の Windows Server 2008/R2 延長サポート終了に向けて戦略パートナー 57 社とマイクロソフトサーバー移行支援センター施策を実施します
    https://blogs.technet.microsoft.com/mpn_japan/2018/08/08/azure-migration-center-for-windows-server-2008-eos/

    マイクロソフトサーバー移行支援センター
    https://www.microsoft.com/ja-jp/business/windows/server-end-of-support-discover.aspx

     

    ■終わりに

    今、私たちはクラウドコンピューティングという新しいパラダイムに向けた変革期の最中にいます。2019 年をより良い年とし、ビジネスを促進していくためにも、このパラダイムシフトを皆様にとってより良い機会とすることができるよう、我々も一丸となって邁進してまいります。本年もどうぞよろしくお願いいたします。
     

    Top stories for US partners the week of January 14

    $
    0
    0

    Find resources that help you build and sustain a profitable cloud business, connect with customers and prospects, and differentiate your business. Read previous issues of the newsletter and get real-time updates about partner-related news and information on our US Partner Community Twitter channel.

    Looking for partner training courses, community calls, and events? Refer to the Hot Sheet training schedule for a six-week outlook that’s updated regularly as we learn about new offerings. To stay in touch with us and connect with other partners and Microsoft sales, marketing, and product experts, join our US Partner Community on Yammer.

    New posts on the US Partner Community blog

    Upcoming US Partner Community calls

    Microsoft Partner Network news

    New events and webcasts this winter

    Learning news

    イベント開催のご案内 | 2019/1/15 号

    $
    0
    0

    マイクロソフトでは、様々な支援ができるよう多数のセミナー(ウェビナーおよび各地でスクール形式行われるセミナー)を開催しております。

    遠方で参加が難しい方や当日都合が悪くなった方には、オンラインでご参加いただける形式のセミナーも多数実施しておりますので、お気軽にご参加いただき、お役立て下さい。(参加には事前のお申込みが必要になります)

    なお、過去のウェビナーは Azure サイトの歩き方ページより、
    [学習する] ― [過去の Web / 動画セミナー (2018 年 1 月以降)] から参照いただけます。

    ※このエントリーは、期間内のイベントに限り、登録サイトが公開され次第順次アップデートされます。

    セミナー

    2019 年 2 月 19 日(火) 13:00-18:00(12:30 開場)

    [東京開催] Azure IaaS 応用編 - 高可用性の確保・運用管理・セキュリティ対策 [ハンズオン]

    このハンズオントレーニングでは、IT Pro を対象に Azure 仮想マシンの可用性の確保、運用管理、セキュリティ対策を Azure 基本機能と Microsoft Operations Management Suite(OMS)で実現する方法を解説と演習を通じて習得します。

    参加のご登録はこちら >

    2019 年 2 月 21 日(木) 13:00-16:00(12:30 開場)

    [東京開催] Cosmos DB と App Service によるグローバル分散アプリ構築 [ハンズオン]

    本セミナーでは、Azure Cosmos DB を利用して地理的に離れた複数のリージョンに同一データベースをリアルタイムでレプリケーションするグローバル分散環境の構築と、.NET による Azure Cosmos DB 接続アプリケーションの実装から App Service へのデプロイし災害対策である DR 構成にも対応したクラウドネイティブなアプリケーションを実現するまでの流れをハンズオン形式で体験することができます。

    参加のご登録はこちら >

    2019 年 2 月 21 日(木) 16:00-18:20(15:45 開場)

    [東京開催] 今後 10 年の企業成長を加速させるクラウド ネイティブ~ 優秀なデジタル活用企業が実現する高速開発と収益増 ~

    クラウドへのプラットフォームの潮流の中で、アプリケーション開発のトレンドも大きく変わってきています。企業競争力を高めるためのクラウドネイティブを意識した開発には多くのチャレンジがあり、それらを解決するための PaaS, CaaS, FaaS の活用と最適なアーキテクチャの選択、そして製品やサービスの市場投入の高速化を支える DevOps がプロジェクトの成功の要ともなります。本セミナーでは、本格化するクラウド ネイティブ時代に向けて押さえておきたい技術要素の全体像をご紹介します。

    参加のご登録はこちら >

    2019 年 2 月 22 日(金) 10:00-17:00(9:30 開場)

    [東京開催] はじめての Azure IoT アプリケーション開発

    Microsoft Azure で提供される様々なサービスを利用することにより、大量のデータを処理する必要がある IoT システムであっても簡単に構築・管理することが可能になります。この一連の処理ではデータ受信の制御、セキュリティの確保から、データの流れの制御、分析、そして予測、可視化が要求されるケースが多くあります。本セッションでは、実際にデータの受信・制御から予測・可視化までを Azure 上で構築する方法を、実際に PC を使って体験しながらハンズオン形式で学んでいただきます。

    参加のご登録はこちら >

    ウェビナー

    2019 年 2 月 20 日(水) 12:00-13:00

    進化を続ける Azure IoT ~ 最新機能全部見せます

    ここ数年マイクロソフトは、IoT を構築するための技術セットを追加・拡張してきました。本セッションでは、クラウドやデバイス向けに最近追加、あるいは拡張された機能について、その詳細と背景を解説します。

    参加のご登録はこちら >

    Azure のイベント からもイベントの一覧をご覧いただけます。

    電話の保留音をスキップして、ヘルスケアであなたを助けるチャットボット、Premera Scout に会おう

    $
    0
    0

    Microsoft Transform
    投稿:2018年10月1日
    投稿者:Vanessa Ho

     

    医療保険について問い合わせをする際、ウェブサイトやアプリの指示に従って操作するのが面倒に感じられる場合もあります。電話をかけて「そのままお待ちください」というアナウンスを聞かされるのは、もっと嫌なものです。質問を入力しただけで、回答を得ることができたらいいのにと考える方も多いでしょう。

    そのような利用者のために登場したのが、米国北西部で最大の医療保険会社 Premera Blue Cross が制作した新しいチャットボット、Premera Scout です。7 月に Facebook メッセンジャーでローンチされたこのバーチャル アシスタントは、理解しやすいテキスト ベースのチャットを利用しているので、顧客は保険請求やベネフィットなど Premera のサービスに関する情報をどこで入手すればよいかをすぐ知ることができます。Facebook メッセンジャーを利用した Premera Scout は、よくある質問に対する答えの提供を目的とするもので、顧客固有の医療情報の受け渡しを想定して構築されているわけではありません。


    Premera Blue Cross のモバイル担当ディレクター、Neil Lazo 氏

    「医療保険の仕組みは非常に複雑な場合もありますが、私たちはそれをよりシンプルなものにしようとしています」と、Premera の製品・モバイル部門のディレクターを務める Neil Lazo 氏は述べています。プリメーラはワシントン州シアトル近郊のマウントレイクテラスに本社を構える医療保険会社です。

    「Premera Scout は、顧客が普通の話し言葉で私たちに質問することができ、こちらも専門用語ではなく普通の話し言葉を使って回答するプラットフォームです」 チャットボットは、人工知能(AI) の進歩とメッセージアプリの人気によってもたらされた最近のトレンドの一つで、インテリジェントなバーチャルアシスタントが人間のカスタマーサービスを補完するというものです。このチャットボットの開発は、Premera のデジタル・イノベーションチームとマイクロソフト・ヘルスケアの取り組みが基になっています。両者とも、AI やクラウド、その他最新のツールを利用してヘルスケア事業の改革を推進することを目的としています。

    「ヘルスケア事業はこれまで、新しい技術を適用するのが遅れていました」とイノベーションと戦略的投資部門のバイスプレジデントを務める Torben Nielsen 氏は語っています。ニールセン氏は、Premera のイノベーションチーム、Premera Test kitchen を率いています。「私は、日中はヘルスケア企業で働き、夜になって家に帰るとやっと 21 世紀に戻れるとよく言っています」。

    時代遅れのファックス機器から医師を見つけるための旧式のシステムに至るまで、この業界で顧客が情報を探すのは困難であることが多いと彼は説明します。そこで、開発者や設計者、専門家を集めた彼のチームは、マイクロソフトやスタートアップ企業と協働して、顧客に対する案内、予約管理の合理化、医療問題の予測を行うことができる技術を開発しています。そして、このチームは、電話のオプションに従って延々と操作して保留音を聞くより、チャットするのを好む人が多いことを認識しています。


    Premera Scout チャット

    「Premera では顧客体験を重視し、できるだけストレスのないシームレスな体験を提供したいと考えています」と Nielsen 氏は述べています。

    落ち着いた青色のフクロウのアバターを用いた Premera Scout が、いつでも顧客の基本的な質問に「セルフサービス式」で回答してくれるので、カスタマーサービスの社員は時間に余裕を持って複雑な要求に対応することができます。

    「人間に対しては質問を控えてしまうけれど、ロボットに対してはもっと自由に質問できるように感じる人もいます」と Lazo 氏は語っています。そして、Premera Scout は、Premera の「世界トップクラスのサポート」の代わりになるものではありませんが、メンバーに別のコミュニケーションチャネルを提供していると説明し、「Premera Scout はあなたを人間として理解し、簡単な方法で会話を行うことができます」と述べています。

    Premera Scout を構築する際、Premera はマイクロソフトが作成したヘルスケア業界のための AI ソリューション、マイクロソフト・ヘルスボット・サービスを利用しました。

    このソリューションは医療情報のプライバシーを保護する厳しい法律を遵守するために、Azure プラットフォームを用いて、医療コンテンツや緊急度判定プロトコルをマイクロソフト認知サービス API と統合しています。マイクロソフト認知サービス API では自然言語処理のための言語理解や、感情を理解するためのテキスト分析などを利用することができます。 この独創的なソリューションは、コンプライアンス構造が内蔵された拡張可能なプラットフォームで、複雑な医療用語、症状チェッカープロトコル、医療用語のための言語モデルなどから構成されるシステム「ヘルスケア AI」を含んでいます。

    「ヘルスボット・サービスを利用すると、ヘルスケア企業は法令を遵守したインテリジェントなバーチャル ヘルス アシスタントやチャットボットを構築することができます。これは、ヘルスケア企業のプロセスや結果の改善、セルフサービスの選択肢の増加、コスト削減につながります」と、このサービスを開発したマイクロソフト・ヘルスケア・イスラエルのトップである Hadas Bitran 氏は説明しています。

    このソリューションを利用することで、Premera は顧客の話し方から欲求不満を検出し、うまく対処できるボットを構築することができました。


    Premera の技術革新および戦略的投資担当副社長 Torben Nielsen 氏

    「人々は皆、同じようには話しません。『はい』にもいろいろな言い方がありますし、俗語を使ったり『麻酔学』を間違って綴ったりします」と Lazo 氏は語っています。「さらに、医療保険の場合、顧客は何か大変な事情がある時に問い合わせをすることが多いので、時には怒りをあらわにする人もいます」。

    将来的に、Premera は顧客からのチャットや電話からのデータを継続的に入力し、それを基にして Premera Scout を活用する新しいシナリオを考えています。ウェブサイトやモバイル アプリ、その他のメッセージチャネルでボットを活用し、広範に利用する予定です。また、個人のアカウント情報にアクセスするための安全なルートを構築することも検討しています。

    Premera Scout が進化すれば、ワシントン州とアラスカ州の Premera の顧客 200 万人の助けになるだけでなく、マイクロソフト・ヘルスボット・サービスの改善にも役立つでしょう。マイクロソフト・ヘルスボット・サービスは現在、Premera と他のヘルスケア パートナー 2 社にプレビュー版を配布し、試用してもらっています。一般公開は 2019 年になると予想されています。

    「イノベーションと共同事業に対する Premera の熱意によって、このパートナーシップは大きな成功を収めました」と Bitran 氏は述べています。この共同事業は Premera にとっても実りの多いものでした。

    「当社はヘルスケア事業の観点から多くのインサイトを提供できますし、マイクロソフトは明らかに AI やテクノロジーの専門家です」と Nielsen 氏は語っています。「これは非常に有意義なパートナーシップでした」

    全ての写真は Premera Blue Cross が提供しています。

     

    この文章は以下の原文を翻訳したものです:
    Posted on October 1, 2018
    https://news.microsoft.com/transform/premera-scout-chatbot-helps-with-health-care/

    Tip of the Day: Collaborate with AI Features in Word

    Viewing all 36188 articles
    Browse latest View live


    <script src="https://jsc.adskeeper.com/r/s/rssing.com.1596347.js" async> </script>