Quantcast
Channel: TechNet Blogs
Viewing all 36188 articles
Browse latest View live

10 velkých lednových novinek od Microsoftu (nejen) pro učitele

$
0
0
Tak jako každý rok se i letos v lednu v Londýně konala výstava technologií pro školství BETT 2018. A podobně jako v minulých letech, i letos byla spojena s představením mnoha novinek, které můžete nebo brzy budete moci ve svých školách využívat. Pojďme na to.
  1. Vylepšená podpora pro žáky se speciálními potřebami – doplňky Výukové nástroje, které jsou dostupné pro aplikace Word, OneNote a další se dočkaly nových funkcí jako je diktování textu hlasem a podpory nových jazyků. Navíc funkce moderní čtečky bude dostupná i na další platformy a aplikace jako jsou Word a OneNote na MacOS, iPhone, Outlook Desktop nebo OneNote pro iPad.
  2. Nové funkce poznámkových bloků pro školy – jednou z nejžádanějších funkcí od učitelů pro OneNote byla možnost zamknout stránku studenta s domácím úkolem poté, co tento úkol učitel ohodnotí. A jak asi tušíte, tato funkce je zde a můžete ji začít ve svých poznámkových blocích ve OneNote využívat.
  3. Aplikace Teams je nyní dostupná pro plaformy iOS a Android včetně plné podpory domácích úkolů. Navíc byla nové přidána i funkce pro rychlé přeložení konverzace do/z jiného jazyka. Navíc do Teamsů přibydou další zajímavé funkce jako využití týmu jako šablony pro nový tým, hodnocení na škále 0-100, snadné pozvání studentů do týmu a další.
  4. PowerPoint nyní umožňuje učitelům snadno a efektivně nahrávat jejich poznámky, kresby digitálním perem a video a okamžitě je publikovat do kanálů tříd v aplikaci Teams.
  5. Podpora výuky chemie pro Minecraft – Minecraft již dávno není „jen“ hrou. Je to fenomén a je to především výukový nástroj pro téměř všechny předměty. K nim se nyní nově přidala i chemie a tak máte možnost si snadno vytvořit nové sloučeniny nebo naopak zjistit, jaké prvky se nachází v půdě, po které právě v Minecraftu chodíte.
  6. Nové STEM lekce vytvořené v partnerství se společností LEGO – Microsoft je průkopníkem STEM aktivit a podpoře a tvorbě nových lekcí, které si může zkusit každý, se věnuje již několik let. Díky novému partnerství s Legem se tak nabídka STEM příprav do hodin obohatila o nové, zajímavé aktivity. Stáhnout si je můžete zde.
  7. Nové funkce ve Swayi –Sway je jednoduchý nástroj pro tvorbu prezentací a dokumentů ve formě webových stránek. Mnoho škol jej využívá i pro tvorbu školních online zpravodajů. A právě (nejen) pro ně byla do Swaye přidána podpora pro vkládání loga školy do takto vytvářeného zpravodaje.Sway 1.png
  8. Forms jsou ještě lepší – Microsoft Forms jsou nástrojem pro vytváření online dotazníků, formulářů a kvízů. Nově do nich přibylo mnoho zajímavých novinek, které jistě využijete:
    - Nové typy otázek jako jsou řazení nebo hodnocení
    - Snadnější spolupráce a sdílení formulářů skrze Microsoft Teams nebo skupiny Office 365
    - Již brzy přibude možnost vkládat formuláře z Microsoft Forms do PowerPointu.
  9. Podpora matematiky ve OneNote Online – aplikace OneNote pro Windows 10 již dlouho podporu matematiky má. V čem spočívá? Po zadání rovnice (a to i včetně rukopisu) se rovnice převede do elektronické podoby. A nyní nastupuje právě podpora matematiky, která umožňuje takovou rovnici vypočítat a to včetně postupu!OneNote 1.png
  10. Nová zařízení s Windows 10 – společnosti jako Lenovo, HP a další představily nová zařízení pro školy se systémem Windows 10. Jejich cena začíná na 189 USD (přesná česká cena ještě není známa) a to znamená, že pořizovací cena takových zařízení již ve většině případů nebude pro školy problémem. A díky podpoře Intune for Education je i následná správa takových zařízení velice snadná.
 The Lenovo 100e, a brand-new Intel Celeron Apollo Lake powered PC

7 февраля. Вебинар. Результативный CRM: самое начало

$
0
0

Серия вебинаров «ПРОКАЧАЙ СВОЙ БИЗНЕС. Результативный CRM.»

В рамках трёх тематических вебинаров российские эксперты в области внедрения CRM-систем дадут шесть практических советов о том, как получить от CRM максимум пользы для бизнеса и не выбросить при этом деньги на ветер.

Вебинар #1: Результативный CRM: самое начало

Совет №1 «Как выбрать CRM? 4 индикатора для выбора системы» 
Андрей Замыслов, генеральный директор компании «Ёлва»

  • разница между CRM-системами, представленными на российском рынке
  • два сценария выбора CRM-системы: простое решение vs сложное решение
  • вариант использования: в облаке vs на своих серверах
  • оценка стоимости внедрения системы

Совет №2 «Как внедрить CRM за 7 дней?»
Илья Красноперов, генеральный директор компании PK Group

  • популярные «мифы» о CRM
  • постановка целей и задач внедрения системы
  • ключевые этапы проекта
  • «подводные камни» при внедрении CRM

Вебинар бесплатный, регистрация обязательна!

Azure Aтлас — это цифровой путеводитель по облачным технологиям Microsoft

$
0
0


Azure Aтлас
— это цифровой путеводитель по облачным технологиям Microsoft, в основе которого лежат онлайн-конференции и глубокие технические тренинги. Ближайшие 4 месяца вас ждет:

  • Февраль. Разработка приложений, DevOps.
  • Марта. Гибридная инфраструктура.
  • Апрель. Платформа данных.
  • Май. Бизнес приложения в облачной среде.

В ближайшее время в феврале пройдут два крупных бесплатных онлайн-мероприятия:

15 февраля. Трансформация разработки с DevOps

На мероприятии мы расскажем ключевые, современные процессы разработки и DevOps, где ведущие индустриальные эксперты поделятся реальным опытом трансформации.

16 февраля. Технический тренинг по подготовке к экзамену 70-532: "Разработка на Microsoft Azure" 

На тренинге разберём все тонкости разработки, используя платформу Microsoft Azure, и подготовимся к сдачe экзамена 70-532: "Разработка на Microsoft Azure".

Программа мероприятия здесь

Регистрация участников на сайте Azure Atlas

MSDTCを動作させるために必要な設定について

$
0
0

こんにちは。
日本マイクロソフト、Microsoft Japan IIS / Azure Bot Service Support Team の中島です。

 

今回は、IIS とは異なりますが、Web アプリケーションでもよく利用される MS DTC (Distributed Transaction Coordinator) を介した分散トランザクションを実行する際、MSDTC を動作させるために必要な構成や設定について案内します。

 

「MSDTC の設定をしてみたけど、うまく動かない」「アプリケーションを動かしたら、分散トランザクションが失敗したことを示すエラーが記録された」といったことがありましたら、下記の設定が正しくできているか、まずは確認してみてください。

 

MSDTC を介した分散トランザクションが正常に動作するには、以下の 5 つが必要になります。

1. MSDTC サービスの起動を確認する
2. MSDTC のセキュリティ設定をする
3. MSDTC が利用するポートを空ける
4. NetBIOS 名での名前解決可否を確認する
5. CID の一意性を確認する

 

 

1. MSDTC サービスの起動を確認する
==============================
MSDTC は Windows のサービス プログラムの 1 つとして実装されており、MSDTC を介して分散トランザクションを実行するには、MSDTC サービスが起動している必要があります。

 

MSDTC を利用する全てのサーバーノードで、[管理ツール] - [サービス] 等から [Distributed Transaction Coordinator] サービスが実行中となっており、ログオン アカウントとして NETWORK SERVICE アカウントで動作している事をご確認ください。

 

 

また、もし、クラスター上でクラスター リソースとして分散トランザクション コーディネーター (MSDTC) をリソースとして作成されている場合、既定ではそちらが優先して利用されます。
その場合、同様に [管理ツール] - [サービス] 等を確認しますと、MSDTC クラスター リソースを持っているアクティブノード上に [Distributed Transaction Coordinator (xxxxxx)] (xxxxx は一意の GUID) という名前のサービスがありますので、こちらが実行中となっているか、ご確認ください。

 

 

 

 

2. MSDTC のセキュリティ設定をする
==============================
MSDTC がネットワークアクセスを許可している事をご確認ください。こちらも MSDTC を利用する全てのサーバーでご確認ください。

 

1) [管理ツール] - [コンポーネントサービス」を起動します。

 

2) 左ペインのツリーにて、 [コンポーネントサービス] - [コンピュータ] - [マイコンピュータ] - [Distributed Transaction Coordinator] 内、[ローカル DTC] 内のコンピューターアイコンを右クリックし、[プロパティ] を開きます。
なお、クラスター上に MSDTC をリソースを作成されている場合は、[クラスタ化された DTC] 内のアイコンを確認します。

 

 

3) [セキュリティ] タブを以下のように構成します。
この設定を変更すると MSDTC サービスの再起動が自動的に実施されます。また、設定の反映のためには MSDTC を使用しているサービス等の再起動を要する場合があります。

 

- ネットワーク DTC アクセス
- トランザクションマネージャー通信
- 受信を許可する
- 送信を許可する
- 認証を必要としない (*)
- XA トランザクションを有効にする (※Oracle、DB2 等と分散トランザクションを実施する場合に有効)

 

 

*過去、MSDTC を利用するお客様の環境では、認証機能は Domain など状態に影響を受けることから、外因により障害へ発展する可能性が高く、この様なトラブルの発生を避けるため、"認証を必要としない" を選択されていることが一般的です。
なお、"認証を必要としない" を設定しても、MSDTC を利用する側 (例えば IIS や SQL Server など) で認証が行われていることが想定されます。

 

4) [DTC ログオン アカウント] に NT AuthorityNetworkService が指定されていることを確認します。

 

 

 

3. MSDTC が利用するポートを空ける
==============================
以下のポート範囲について、経路上でブロックされていないか、ご確認ください。

 

3.1.
--------
MSDTC は通信にリモート プロシージャ コール (以下、RPC) を利用するため、135 番ポート、および RPC により動的に利用されるランダムなポートを使用します。

 

*OS により、RPC が利用するランダムポートに相違があります。
Windows Server 2008 、及びそれ以降の OS では、既定では 49152 - 65535 までの範囲となります。
一方、Windows XP や Windows Server 2003 では、1025 - 5000 までの範囲が利用されます。

 

Windows のサービス概要およびネットワーク ポート要件

http://support.microsoft.com/kb/832017/ja

 

Windows 上の F/W に対しては、分散トランザクション コーディネイターに対するルールを許可していただくことになります。

 

 

 

マシン上やネットワーク上に 3rd party 製の F/W 等がある場合は、上述のポートが空いているかどうか、ご確認ください。

 

なお、コンポーネントサービスの設定により、利用するポートの範囲を指定することも可能です。以下手順で設定を確認してください。

 

1) コンポーネントサービスの "マイコンピューター" を選択し、右クリックにてプロパティを表示します。
2) 表示されたマイコンピューターのプロパティにおいて、"既定のプロトコル" タブを選択し、"接続指向 TCP/IP" を選択の "プロパティ" をクリックします。

 

 

3) 表示された "COM インターネットサービスのプロパティ" のポート範囲に何らかの範囲が指定されていないか、確認します。指定されている場合、設定されているポートを利用して (MSDTC を含む) RPC 通信が行われます。

 

 

3.2.
--------
後述する NetBIOS の名前解決のために、UDP 137 ~ 139 番、さらに、もし前項で認証を使用していた場合は Kerberos の UDP 88番および TCP 88番を使用します。

 

3.3.
--------
MSDTC通信を許可するために、Windows のファイアウォールを設定します。

1) [コントロールパネル] - [システムとセキュリティ] - [Windows ファイアウォール] を起動します。
2) 左ペインの、[詳細設定] をクリックします。
3) 左ペインの、[受信の規則] をクリックし、 [分散トランザクション コーディネーター] (RPC / PRC-EPMAP / TCP 受信のそれぞれ) を選択し、右ペインの [規則の有効化] をクリックします。
3) 左ペインの、[送信の規則] をクリックし、 [分散トランザクション コーディネーター] (TCP 送信) を選択し、右ペインの [規則の有効化] をクリックします。

これにより MSDTC が RPC を使用して通信する際のポートが許可されます。

 

 

 

4. NetBIOS 名での名前解決可否を確認する
==============================
MSDTC は、サーバー間でお互いに名前解決できる必要があります。
名前解決の動作検証は、以下コマンドにてエラーが起きないことを確認いただくことで可能です。

 

ping <相手サーバー名>

 

それぞれのサーバーから、接続先のサーバーについて、名前解決が可能かをご確認ください。
クラスター環境では、さらに MSDTC に関連付けたクライアントアクセスポイント名も解決できる様に構成をお願いします。

 

a. 相手サーバー名
b. クラスターのネットワーク名
c. MSDTC クラスター リソースのネットワーク名 (クライアント アクセスポイント名。下記図の場合、msdtc99)

 

なお、名前解決に失敗する場合、hosts ファイルに対しサーバー名と IP アドレスを記述することで、明確に利用するアドレスを指定することが可能です。

 

hosts ファイルは、c:WindowsSystem32Driversetc 配下に保存されており、管理者権限で昇格したメモ帳などで編集することが可能です。

 

その際、以下の様なフォーマット (IPアドレス [スペース] サーバー名、もしくは MSDTC に依存関係を結んだサーバー名) で指定いたします。

 

例:
192.168.0.101 testServer1
192.168.0.102 testServer2

 

複数設定されたアドレスの内、対象のサーバーに対して接続する際に、利用するべき IP アドレスを指定いただければ幸いです。

 

なお、クラスター環境では、両方の系で hosts ファイルを編集し、指定したアドレスに差が無いように設定くださいますようお願い申し上げます。
*ここで差が出ますと、系が切り替わった瞬間からトランザクションが失敗するという問題が起きる可能性があります。

 

 

 

5. CID の一意性を確認する
==============================
MSDTC は、相互に通信を行う際に自身を特定するために CID と呼ばれる一意の ID をインストール時に採番しそれを通信に利用します。
この ID はレジストリに保持されることとなりますが、仮想マシンの利用などで、ディスクイメージをコピーし、それをそのまま利用した場合、レジストリの内容もコピーされて ID が衝突してしまうこと考えられます。
この場合も、MSDTC は通信に失敗してしまいます。

 

それぞれのサーバーにおいて、HKEY_CLASSES_ROOTCID のレジストリ値に同一エントリーが含まれている場合、本状況に合致していると判断可能です。

 

 

この CID を改めて採番したい場合、MSDTC の再インストールが有効です。
以下に手順を記載します。

 

--
a. 管理者権限でコマンド プロンプトを起動し、以下のコマンドを実行して MSDTC サービスを停止します

 

>net stop msdtc

 

b. 続けて、以下のコマンドを実行します

 

>msdtc -uninstall

 

c. レジストリ エディターを開いていただき、以下のレジストリが存在すれば、手動で削除します

 

HKEY_LOCAL_MACHINESystemCurrentControlSetServicesMSDTC
HKEY_CLASSES_ROOTCID
HKEY_CLASSES_ROOTCID.Local
HKEY_LOCAL_MACHINESOFTWAREMicrosoftMSDTC

 

d. 以下のコマンドを実行します

 

>msdtc -install
>msdtc -resetlog

 

e. 以下の手順にてパフォーマンスカウンターの再登録を実行します

 

>cd %windir%infmsdtc000
>copy ..msdtcprf.h msdtcprf.h
>lodctr msdtcprf.ini

 

f. OS を再起動します
--

 

なお、クラスター上に MSDTC が構成されている場合、一度 MSDTC リソースを削除してから、上記手順を実施し、その後、改めて MSDTC のリソースを追加いただければ幸いです。

 

また、本手順により MSDTC の設定がクリアされることとなります。
本手順の 2. も参考に、必ずコンポーネントサービスから MSDTC の再設定 (ローカル 及び クラスター上) を行ってください。

 

以上となります。

Bot 作成時に “Authorization_RequestDenied”エラーが出力される

$
0
0

こんにちは。
日本マイクロソフト、 Microsoft Japan IIS / Azure Bot Service Support Team です。

 

昨年 Azure Bot Service が 祝 GA され、Bot に関するお問い合わせも多くいただくようになりました。

ご利用いただき、誠にありがとうございます。

本 Blog にて色々と情報公開していきたいと思いますのでよろしくお願いいたします。

 

 

今回は、Bot 作成時に以下のような "Authorization_RequestDenied" エラーが表示される場合にご確認いただきたいポイントをご紹介します。

 

 

このようなエラーが表示されて Bot が作成できない場合、まずは以下のポイントをご確認ください。

 

1) サブスクリプションの状態
2) AAD (Azure Active Directory) の権限

 

 

1) サブスクリプションの状態
====================
本エラーはBot Service特有のエラーではなく、Azure 上で WebApp などのアプリケーション作成時に権限の問題がある際に発生するエラーです。
そのため、Bot 以外のリソース (WebApp など) 作成時にも同様にエラーが出るかご確認ください。

 

エラーが出る場合にはサブスクリプションの状態に問題がある可能性があります。
対象のサブスクリプションについて、状態が有効であるか、また、アプリケーションを作成しようとしているリージョンに対して利用可能な状態であるかをご確認ください。

 

 

2) AAD (Azure Active Directory) の権限
====================
他の WebApp は問題なく作成できる場合、次は AAD のアプリケーション許可設定を確認します。

 

本エラーは、一般ユーザーがテナントで許可されていない状態で、アプリケーションを登録する時に発生する可能性もあります。
一般ユーザーがアプリケーションを追加するためには、テナントの全体管理者、もしくは、テナント上で「ユーザーはアプリケーションを登録できる」を許可する必要があります。
また、対象のユーザーがゲストの場合、ゲストのアクセス許可が制限されていることで発生している可能性があります。

 

もしこの設定登録がされていない場合、テナントの全体管理者でアプリケーションを登録していただくか、もしくは、次の設定が行えるかご確認ください。

 

1. Azure ポータルに全体管理者ユーザーでサインインします。
2. [Azure Active Directory] - 「ユーザー設定」 画面を開きます。
3. 「ユーザーはアプリケーションを登録できる」を「はい」に設定します。
4. 続けて、「ゲストのアクセス許可を制限する」を「いいえ」に設定して保存を行います。

 

 

 

上記 2 点を確認してもエラーが解消されない場合は、お手数ですが弊社サポート チームまでお問い合わせいただけますと幸いです。
その際には「この内容を確認したけど解消されない!」と添えていただけましたら、スムーズに調査に進めますのでご協力どうぞよろしくお願いいたします。

Изменения в обслуживании и поддержке Office и Windows

$
0
0

Авторы этой статьи — Бернардо Кальдас (Bernardo Caldas), главный менеджер группы Windows, и Джаред Спатаро (Jared Spataro), главный менеджер группы Office.

Создание безопасной современной среды для эффективной работы — приоритетная задача для многих наших коммерческих клиентов, и мы делаем все, чтобы помочь им решить ее. В июле мы сделали важный шаг в этом направлении, выпустив Microsoft 365 — новый набор продуктов, в который вошли решения Office 365, Windows 10 и Enterprise Mobility + Security.  Многие клиенты сейчас как раз переходят на один или несколько продуктов из этого списка — и просят нас пояснить несколько ключевых моментов.  Сегодня, за два года до истечения сроков расширенной поддержки Windows 7 и Office 2010 (январь и октябрь 2020 года, соответственно), мы объявляем о продлении срока поддержки Windows 10, а также об изменении системных требований для Office 365 профессиональный плюс и раскрываем новые подробности следующего выпуска Office с бессрочной лицензией и выпуска Windows для канала долгосрочного обслуживания (LTSC).

Расширение поддержки Windows 10

Организации — и большие, и маленькие — все активнее переходят на Windows 10, а с ней и на современный метод обслуживания, который мы называем Windows как услуга.

Многие клиенты, среди которых MARS, Independence Blue Cross и Accenture, уже почти закончили переход на модель Windows как услуга, однако есть и те, кто просит продлить поддержку выпусков Windows 10 (стандартный ее срок — 18 месяцев).  В ответ на эту просьбу мы еще на 6 месяцев увеличиваем срок поддержки выпусков Windows 10 Корпоративная и Windows 10 для образовательных учреждений версий 1607, 1703 и 1709. (О продлении срока поддержки Windows 10 версии 1511 мы объявляли в ноябре.)  Продление будет предлагаться по обычным каналам.  В таблице ниже показано, как изменятся сроки поддержки последних четырех выпусков Windows 10.

Версия системы Дата выпуска Окончание срока основной поддержки Окончание срока расширенной поддержки Windows 10 Корпоративная и Windows 10 для образования
Windows 10, версия 1511 10 ноября 2015 г. 10 октября 2017 г. 10 апреля 2018 г.
Windows 10, версия 1607 2 августа 2016 г. 10 апреля 2018 г. 9 октября 2018 г.
Windows 10, версия 1703 5 апреля 2017 г. 9 октября 2018 г. 9 апреля 2019 г.
Windows 10, версия 1709 17 октября 2017 г. 9 апреля 2019 г. 8 октября 2019 г.

Также для Windows 10 Корпоративная и для образования начиная с версии 1607 мы предлагаем дополнительную платную поддержку. Подробнее об этом вам может рассказать сотрудник отдела по работе с клиентами корпорации Майкрософт.

Изменение системных требований для Office 365 профессиональный плюс

Office 365 профессиональный плюс предоставляет пользователям самые актуальные, подключенные к облаку версии классических приложений Office. Чтобы гарантировать максимально безопасную и удобную работу этого набора офисных приложений с Windows 10, мы меняем системные требования к Windows для эффективного использования Office 365 профессиональный плюс.

  • Обращаем внимание, что согласно нашей текущей практике поддержки Office 365 профессиональный плюс не будет поддерживаться на выпусках Windows 10 Semi-Annual Channel (SAC), обслуживание которых прекращено.
  • С 14 января 2020 года прекратится поддержка Office 365 профессиональный плюс для перечисленных ниже версий Windows. Мы принимаем эти меры, чтобы пользователи Office и Windows получали регулярные скоординированные обновления офисных приложений и операционной системы и могли работать в максимально защищенной среде с самыми современными возможностями.
    • Любые выпуски Windows 10 LTSC
    • Windows Server 2016 и более ранние версии
    • Windows 8.1 и более ранние версии

Мы понимаем, что некоторые из наших клиентов предоставляют Office своим пользователям через удаленные рабочие столы и инфраструктуру VDI. Так что в этом году Майкрософт представит пользователям новые возможности для этих технологий в рамках полугодичных обновлений (SAC) выпусков Windows 10 Корпоративная и Windows Server. Присоединяйтесь к программе предварительной оценки Windows Server, чтобы получить ранний доступ к новейшим возможностям.

Подробнее об обновлениях вы можете узнать на странице службы поддержки Майкрософт.  Обратиться к специалистам можно на странице сообщества специалистов по приложениям Office.

Новые подробности о следующем выпуске Office с бессрочной лицензией и выпуске Windows 10 с долгосрочным обслуживанием (LTSC)

Мы понимаем, что некоторые клиенты не готовы к переходу на облачные технологии и предпочитают разворачивать локальную или гибридную архитектуру.  Для них мы приводим сведения о новом выпуске Office с бессрочной лицензией и выпуске Windows 10 с долгосрочным обслуживанием.

Office 2019

На прошлогодней конференции Ignite мы объявили о выпуске Office 2019 — новой версии набора Office с бессрочной лицензией, в состав которого войдут приложения (в том числе Word, Excel, PowerPoint, Outlook и Skype для бизнеса) и серверы (включая Exchange, SharePoint и Skype для бизнеса). Сегодня мы рады поделиться с вами следующими новостями.

  • Выпуск Office 2019 планируется во втором полугодии 2018 года. Предварительные версии новых приложений и серверов можно будет получить уже во втором квартале 2018 года.
  • Приложения Office 2019 будут поддерживаться в следующих системах:
    • все поддерживаемые выпуски Windows 10 SAC;
    • Windows 10 Корпоративная LTSC 2018;
    • следующий выпуск Windows Server LTSC.
  • Клиентские приложения Office 2019 будут поддерживать только технологию «нажми и работай», мы не будем предоставлять для них методологию развертывания с помощью MSI. Мы по-прежнему будем поддерживать MSI для серверных продуктов Office.

Современное программное обеспечение предоставляет не только новые функции, которые помогают сотрудникам работать максимально продуктивно, но и новые, более эффективные решения для управления и более комплексный подход к безопасности. Если программное обеспечение было создано более десяти лет назад и не обновлялось, обеспечить его безопасность становится сложно. К тому же оно неизбежно уступает современным программам в производительности. Изменения ускоряются, и мы пришли к выводу о необходимости перевести программное обеспечение на более современный цикл обновления. Раньше новые версии Office с бессрочной лицензией выпускались на условиях фиксированной политики жизненного цикла поддержки продуктов Майкрософт, которая предусматривала 5 лет основной поддержки и 5 лет расширенной поддержки. Office 2019 будет поставляться на следующих особых условиях с сокращенным периодом расширенной поддержки.

  • Office 2019 будет предусматривать 5 лет основной и около 2 лет расширенной поддержки. Это исключение из нашей фиксированной политики жизненного цикла поддержки позволит скоординировать поддержку нового набора и Office 2016. Расширенная поддержка завершится 14 октября 2025 г.
  • Сроки поддержки существующих версий Office меняться не будут.

Windows 10 Корпоративная LTSC 2018

Очередной выпуск операционной системы с долгосрочным обслуживанием — Windows 10 Корпоративная LTSC 2018 — будет доступен с осени 2018 г.  Как и предыдущие выпуски, Windows 10 Корпоративная LTSC 2018 будет предоставлять такие же возможности, что и выходящий одновременно с ним выпуск Windows 10 SAC, с обычными исключениями (включая приложения, для которых часто выпускаются обновления с дополнительными возможностями, встроенные приложения, Microsoft Edge и Кортана).  В новый выпуск будет добавлена поддержка процессоров последних поколений в соответствии со стандартной политикой поддержки процессоров и наборов микросхем.  Windows 10 Корпоративная LTSC 2018 будет предоставляться на условиях нашей фиксированной политики жизненного цикла поддержки продуктов, которая предусматривает 5 лет основной поддержки и 5 лет расширенной поддержки.

Майкрософт стремится помочь своим коммерческим клиентам создавать современную и безопасную среду для эффективной работы, а для этого необходимы регулярные обновления Office и Windows.  Многие клиенты уже планируют процесс обновления, и информация, которой мы делимся сегодня, подготовлена с учетом отзывов, которые мы получили от них за последние несколько месяцев.  Расширенная поддержка Windows 10 поможет клиентам, которым не хватает времени для внедрения Windows как услуги; изменение системных требований для Office 365 профессиональный плюс позволит четко планировать новые развертывания офисного набора; Office 2019 и Windows 10 Корпоративная LTSC 2018 предоставят клиентам, которые еще не готовы к переходу на облачные технологии, ценный набор новых возможностей для обеспечения безопасности и эффективной работы.

Ресурсы

Сообщество Windows 10 Tech Community.

Нужна поддержка? Посетите форумы ИТ-специалистов по Windows 10.

Изменения в обслуживании и поддержке Office и Windows

$
0
0

Авторы этой статьи — Бернардо Кальдас (Bernardo Caldas), главный менеджер группы Windows, и Джаред Спатаро (Jared Spataro), главный менеджер группы Office.

Создание безопасной современной среды для эффективной работы — приоритетная задача для многих наших коммерческих клиентов, и мы делаем все, чтобы помочь им решить ее. В прошлом июле мы сделали важный шаг в этом направлении, выпустив Microsoft 365 — новый набор продуктов, в который вошли решения Office 365, Windows 10 и Enterprise Mobility + Security.  Многие клиенты сейчас как раз переходят на один или несколько продуктов из этого списка — и просят нас пояснить несколько ключевых моментов, чтобы помочь им провести обновление.  Сегодня, за два года до истечения сроков расширенной поддержки Windows 7 и Office 2010 (январь и октябрь 2020 года, соответственно), мы объявляем о продлении срока поддержки Windows 10, а также об изменении системных требований для Office 365 профессиональный плюс и раскрываем новые подробности следующего выпуска Office с бессрочной лицензией и выпуска Windows для канала долгосрочного обслуживания (LTSC).

Расширение поддержки Windows 10

Организации — и большие, и маленькие — все активнее переходят на Windows 10, а с ней и на современный метод обслуживания, который мы называем Windows как услуга.

Многие клиенты, среди которых MARS, Independence Blue Cross и Accenture, уже почти закончили переход на модель Windows как услуга, однако есть и те, кто просит продлить поддержку выпусков Windows 10 (стандартный ее срок — 18 месяцев).  В ответ на эту просьбу мы еще на 6 месяцев увеличиваем срок поддержки выпусков Windows 10 Корпоративная и Windows 10 для образовательных учреждений версий 1607, 1703 и 1709. (О продлении срока поддержки Windows 10 версии 1511 мы объявляли в ноябре.)  Продление будет предлагаться по обычным каналам.  В таблице ниже показано, как изменятся сроки поддержки последних четырех выпусков Windows 10.

Версия системы Дата выпуска Окончание срока основной поддержки Окончание срока расширенной поддержки Windows 10 Корпоративная и Windows 10 для образования
Windows 10, версия 1511 10 ноября
2015 г.
10 октября
2017 г.
10 апреля
2018 г.
Windows 10, версия 1607 2 августа
2016 г.
10 апреля
2018 г.
9 октября
2018 г.
Windows 10, версия 1703 5 апреля
2017 г.
9 октября
2018 г.
9 апреля
2019 г.
Windows 10, версия 1709 17 октября 2017 г. 9 апреля
2019 г.
8 октября
2019 г.

Также для Windows 10 Корпоративная и для образования начиная с версии 1607 мы предлагаем дополнительную платную поддержку. Подробнее об этом вам может рассказать сотрудник отдела по работе с клиентами корпорации Майкрософт.

Изменение системных требований для Office 365 профессиональный плюс

Office 365 профессиональный плюс предоставляет пользователям самые актуальные, подключенные к облаку версии классических приложений Office. Чтобы гарантировать максимально безопасную и удобную работу этого набора офисных приложений с Windows 10, мы меняем системные требования к Windows для эффективного использования Office 365 профессиональный плюс.

  • Обращаем внимание, что согласно нашей текущей практике поддержки Office 365 профессиональный плюс не будет поддерживаться на выпусках Windows 10 Semi-Annual Channel (SAC), обслуживание которых прекращено.
  • С 14 января 2020 года прекратится поддержка Office 365 профессиональный плюс для перечисленных ниже версий Windows. Мы принимаем эти меры, чтобы пользователи Office и Windows получали регулярные скоординированные обновления офисных приложений и операционной системы и могли работать в максимально защищенной среде с самыми современными возможностями.
    • Любые выпуски Windows 10 LTSC
    • Windows Server 2016 и более ранние версии
    • Windows 8.1 и более ранние версии

Мы понимаем, что некоторые из наших клиентов предоставляют Office своим пользователям через удаленные рабочие столы и инфраструктуру VDI. Так что в этом году Майкрософт представит пользователям новые возможности для этих технологий в рамках полугодичных обновлений (SAC) выпусков Windows 10 Корпоративная и Windows Server. Присоединяйтесь к программе предварительной оценки Windows Server, чтобы получить ранний доступ к новейшим возможностям.

Подробнее об обновлениях вы можете узнать на странице службы поддержки Майкрософт.  Обратиться к специалистам можно на странице сообщества специалистов по приложениям Office.

Новые подробности о следующем выпуске Office с бессрочной лицензией и выпуске Windows 10 с долгосрочным обслуживанием (LTSC)

Мы понимаем, что некоторые клиенты не готовы к переходу на облачные технологии и предпочитают разворачивать локальную или гибридную архитектуру.  Для них мы приводим сведения о новом выпуске Office с бессрочной лицензией и выпуске Windows 10 с долгосрочным обслуживанием.

Office 2019

На прошлогоднем семинаре Ignite мы объявили о выпуске Office 2019 — новой версии набора Office с бессрочной лицензией, в состав которого войдут приложения (в том числе Word, Excel, PowerPoint, Outlook и Skype для бизнеса) и серверы (включая Exchange, SharePoint и Skype для бизнеса). Сегодня мы рады поделиться с вами следующими новостями.

  • Выпуск Office 2019 планируется во втором полугодии 2018 года. Предварительные версии новых приложений и серверов можно будет получить уже во втором квартале 2018 года.
  • Приложения Office 2019 будут поддерживаться в следующих системах:
    • все поддерживаемые выпуски Windows 10 SAC;
    • Windows 10 Корпоративная LTSC 2018;
    • следующий выпуск Windows Server LTSC.
  • Клиентские приложения Office 2019 будут поддерживать только технологию «нажми и работай», мы не будем предоставлять для них методологию развертывания с помощью MSI. Мы по-прежнему будем поддерживать MSI для серверных продуктов Office.

Современное программное обеспечение предоставляет не только новые функции, которые помогают сотрудникам работать максимально продуктивно, но и новые, более эффективные решения для управления и более комплексный подход к безопасности. Если программное обеспечение было создано более десяти лет назад и не обновлялось, обеспечить его безопасность становится сложно. К тому же оно неизбежно уступает современным программам в производительности. Изменения ускоряются, и мы пришли к выводу о необходимости перевести программное обеспечение на более современный цикл обновления. Раньше новые версии Office с бессрочной лицензией выпускались на условиях фиксированной политики жизненного цикла поддержки продуктов Майкрософт, которая предусматривала 5 лет основной поддержки и 5 лет расширенной поддержки. Office 2019 будет поставляться на следующих особых условиях с сокращенным периодом расширенной поддержки.

  • Office 2019 будет предусматривать 5 лет основной и около 2 лет расширенной поддержки. Это исключение из нашей фиксированной политики жизненного цикла поддержки позволит скоординировать поддержку нового набора и Office 2016. Расширенная поддержка завершится 14 октября 2025 г.
  • Сроки поддержки существующих версий Office меняться не будут.

Windows 10 Корпоративная LTSC 2018

Очередной выпуск операционной системы с долгосрочным обслуживанием — Windows 10 Корпоративная LTSC 2018 — будет доступен с осени 2018 г.  Как и предыдущие выпуски, Windows 10 Корпоративная LTSC 2018 будет предоставлять такие же возможности, что и выходящий одновременно с ним выпуск Windows 10 SAC, с обычными исключениями (включая приложения, для которых часто выпускаются обновления с дополнительными возможностями, встроенные приложения, Microsoft Edge и Кортана).  В новый выпуск будет добавлена поддержка процессоров последних поколений в соответствии со стандартной политикой поддержки процессоров и наборов микросхем.  Windows 10 Корпоративная LTSC 2018 будет предоставляться на условиях нашей фиксированной политики жизненного цикла поддержки продуктов, которая предусматривает 5 лет основной поддержки и 5 лет расширенной поддержки.

Майкрософт стремится помочь своим коммерческим клиентам создавать современную и безопасную среду для эффективной работы, а для этого необходимы регулярные обновления Office и Windows.  Многие клиенты уже планируют процесс обновления, и информация, которой мы делимся сегодня, подготовлена с учетом отзывов, которые мы получили от них за последние несколько месяцев.  Расширенная поддержка Windows 10 поможет клиентам, которым не хватает времени для внедрения Windows как услуги; изменение системных требований для Office 365 профессиональный плюс позволит четко планировать новые развертывания офисного набора; Office 2019 и Windows 10 Корпоративная LTSC 2018 предоставят клиентам, которые еще не готовы к переходу на облачные технологии, ценный набор новых возможностей для обеспечения безопасности и эффективной работы.

Ресурсы

Сообщество Windows 10 Tech Community

Нужна поддержка? Посетите форумы ИТ-специалистов по Windows 10

WSUS クリーンアップ ウィザードにてタイムアウトが発生する

$
0
0

みなさま、こんにちは。WSUS サポート チームです。

今日はよくお問い合わせいただく事象の 1 つである WSUS クリーンアップ ウィザードがタイムアウトで失敗してしまう事象について紹介いたします。

クリーンアップ ウィザードの詳細については、以下のブログで紹介しているので、クリーンアップ ウィザードの詳細について、まずは知りたいという方は以下を先にご覧ください。

WSUS のクリーンアップ ウィザードについて
https://blogs.technet.microsoft.com/jpwsus/2017/12/05/43/

 

事象の詳細


クリーンアップ ウィザードの 1 番上の項目「不要な更新プログラムと更新プログラムのリビジョン」は、クリーンアップの各項目の中でも、特に処理対象のデータ量が多くなりやすい項目です。弊社での実績上では、運用を開始してから数年経過した環境で初めて実行すると、数十時間 ~ 1 日を要することもあるような項目です。

このため、処理の途中でタイムアウトが発生してし、エラーで途中停止してまうことも、しばしばあります。

 

対処方法


定期的にクリーンアップ ウィザードを実行していただくのが、一番の対策とはなるのですが、もしこの事象陥ってしまった場合には、対処方法として、以下の 3 つがあります。

 

対処 1. WSUS データ ベースのインデックス再構成を実施する

対処 2. Powershell より処理を分割して実行する

対処 3. 繰り返しクリーンアップを実行する

 

対処 1. WSUS データ ベースのインデックス再構成を実施する


以下の記事で紹介しているインデックスの再構築を実施すると、WSUS の処理が効率化されるため、クリーンアップ ウィザードの処理をより効率的に進めることが出来るようになります。インデックスの再構成を定期的に実施していない環境では、まずインデックスの再構成を実施して事象に改善が見られないか確認をします。

WSUS DB インデックスの再構成の手順について
https://blogs.technet.microsoft.com/jpwsus/2014/03/05/wsus-db/

上記の手順を実施しても、まだ事象が改善されない場合には続けて以下の手順を実施します。

 

対処 2. Powershell より処理を分割して実行する


実はクリーンアップ ウィザードの 「不要な更新プログラムと更新プログラムのリビジョン」項目は、内部的には 2 つの処理を同時に実行しています。このため、Powershell から 2 つの処理を分けて実行することで、タイムアウトを回避出来ることがあります。

Windows Server 2012 以降の WSUS では、Powershell で以下の 2 つのコマンドを上から順に実行することで、2 つの処理を同時ではなく、それぞれ実行することが出来ます。

 

・ Windows Server 2012 以降の WSUS の場合

Invoke-WsusServerCleanup -CompressUpdates
Invoke-WsusServerCleanup -CleanupObsoleteUpdates

 

WSUS 3.0 SP2 の環境の場合には、少し行数が多くなってしまいますが、以下の 2 つのスクリプトで Powershell から処理を実行可能です。そのまま Powershell のコンソールに貼り付けて実行していただくことも可能です。

 

・ WSUS 3.0 SP2 の場合 : その 1

[System.Reflection.Assembly]::LoadWithPartialName('microsoft.updateservices.administration')

$wsus=new-object 'Microsoft.UpdateServices.Administration.AdminProxy'
$wsusrv=$wsus.GetUpdateServerInstance()

$cm=$Wsusrv.GetCleanupManager()
$cs=new-object 'Microsoft.UpdateServices.Administration.CleanupScope'

$cs.CompressUpdates = $True

$cm.PerformCleanup($cs)

 

・ WSUS 3.0 SP2 の場合 : その 2

[System.Reflection.Assembly]::LoadWithPartialName('microsoft.updateservices.administration')

$wsus=new-object 'Microsoft.UpdateServices.Administration.AdminProxy'
$wsusrv=$wsus.GetUpdateServerInstance()

$cm=$Wsusrv.GetCleanupManager()
$cs=new-object 'Microsoft.UpdateServices.Administration.CleanupScope'

$cs.CleanupObsoleteUpdates = $True

$cm.PerformCleanup($cs)

 

対処 3. 繰り返しクリーンアップを実行する


さて上記の 2 つの対処を実施して、それでも事象が改善されない場合には、あとは繰り返し実行するしかありません。「不要な更新プログラムと更新プログラムのリビジョン」は、開始した直後にエラーとなるような状況でなけば、途中まで処理は進んでいます。繰り返し何度も対処 2 の Powershell を実行することで、処理を完了させましょう。

一度「不要な更新プログラムと更新プログラムのリビジョン」を完了出来れば、あとは定期的に実行すれば、いちいちこれらの対処をする必要はなくなります。対処が完了したら、タスク スケジューラ等からクリーンアップを自動的に定期実行するようにしておくと、この事象が再発することを未然に防ぐことが出来るので是非検討ください。

 


Yet Another Write-Log Function

$
0
0

While updating a script earlier this week, I wanted to spruce up my logging.  However, I didn't have a handy function to incorporate that would allow me to both write to the screen (in various colors for the type of log entry being generated) and to a log file at the same time.  As I work on this, I'll keep updating it to make it more useful.

The function I've put here allows you to choose to write to a log file, screen, or both, as well as color-coding the output based on the parameter LogLevel that you pass to the function.

function Write-Log(
    [string[]]$Message,
    [string]$LogFile = $Script:LogFile,
    [switch]$ConsoleOutput,
    [ValidateSet("SUCCESS", "INFO", "WARN", "ERROR", "DEBUG")][string]$LogLevel
)
{
    $Message = $Message + $Input
    If (!$LogLevel) { $LogLevel = "INFO" }
    switch ($LogLevel)
    {
        SUCCESS { $Color = "Green" }
        INFO { $Color = "White" }
        WARN { $Color = "Yellow" }
        ERROR { $Color = "Red" }
        DEBUG { $Color = "Gray" }
    } # End Switch $LogLevel
    if ($Message -ne $null -and $Message.Length -gt 0)
    {
        $TimeStamp = [System.DateTime]::Now.ToString("yyyy-MM-dd HH:mm:ss")
        if ($LogFile -ne $null -and $LogFile -ne [System.String]::Empty)
        {
            Out-File -Append -FilePath $LogFile -InputObject "[$TimeStamp] $Message"
        } # End If $LogFile
        if ($ConsoleOutput -eq $true)
        {
            Write-Host "[$TimeStamp] [$LogLevel] :: $Message" -ForegroundColor $Color
        } # End If $ConsoleOutput
    } # End If $Message
} # End Function

Here are some examples:

If you wrap it inside a Try/Catch/Finally block:

Try
{
     $Variable = <cmdlet> -ErrorAction Stop
}
Catch
{
     $ErrorMessage = $_.Exception.Message
     $FailedItem = $_.Exception.ItemName
     Write-Log -Message $ErrorMessage -LogFile C:templogfile.txt -LogLevel ERROR -ConsoleOutput
     Write-Log -Message $FailedItem -LogFile C:templogfile.txt -LogLevel ERROR -ConsoleOutput
}
Finally
{
}

Happy logging!

Intune app protection diagnostics and managed browser bookmarks

$
0
0

 

Many of the organizations I work with have deployed or are deploying Microsoft Intune to manage devices as well as applications. Microsoft Intune offers application protection (aka Mobile Application Management (MAM)) where policies manage applications. Application protection may be used with or without MDM enrollment. If you already have an MDM solution, Intune application protection may be utilized alongside of any MDM provider.

To learn more about Intune app protection please visit: https://docs.microsoft.com/en-us/intune/app-protection-policy

For those already utilizing Intune app protection, there’s a diagnostic feature available within the Intune managed browser for iOS allowing users to view and send diagnostic logs to their support team and/or Microsoft support.

For more details on the Intune diagnostic console please visit: https://blogs.technet.microsoft.com/intunesupport/2017/11/10/support-tip-new-intune-diagnostic-console-for-log-submission-in-the-intune-managed-browser/

 

Let’s look at Intune Mobile App Protection (MAM) diagnostics

Requirements

  • Microsoft Intune
  • Intune app protection policy assigned to users
  • Intune managed browser
  • Apple iOS device

 

Intune App Protection Policies

I won’t go into details about how to configure an app protect policy as there’s plenty of documentation available.  To learn more about creating app protection policies please visit: https://docs.microsoft.com/en-us/intune/app-protection-policies

If devices are enrolled with Intune simply deploy the Intune managed browser to iOS devices.  For devices that are not enrolled with Intune, have users download the Intune managed browser from the Apple app store: https://itunes.apple.com/us/app/intune-managed-browser/id943264951?mt=8 

 

Use Intune managed browser to troubleshoot app protection

Open in the Intune managed browser on the iOS device where applications are protected by Intune app protection policies.  In the navigation space type in: about:intunehelp and search.  You’ll be taken to Intune Diagnostics page where you can begin your investigation:

Later in this post I’ll show you how to create a bookmark for your users to access Intune Diagnostics.

Review the device information and select “View Intune App Status”:

image

 

Select an application that is protected, in my case I’ve selected Outlook and I’m able to see diagnostic info about the app and the policies settings that are deployed to it:

image

 

Configure the Intune managed browser with a bookmark that takes users straight to the Intune diagnostic screen

Navigate to the Intune admin portal via portal.azure.com and select Intune.  Next select Mobile apps, App configuration policies, and Add:

image

 

  1. In the General tab, give the policy a name
  2. In the Targeted apps tab, select Managed Browser
  3. In the Configuration tab, add the following:
  4. Assign the configuration to users

Under Name

com.microsoft.intune.mam.managedbrowser.bookmarks

Under Value

Bing|https://www.bing.com||Intune Diagnostic|about:intunehelp

Note: Bing is optional, take it out if you don’t want to add it.

Once configuration is complete, assign the configuration to users.

 

image

 

After the policy syncs with the app (usually a few minutes or so), open the Intune managed browser and select bookmarks and your bookmarks will be populated as shown below:

image

 

That’s it, we looked at troubleshooting Intune app protection and adding a bookmark for your users to easily access it.

[GDPRDemopalooza] eDiscovery

$
0
0

dBasierend auf der GDPR / DSGVO Demopalooza hier das Demo zu eDiscovery.

Wie immer aufgeteilt in zwei Bereiche: Das "Why" und das "How"

Why

Beim Thema DSGVO geht es - wie ich auch schon in anderen Posts beschrieben habe - auch und insbesondere darum zu verstehen und zu wissen was in meinem Netzwerk, bzw. meinen Daten und meinen Systemen vor sich geht.

Und grade dann, wenn ich weiß (oder ahne), dass etwas vorgefallen ist, dann benötige ich so schnell (und günstig vom Zeit und Geldaufwand) wie möglich die nötigen Beweise um nachzuweisen was, wann, wo und von wem passiert ist.

Dies kann dann dazu dienen z.B. das notwendige Reporting vorzubereiten, die betroffenen Personen zu informieren oder tatsächlich Beweismittel für die Strafverfolgung bereit zu stellen.

Jeder, der sich schon einmal "im wirklichen Leben" mit solch einer Aufgabe beschäftigen durfte weiß, dass insb. das "schnell und günstig" meist nicht möglich ist, da oftmals die Nadel im Heuhaufen gesucht wird.

Genau hier setzt "Office 365 (Advanced) eDiscovery" an. [Hinweis: das "Advanced" werden wir uns zu einem anderen Zeitpunkt anschauen, hier werde ich nur auf die nicht-Advanced Dinge eingehen.]

 

 

How

Vorbereitungen:

Da das Thema etwas "heikel" ist, sollte bevor mit "echten" Daten gearbeitet wird unbedingt die notwendigen Stellen innerhalb des Unternehmens, z.B. Datenschützer, Betriebsrat, Personalabteilung, Rechtsabteilung, mit ins Boot geholt werden.

Genau deswegen wurde innerhalb von Office 365 auch die Rolle des "eDiscovery Managers" eingeführt - die per default noch nicht einmal der Global Admin automatisch inne hat (aber natürlich leicht bekommen kann).

Um also mit eDiscovery sinnvoll arbeiten zu können bedarf es neben einem entsprechenden Prozess (darauf gehe ich hier nicht detailliert ein) auch ein passendes Rechte/Rollenkonzept, in dem klar definiert ist, wer die Rolle eines "eDiscovery Managers" bzw "eDiscovery Admins" einnehmen darf. [Der Unterschied der beiden Rollen ist die, dass die Sicht eines "eDiscovery Managers" nur auf die eigenen "Cases" ist und die eines "eDiscovery Admins" auf alle Cases ist -> daher bitte vorsichtig mit dieser Rolle umgehen!!!]

  1. Die entsprechende Identität einem eDiscovery Manager bzw. Admin zuweisen, für die Demo hier nehme ich die Admin Rolle. Das Vorgehen für den Manager ist aber identisch: Dazu wechseln wir in den Permissionsbereich des O365 Admincenters und erteilen dem entsprechenden User die Rolle

eDiscovery Durchführung

  1. Nun wechseln wir unterhalb von "Search & Investigation" auf "eDiscovery
  2. Und erstellen einen neuen "Case" mit passenden Informationen. Best practice: der Titel sollte eindeutig sein und ggf. mit einer "CaseID" aus anderen Systemen übereinstimmen um diese besser zuordnen zu können.
  3. Die "Meta-Daten" können durch den Click auf den Namen angezeigt werden
  4. Nun wollen wir die eigentlichen Daten suchen. Dazu click auf "Open" des passenden Cases
  5. Innerhalb des eDiscovery gibt es nun 3 Actions die durchgeführt werden können:
    1. Hold: Legal hold für Daten einer (oder mehrerer) Mailboxen oder SharePoint Sites mit entsprechenden Conditions
    2. Search: Suche nach Daten mit bestimmten Eigenschaften und Suchbegriffen
    3. Export: Download/Export von Suchergebnissen
  6. Fangen wir also mit dem sicheren Aufbewahren von Emails eines betroffenen Users an: Click auf "Hold" und gleich click auf "+" um einen neuen Hold zu konfigurieren. Dazu geben wir eine Mailbox an und klicken "next"
  7. Nun noch die Conditions eingeben, hier der Empfangs-Zeitraum von 1.7.2017-31.12.2017 und das Schlagwort "Confidential" (ganz einfallsreich, ist aber doch nur eine Demo, da darf ich das! 😉 )
  8. Nun führen wir unsere erste "echte" Suche aus: click auf "Search" und "+" um eine neue Suche zu erstellen.
    Hinweis: Die Benennung der einzelnen Suchen muss eindeutig sein! D.h. auch in mehreren Cases eine Suche zweimal mit "confidential" zu benennen führt zu einem Fehler. Daher achtet darauf, dass ihr z.B. die CaseID mit in den Titel nehmt!
    Für die Demo wählen wir noch als Einstellung für "Wo soll gesucht werden" das Setting "Search everywhere" und dort alles anhaken. [Hintergrund: der Hold Mechanismus benötigt etwas Zeit und solange dieser nicht indiziert hat, findet die Suche sonst nichts, wenn auf "Alle Case Daten" eingestellt ist]
  9. Noch die Suchbegriffe konfigurieren, auch hier bin ich mal total kreativ mit "confidential". Nun noch als Condition z.B. "received date" eingeben und dann click auf "Search"
  10. Kurze Zeit später (abhängig von den Daten, die zur Verfügung stehen, im RL sicherlich etwas länger als in einem Demotenant 😉 ) sollte hier ein entsprechendes Ergebnis erscheinen:
  11. Jetzt wollen wir den Ergebnis-Report noch exportieren. Dazu muss das Search-Item ausgewählt werden und der "Download"/"Export" Button gedrückt werden und dann "Export Report" geclickt werden:

  12. Natürlich können wir auch die Daten selber exportieren - dazu wieder den Export Button drücken und diesmal "Export your results" auswählen und konfigurieren:
  13. Um nun die Daten herunterzuladen muss nur noch in der Head-Navigation auf "Export" gedrückt werden und dort das entsprechende Exportdatum ausgewählt und "Download exported results" bzw. "Download Report" angeclickt werden.

 

Bei einer gegebenen Aufgabe/Case sind so sehr schnell sehr brauchbare Ergebnisse zu erzielen und insb. bei dem Reporting in DSGVO relevanten Situationen eine außerordentliche Hilfe um die 72 Stunden für das erste Reporting bestmöglich nutzen zu können und idealerweise dadurch deutlich vor dem Ende der Deadline in der Lage zu sein die nötigen Informationen bereitzustellen.

 

Diese Demoanleitungen bieten einen Überblick zur Nutzung der jeweiligen Lösungen und Produkte im Kontext von DSGVO und stellt keine rechtlich bindende Aussage dar!

Catch the February Insider Call on Wednesday!

$
0
0

Todd Sweetser

Catch the February Insider Call on Wednesday!

Join the Microsoft US team for the February SMB Partner Insider call on Wednesday, February 7, 2018 where you’ll get valuable, actionable information to help your Microsoft business grow.

The February agenda will cover:

  • Insider Scoop | Covering events, training, marketing campaign content and more
  • Business Update + Guest Speaker | Brent Combest, General Manager, OCP VAR West Region will share profiles of managed partners
  • Leveraging Azure for Hybrid scenarios & Demo | Get valuable tips and learn how to get started

Hear what a few of our partner attendees had to say:

“Very good job team!  Your effort in making these calls relevant and valuable really shines through.” Jeff Mack, President, ICS Support

“We appreciate the series, keep up the good work. Helps refresh and keep us informed on current trends and initiatives.” Lawrence Steinert, President, 4 MFG, INC.

STAY IN THE KNOW

We look forward to you joining us on the February 7 Partner Insider call!

Quick Reference: Recovery Options for Post-Mortem Debugging for Windows and Virtual Machines

$
0
0

Hi everyone, Robert Smith here to talk to you today a bit about crash dump configurations and options. With the wide-spread adoption of virtualization, large database servers, and other systems that may have a large amount or RAM, pre-configuring the systems for the optimal capturing of debugging information can be vital in debugging and other efforts. Ideally a stop error or system hang never happens. But in the event something happens, having the system configured optimally the first time can reduce time to root cause determination.

The information in this article applies the same to physical or virtual computing devices. You can apply this information to a Hyper-V host, or to a Hyper-V guest. You can apply this information to a Windows operating system running as a guest in a third-party hypervisor. If you have never gone through this process, or have never reviewed the knowledge base article on configuring your machine for a kernel or complete memory dump, I highly suggest going through the article along with this blog.

Why worry about Crashdump settings in Windows?

When a windows system encounters an unexpected situation that could lead to data corruption, the Windows kernel will implement code called KeBugCheckEx to halt the system and save the contents of memory, to the extent possible, for later debugging analysis. During KeBugCheckEx, Windows will write diagnostic information to the paging file, set a flag noting the paging file contains the information, and on the next reboot Windows will write the diagnostic information to a memory "dump" file, normally called "memory.dmp".

The problem arises as a result of large memory systems, that are handling large workloads. One of the dump types called "kernel", was created for this situation. Even if you have a very large memory device, Windows can save just kernel-mode memory space, which usually results in a reasonably sized memory dump file. But with the advent of 64-bit operating systems, very large virtual and physical address spaces, even just the kernel-mode memory output could result in a very large memory dump file.

When the Windows kernel implements KeBugCheckEx execution of all other running code is halted, then some or all of the contents of physical RAM is copied to the paging file. On the next restart, Windows checks a flag in the paging file that tells Windows that there is debugging information in the paging file. If there is sufficient free disk space in the location specified under 'Recovery' options, Windows will attempt to write the debugging information into a file normally called 'Memory.dmp'. NOTE: For Windows 7 and Windows Server 2008 R2, a hotfix is available to allow a memory dump to occur without a paging file. Please see KB2716542 for more information on this hotfix.

Herein lies the problem. One of the Recovery options is memory dump file type. There are a number of memory.dmp file types, to accommodate the current environment. For reference, here are the types of memory dump files that can be configured in Recovery options:

    • Every current Windows OS
    • 128 KB on 64-bit systems
    • Contains exception thread only, module list, and basic system info
    • Every current Windows OS
    • > 2 GB on 32-bit systems, 2+ GB on 64-bit, usually < 10 GB
    • Very little user-mode address space available
    • Sufficient for majority of diagnostic needs
    • Windows 8 and later including Windows Server 2012 and later
    • > 2 GB on 32-bit systems, 2+ GB on 64-bit, usually < 10 GB
    • Very little user-mode address space available
    • Increases paging file size automatically if needed
    • Windows 10 and later including Windows Server 2016 and later
    • Kernel-mode + "active" memory pages
    • Size unknown, but at least the size of kernel or automatic dump and likely more than, to substantially more than kernel or automatic dump size.
    • Every current Windows OS
    • Memory dump size is equal to size of physical RAM, or configured RAM with "Maxmem" parameter
    • Output files larger than 32 GB can be very difficult to work with in the debugging tools.

On systems with 32 GB or less physical RAM, it would be feasible to obtain a Complete memory dump. Anything larger would be impractical. For one, the memory dump file itself consumes a great deal of disk space, which can be at a premium. Second, moving the memory dump file from the server to another location, including transferring over a network can take considerable time. The file can be compressed but that also takes free disk space during compression. The memory dump files usually compress very well, and it is recommended to compress before copying externally or sending to Microsoft for analysis.

On systems with more than about 32 GB of RAM, the only feasible memory dump types are kernel, automatic, and active (where applicable). Kernel and automatic are the same, the only difference is that Windows can adjust the paging file during a stop condition with the automatic type, which can allow for successfully capturing a memory dump file the first time in many conditions.

The 'Active' crash dump type, which is new to Windows 10 and Server 2016, would be the ideal memory dump type setting in conditions where you need to get kernel and user mode memory the first time, but have too much memory to configure for a complete memory dump type. The Active dump type is designed for Hyper-V, SQL, Exchange, or any server that is running a large workload and has a relatively large amount of RAM, of say 32 GB or more. Even with the 'Active' memory dump type, it is possible that a server with say 1 TB of RAM could possibly generate a memory dump file of 50 GB or more. A 50 GB or more file is hard to work with due to sheer size, and can be difficult or impossible to examine in debugging tools.

Why bother with changing automatic recovery options?

In many, or even most cases, the Windows default recovery options are optimal for most debugging scenarios. The purpose of this article is to convey settings that cover the few cases where more than a kernel memory dump is needed the first time. Nobody wants to hear that they need to reconfigure the computing device, wait for the problem to happen again, then get another memory dump either automatically or through a forced method.

The problem comes from the fact that the Windows has two different main areas of memory: user-mode and kernel-mode. User-mode memory is where applications and user-mode services operate. Kernel-mode is where system services and drivers operate. This explanation is extremely simplistic. More information on user-mode and kernel-mode memory can be found at this location on the Internet:

User mode and kernel mode

Scenarios where non-default Recovery options may be needed

What happens if we have a system with a large amount of memory, we encounter or force a crash, examine the resulting memory dump file, and determine we need user-mode address space to continue analysis? This is the scenario we did not want to encounter. We have to reconfigure the system, reboot, and wait for the abnormal condition to occur again.

We need a 'Complete' memory dump file

If the 'Kernel' or 'Automatic' dump file types are not yielding sufficient debugging information, the options are 'Active' and 'Complete' dump file types.

'Active' memory dump file option

Let's say that debugging analysis shows we need user-mode address space. This would be the case where we could try the 'Active' memory dump type. The problem here is we don't know how large we are going to have to size the paging file. The secondary problem is we must have sufficient free disk space available. If we have a secondary local drive, we can redirect the memory dump file to that location, which could solve the second problem. The first one is still having a large enough paging file.

The problem is we won't know until the next crash occurs after changing to 'Active' memory dump type. If the paging file is not large enough, or the output file location does not have enough disk space, or the process of writing the dump file is interrupted, we will not obtain a good memory dump file. In this case we will not know until we try.

'Complete' memory dump file option

Wait, we already covered this. The 'Complete' is not an option with large RAM systems, right? With some additional configuration, we can obtain a 'Complete' memory dump file that is of reasonable size. The trick is that we have to temporarily limit the amount of physical RAM available to Windows. We can do this easily with the 'System Configuration' tool. You can invoke the System Configuration tool by running "msconfig" from the Start Menu.

  1. Click the 'Boot' tab
  2. Click the 'Advanced Options' button
  3. Click the 'Maximum memory' box
  4. Change the number, in MB to the desired size.

    For example, 16 GB would be "16,384". The numbers do not have to be exact multiples of 2. You could simply type "20000" for approximately 20 GB.

We can choose a reasonable amount of RAM such as something between 16 GB and 32 GB. We also ensure the paging file is set to at least RAM plus several MB. To be safe, set the paging file to RAM plus 100 MB. The last condition we have to meet is to ensure the output location has enough free disk space to write out the memory dump file.

Once the configurations have been set, restart the system and then either start the issue reproduction efforts, or wait for the abnormal conditions to occur through the normal course of operation. Note that with reduced RAM, there ability to serve workloads will be greatly reduced. Once the debugging information has been obtained, the previous settings can be reversed to put the system back into normal operation.

This is a lot of effort to go through and is certainly not automatic. But in the case where user-mode memory is needed, this could be the only option. The following are illustrations of the System Configuration (MSCONFIG) tool to configure maximum memory option:

Figure 1: System Configuration Tool

Figure 2: Maximum memory boot configuration

Figure 3: Maximum memory set to 16 GB

Once maximum memory is configured, click the "Ok" button, restart the computer, and the operating system will be limited to the amount of memory configured…in this case 16 GB. With a reduced amount of physical RAM, there may now be sufficient disk space available to capture a complete memory dump file. To reverse the maximum memory configuration, run "MSCONFIG", go to Advanced BOOT Options, uncheck the "Maximum memory" configuration option, click "OK", and restart. After the restart, the memory configuration will be as it was before running "MSCONFIG".

What about Windows guest OS running in hypervisors?

In the majority of cases, a bugcheck in a virtual machine results in the successful collection of a memory dump file. The common problem with virtual machines is disk space required for a memory dump file. The default Windows configuration (Automatic memory dump) will result in the best possible memory dump file using the smallest amount of disk space possible. The main factors preventing successful collection of a memory dump file are paging file size, and disk output space for the resulting memory dump file after the reboot.

There are several situations that make even "normal" Crashdump collecting very difficult.

  1. Virtual machines (VMs) with virtual drives presented via CIFS or SMB to the VM, though configured as a local disk.
  2. Non-persistent Virtual Desktop Infrastructure (VDI) VMs.

Virtual machines (VMs) with virtual drives presented via CIFS or SMB

There are currently hypervisor technologies that employ Common Internet Files System (CIFS) or Server Message Block (SMB) file shares that can host virtual disk files. These drives may be presented to the VM as a local disk, that can be configured as the destination for a paging file or crashdump file. The problem occurs in case a Windows virtual machine calls KeBugCheckEx, and the location for the Crashdump file is configured to write to a virtual disk hosted on a file share. Depending on the exact method of disk presentation, the virtual disk may not be available when needed to write to either the paging file, or the location configured to save a crashdump file.

It may be necessary to change the crashdump file type to kernel to limit the size of the crashdump file. Either that, or temporarily add a local virtual disk to the VM and then configure that drive to be the dedicated crashdump location. Great information about the dedicated dump file settings can be found in this article (NOTE: This measure is not necessary in Windows 7/Windows Server 2008 R2 and beyond):

How to use the DedicatedDumpFile registry value to overcome space limitations on the system drive when capturing a system memory dump

The important point is to ensure that a disk used for paging file, or for a crashdump destination drive, are available at the beginning of the operating system startup process.

Non-persistent Virtual Desktop Infrastructure (VDI) Virtual Machines (VMs)

Virtual Desktop Infrastructure is a technology that presents a desktop to a computer user, with most of the compute requirements residing in the back-end infrastructure, as opposed to the user requiring a full-featured physical computer. Usually the VDI desktop is accessed via a kiosk device, a web browser, or an older physical computer that may otherwise be unsuitable for day-to-day computing needs.

Non-persistent VDI means that any changes to the desktop presented to the user are discarded when the user logs off. The nature of non-persistent VDI is that a read-only copy of an operating system image is paired with a "write cache" virtual disk. From the time the VDI desktop OS starts, all writes are redirected to the write cache disk. Even writes to the paging file are redirected to the write cache disk.

Typically the write cache disk is sized for normal day-to-day computer use. VDI users are often required to log off at the end of the work day, so the write cache may be sized large enough to handle several days of "normal" computer use.

The problem occurs that, in the event of a bugcheck, the paging file may no longer be accessible. Even if the pagefile is accessible, the location for the memory dump would ultimately be the write cache disk. Even if the pagefile on the write cache disk could save the output of the bugcheck data from memory, that data may be discarded on reboot. Even if not, the write cache drive may not have sufficient free disk space to save the memory dump file.

What then are the options for saving memory dump files on non-persistent VDI desktops?

  • Configure the memory dump type to "small", and configure the write cache drive as the destination for the memory dump file. In this situation, having a small memory dump file is better than no dump file, for runtime bugcheck stop errors.
  • For situations where a problem leads to a virtual machine "hang" (non-responsive to user input), there are some options:
    • Create a new pool of virtual machines, then put only one virtual machine into that pool. The idea is that we know the name of the virtual machine.
    • Change the configuration of the virtual machine from read-only to "read-write". Reproduce the issue, copy the dump file to another location if needed, then return the VM to the normal pool, if needed.
    • Temporarily attach another virtual disk to the VM, of sufficient size to save the intended memory dump type. Reproduce the issue, save the memory dump, and then revert changes as needed.

Dealing with computer devices that go non-responsive

In the event a Windows operating system goes non-responsive, additional steps may need to be taken to capture a memory dump.

  • Depending on the type of hang, user-mode memory space may be needed in addition to kernel-mode memory. Therefore, either the Active or Complete memory dump types may be needed.
  • Some configuration changes may need to be made and a reboot required.
    • Memory dump type
    • Paging file configuration
    • Output location for memory dump file
  • A registry setting called "CrashOnCtrlScroll" may need to be set, which requires a restart.

CrashOnCtrlScroll bugcheck

Setting a registry value called CrashOnCtrlScroll provides a method to force a kernel bugcheck using a keyboard sequence. The right CTRL key is held and the SCROLL LOCK key pressed twice. This will trigger the bugcheck code, and should result in saving a memory dump file. A restart is required for the registry value to take effect. The CrashOnCtrlScroll feature work where you have a keyboard with a right CTRL key available. Not all keyboards have a right CTRL key available, such as the Surface Pro keyboard.

In the event a different key sequence is needed, other than right CTRL + SHIFT, keyboard keys can be remapped using information from this article. This situation may also help in the case of accessing a virtual computer and a right CTRL key is not available.

NMI bugcheck

For server-class, and possibly some high-end workstations, there is a method called Non-Maskable Interrupt (NMI) that can lead to a kernel bugcheck. The NMI method can often be triggered over the network using an interface card with a network connection that allows remote connection to the server over the network, even when the operating system is not running.

Forcing a non-responsive VM to bugcheck from the hypervisor

In the case of a virtual machine that is non-responsive, and cannot otherwise be restarted, there is a PowerShell method available. There is a parameter to the PowerShell command "Debug-VM" called "-InjectNonMaskableInterrupt". This command can be issued to the virtual machine from the Windows hypervisor that is currently running that VM.

Other methods to force a bugcheck from a non-responsive computer (physical or virtual)

The big challenge in the cloud computing age is accessing a non-responsive computer that is in a datacenter somewhere, and your only access method is over the network. In the case of a physical server there may be an interface card that has a network connection, that can provide console access over the network. Other methods such as virtual machines, it can be impossible to connect to a non-responsive virtual machine over the network only.

Forcing a crashdump from a non-responsive computer using "NotMyFault.exe"

NotMyFault.exe is a Sysinternals tool, that with elevation, can create a Windows bugcheck on demand. The trick though is to be able to run NotMyFault.exe when the system is otherwise non-responsive. If you know that you are going to see a non-responsive state in some amount of reasonable time, an administrator can open an elevated .CMD prompt and run the command line version of NotMyFault.exe, through an interactive logon session. There is also a GUI version of NotMyFault.exe that can be opened elevated, left running, and if you are able to get back to NotMyFault.exe, you may be able to force a bugcheck.

Some other methods such as starting a scheduled task, or using PSEXEC to start a process remotely probably will not work, because if the system is non-responsive, this usually includes the networking stack.

Summary and conclusions

  • Root cause analysis of unusual OS conditions often require a memory dump file for debugging analysis.
    • In the majority of cases, a "kernel" memory dump (mostly kernel-mode memory), is sufficient.
    • In some cases user-mode memory will be needed as well as kernel-mode. On large memory servers, there are two choices:
      • "Active" memory dump type (Windows 10, Server 2016, or later)
      • Limit active Windows memory for a reproduction cycle using "MSCONFIG"(System Configuration tool).
        • Limit server to 32 GB memory or less temporarily
        • Change memory dump type to "Complete" dump.
        • Set "CrashOnCtrlScroll" registry setting to enable ability to crash the machine with the keyboard
  • The "Active" memory dump type could an important option for large memory servers.
  • Memory dumps larger than 30 or so GB can be very difficult to analyze with the debugging tools. This is why the need to limit to "kernel" dump, "active" dump, or "complete" dump with limited memory.

Hopefully this will help you with your crash dump configurations and collecting the data you need to resolve your issues. Thanks for reading!

Support-Tip (INSTALL): Failed to connect to the specified database

$
0
0

PRODUCTS INVOLVED

  • Microsoft Forefront Identity Manager 2010, R2, R2 SP1
  • Microsoft Identity Manager 2016, SP1

PROBLEM SCENARIO DESCRIPTION

  • During the installation of the Synchronization Service Manager you receive the following message when configuring the database.

ERROR MESSAGE

  • Failed to connect to the specified database. Failed to connect to the specified database or Forefront Identity Management Service. Please checked the specified database location, service host address and account information.

Failed to connect to the database

CAUSE

  • There are several reasons that this happens during the installation.

RESOLUTION ITEMS

  1. Ensure that the account executing the installation is a SA on the backend SQL Server.
    1. The following Microsoft TechNet Wiki assists with some account information to help prepare you for the actual installation.  https://social.technet.microsoft.com/wiki/contents/articles/7222.fim-2010-installation-companion-accounts.aspx
  2. Ensure that you have the Microsoft .NET Framework v3.5 installed on the Synchronization Service machine.
    1. You can do this through Roles and Features in Server Manager
  3. Ensure that you have the Microsoft SQL Server Native Client Installed on the Synchronization Service Manager machine.
  4. Ensure that port 1433, which is default for SQL Server is open in the Firewall.
  5. If you are using a non-standard SQL Server Port, please be sure to create a client side alias using the cliconfig tool.

ADDITIONAL INFORMATION

 

 

KEYWORDS iamsupport, sync, install, connect to database

Uploading Large Files using Microsoft Graph API

$
0
0

This post is a contribution from Adam Burns, an engineer with the SharePoint Developer Support team

A while back, I wrote an article explaining that you must use File Chunking if you want to upload files larger than 250 MB to SharePoint or OneDrive for Business, using either the SharePoint REST API or CSOM.  This is because the file upload limit is set in the service and cannot be changed.  Using the Microsoft Graph API is even more restrictive.  The file size limit for uploading files is so small (4 MB) that you really should always use the chunking method, but the implementation is a little different than it is with the SharePoint REST API.  Also, to get an access token for Graph you will always need to use an Azure AD authorization endpoint.

At the bottom of this post you find links to two examples of how to upload larger file using Graph – one that uses plain JavaScript and jQuery and the other using a simple Angular 4 framework.  These examples both use Azure v2.0 authentication protocols documented at: https://docs.microsoft.com/en-us/azure/active-directory/develop/active-directory-v2-protocols.  This means you can use the same code to access resources with either your organizational credentials (such as for SharePoint Online or OneDrive for Business document libraries) or your Microsoft account credentials (such as OneDrive Personal document or contacts).

 

The Basics

The main operation you need is /createUploadSession. The details of the API are clearly documented here: https://docs.microsoft.com/en-us/onedrive/developer/rest-api/api/driveitem_createuploadsession#create-an-upload-session

You’ll need to write more code than you may expect, to do this correctly.

Here are the main steps you need to perform to upload a file using the /createUploadSession approach:

  1. Use /createUploadSession to retrieve an upload URL which contains the session identifier. The response will look like this:
    {
      "uploadUrl": "https://sn3302.up.1drv.com/up/fe6987415ace7X4e1eF866337",
      "expirationDateTime": "2015-01-29T09:21:55.523Z",
      "nextExpectedRanges": ["0-"]
    }
    
  2. Use PUT to upload chunks to the uploadUrl. Each chunk should start with a starting range represented by the first number in the “nextExpectedRanges” value in the JSON response from the last PUT. As shown above, the first range will always start with zero. Don’t rely on the end of the range in the “nextExpectedRanges” value. For one thing, this is an array and you may occasionally see multiple ranges. You will usually just pick the starting number of the 0th member of the array. As noted in the documentation, you should use a chunk size which is divisible by 320 KiB (327,680 bytes). So, the headers of your PUT request will look like this:
    PUT https:// {tenant}-my.sharepoint.com/personal/adambu_{tenant}-_onmicrosoft_com/_api/v2.0/drive/items/013JB6FTV6Y2GOVW7725BZO354PWSELRRZ/uploadSession?guid=%277734613e-7e6b-433a-840a-a77a93496928%27&path=%27Code%20Example%20Tagging%20Tool%20Deck.pptx%27&overwrite=True&rename=False&tempauth=eyJ0eXAiOiJKV1Q{....} HTTP/1.1
    Host: {tenant}-my.sharepoint.com
    Connection: keep-alive
    Content-Length: 327680
    Content-Range: bytes 0-327679/1048558
    Accept: */*
    Origin: ------snip------
    

 

Both the linked examples below use 4 main functions to do all this work:

  1. getUploadSession() which makes the initial POST request that retrieves the uploadUrl
  2. uploadChunks() which has the logic to loop based on the response to each PUT call. It in turn calls:
  3. readFragmentAsync() which actually slices up the byte array using FileReader and it’s onloadend event. Here is and example of that method:
    // Reads in the chunk and returns a promise.
        function readFragmentAsync(file, startByte, stopByte) {
            var frag = "";
            const reader = new FileReader();
            console.log("startByte :" + startByte + " stopByte :" + stopByte);
            var blob = file.slice(startByte, stopByte);
            reader.readAsArrayBuffer(blob);
            return new Promise((resolve, reject) =>  {
                reader.onloadend = (event) =>  {
                    console.log("onloadend called  " + reader.result.byteLength);
                    if (reader.readyState === reader.DONE) {
                        frag = reader.result;
                        resolve(frag);
                    }
                };
            });
        }
    
  4. uploadChunk(). This method is also called by uploadChunks to actually execute the ajax PUT call.

All this results in some pretty lengthy code. My examples may be more verbose because I put in a lot of logging to illustrate the process. You may figure out a way to make the code more efficient and terse, but for a production scenario, you will have to add additional code to handle unexpected situations. These scenarios are explained at: https://docs.microsoft.com/en-us/onedrive/developer/rest-api/api/driveitem_createuploadsession#create-an-upload-session. My purpose with this blog post was to expose some real-world code examples, because, at the time of this writing, there is almost nothing out there for this API. Once the basic approach is understood, it should not be hard to create tests and guard code to handle unexpected conditions.

 

Special Notes
I want to point out two things which are not mentioned in the above-referenced article.

  1. The articles and examples show the following request body for the initial call to create the upload session:
        const body = {
                "item": {
                    "@microsoft.graph.conflictBehavior":"rename"
                }
            };
    

    As you would expect, conflictBehavior is an enum that would provide different behaviors on the server side when there is a name conflict for the uploaded file. The definition of the enum, describes the following three values: Fail, Replace, Rename.
    When you use “rename,” as the conflict behavior, the file gets an incremented integer as a string appended to the file name, so for “myFile.docx” you would get a new file uploaded called “myFile 1.docx.”
    When you use “replace,” you end up replacing the file and all the metadata is updated. When you use “fail,” as the conflict behavior, the initial POST receives a HTTP 409 response ("The specified item name already exists.") and your code will have to handle the exception.

  2. In most cases, when you upload the final chunk of the file, you will receive a response with the HTTP status code of 201. If you specify a conflict behavior of “replace,” you will receive a HTTP 200 response instead. Therefore, you must handle the response with code with something like:
               if (res.status === 201 || res.status === 200) {
    	  	console.log("Reached last chunk of file.  Status code is: " + res.status);
                     continueRead = false;
               }
    

 

Sample Code
1.       https://github.com/adambu/createuploadsession-graph-jquery

2.      https://github.com/adambu/createuploadsession-graph-angular


Microsoft クラウドプラットフォーム ニュースまとめ 2018年1月【2/6 更新】

$
0
0

サーバー&クラウド関連の製品やサービスの発表をお伝えする、マイクロソフト マーケティングチームの公式ブログ「Cloud and Server Product Japan Blog」およびそのソースの英語版ブログ「Cloud Platform News Bytes Blog (英語)」から、最新情報をピックアップしてご紹介します。

 

≪最近の更新≫

  • MS クラウド ニュースまとめ – Azure サポートに関する発表、他 (2018/01/24)
    • Azure 用 ITSM Connector の一般提供
    • Azure サポートに関する発表
    • Azure Monitor の新しいアラート (プレビュー)
    • Azure Data Factory 用ビジュアル ツールのプレビュー
    • Azure Cosmos DB のフランス リージョンでのプレビュー
    • Azure Cosmos DB のパーティション分割コレクションの下限引き下げ
    • Azure Cosmos DB の Visual Studio 機能の一般提供
    • Azure Search のセキュリティ更新の一般提供
    • Power BI Desktop の新機能の一般提供
    • Intune パートナーの Jamf との統合の一般提供
  • MS クラウド ニュースまとめ – Cognitive Services の Language Understanding サービスの一般提供、他 (2018/1/10)
    • Azure HDInsight に関する発表と料金の引き下げ
    • Cognitive Services の Language Understanding サービスの一般提供
    • Azure SQL Database – 自動チューニングの機能強化の一般提供
    • Azure SQL Database – Elastic Database の Java 用ライブラリの一般提供
    • Azure のセキュリティと運用の管理 – Azure Site Recovery Deployment Planner の機能強化
    • Microsoft Azure Information Protection – iOS での保護された Office ドキュメントの作成
    • Microsoft Cloud App Security のプレビュー

 

マイルストーンの略語解説:

  • GA (General Availability): 一般提供開始、正式提供開始
  • RTM (Release To Manufacture): 一般提供開始、正式提供開始 (ソフトウェア)
  • CTP (Community Technical Preview): 限定ベータ版、限定プレビュー版
  • TP (Technical Preview): 限定ベータ版、限定プレビュー版
  • EOS (End of Support): サービス提供終了

 

 

過去のまとめを見るには、Cloud and Server Product Japan Blog タグを参照してください。

製品についての最新情報まとめを見るには最新アップデートタグを参照してください。

 

 

SQL Tip: The Tally Table

$
0
0

This is going to be a short blog because there are far better articles on the Tally Table that you should read (I’ll provide a link or two). However, I felt it important to create a post on this since some of my scripts make use of just such a table.

The tally table is just a table that has a column with sequential numbers, hence it is also sometimes referred to as a numbers table. It’s a handy table because you can use it to take the place of loops and perform operations in sets rather than loops to see performance improvements. There’s a lot of ways to use it and as you do you’ll realize just how great and powerful it can be.

The most common way I use it is when I create time periods or time ‘spans’. You can use the numbers in the table to add hours/days/weeks/etc to a starting date and then easily use those dates/times in the query. Since I’m not adding an example of my own in this post it may not make as much sense until you read the article I’m going to share or go through one of my posts that makes use of the table.

I think the best article on the subject is from Jeff Moden. In fact, I still use his ‘create and populate a tally table’ script almost entirely as he originally wrote it in my creation scripts. So, if you’re new to the concept, have a read of his article here: http://www.sqlservercentral.com/articles/T-SQL/62867/

I create a database on each of my SQL servers named “DBA” where I store stored procedures, views, etc for performing maintenance or other DBA tasks. Each DBA database also has a “TallyTable” created with 100,000 records and I allow read access to public so that anyone can use the table. If you’re unable to create such a table then you can create one as a CTE or a temp table for your scripts – it may not be as ideal but at least it will work. If you’re trying to use one of my scripts that makes use of the TallyTable and you can’t create one use the one of the following in the script and replace the table references.

CTE Example:

;WITH TallyTable AS (
SELECT TOP 100000 ROW_NUMBER() OVER(ORDER BY (SELECT NULL)) AS [N]
  FROM dbo.syscolumns tb1,dbo.syscolumns tb2 -- or you could use a large table from your ConfigMgr db if necessary
)
SELECT * FROM TallyTable;

Temp Table Example:

SELECT TOP 100000 ROW_NUMBER() OVER(ORDER BY (SELECT NULL)) AS [N]
  INTO #TallyTable
  FROM dbo.syscolumns tb1,dbo.syscolumns tb2; -- or you could use a large table from your ConfigMgr db if necessary
SELECT * FROM #TallyTable;

I know I didn’t do a whole lot more than point you to someone else’s article on this powerful trick, but I didn’t want to try and rewrite something that someone has already written…many many years ago. Plus, as you see how I use it in my scripts you’ll get real world examples of how to apply/use it. Now, go and read Jeff’s excellent write up and then do a search on the web for other articles – but I’d start with his.

TNWiki Article Spotlight – ASP.NET Core 2.0 and Docker on MacOS

$
0
0
Dear All,

Welcome to the TechNet Wiki Tuesday – TNWiki Article Spotlight.

This is my first blog post for 2018,This New Year, I'm starting the blog post by picking an interesting  article for Tuesday Spotlight.Today in this blog post we will see about ASP.NET Core 2.0 and Docker on MacOS by Vincent Maverick Durano

This article explains in detail about  getting started with ASP.NET Core 2.0 and Docker for Mac OS.

We all know that as ASP.NET Core  is a cross-platform, high-performance, open-source framework for building modern, cloud-based, Internet-connected applications. With ASP.NET Core, we can:

  • Build web apps and services, IoT apps, and mobile backends.
  • Use your favorite development tools on Windows, macOS, and Linux.
  • Deploy to the cloud or on-premises
  • Run on .NET Core or .NET Framework.

We have been developing ASP.NET  for Windows OS but now by using ASP.NET Core we can develop applications for Windows, macOS, and Linux.There are only few articles which explains how to create ASP.NET core applications other than Windows OS.Vincent Maverick Durano has explained in detail about how to work with ASP.NET Core 2.0 and Docker on Mac OS.

What is Docker:

Docker is an open-source project for automating the deployment of applications as portable, self-sufficient containers that can run on the cloud or on-premises. Docker works in collaboration with cloud, Linux, and Windows vendors, including Microsoft. Click here to know more about Docker.

If you want to work with Docker then you should also be need to know as what is Docker containers, images, and registries.

When using Docker, a developer creates an app or service and packages it and its dependencies into a container image. An image is a static representation of the app or service and its configuration and dependencies.Click here to know more about Docker containers, images, and registries.

Vincent Maverick Durano  has explained in detail with step by step explanation starting from Prerequisites needed to be installed till test and running ASP.NET Core 2.0 application using Docker on Mac OS

In this article you can learn

  • Prerequisites needed to be installed.
  • Docker Images for .NETCore 2.0 and ASP.NET Core 2.0
  • Running the Project for the First Time
  • Let's Get Going!
  • Adding a Docker File
  • Integrating EF Core and PostgreSql
  • Creating the Application
  • Setting Up a Database ConnectionString
  • Creating a Model
  • Defining a DbContext
  • Registering Services with Dependency Injection
  • Adding Migrations
  • Creating a Web API Controller
  • Running the Application on Docker
  • Testing the Web API Endpoints

I believe this article will be a great feast for all who is looking to work with ASP.NET Core 2.0 and Docker on MacOS and don't miss to read this article from here  ASP.NET Core 2.0 and Docker on MacOS by Vincent Maverick Durano  I hope you all enjoy reading his article.

See you all soon in another blog post.

PS: Today’s banners come from  Ousama El Hor .

Ousama_Elhor_02

Thank you all.

tnwlogo_3

Yours,
Syed Shanu
MSDN Profile | MVP Profile | Facebook | Twitter |
TechNet Wiki the community where we all join hands to share Microsoft-related information.

Announced Changes to Office and Windows servicing and support – Part 2

$
0
0

In the first post of this series I focused on some of the top Office questions and concerns I was seeing, now it's time to take a closer look at some of the Windows announcements that were included, or more specifically, the Windows 10 Enterprise and Windows 10 Enterprise announcements that were made.

The main part off the announcement was that the abovementioned Windows 10 versions 1511, 1607, 1703 and 1709 will have 24 months of servicing, which gives us this table.

Release Release date End of support End of additional servicing for Enterprise, Education
Windows 10, version 1511 November 10, 2015 October 10, 2017 April 10, 2018
Windows 10, version 1607 August 2, 2016 April 10, 2018 October 9, 2018
Windows 10, version 1703 April 5, 2017 October 9, 2018 April 9, 2019
Windows 10, version 1709 October 17, 2017 April 9, 2019 October 8, 2019

This is an extension of the support announcement from November 2017, and it does not apply to Pro or Consumer SKUs. This also means that it doesn't apply to Windows 10 Business as enabled by Microsoft 365 Business, because it is just a naming change to highlight how it is being managed.

The second major Windows portion of the post was for Windows 10 Enterprise Long Term Servicing Channel (LTSC) 2018, which will be available later in 2018. This includes updated features and new processor support, but doesn't all of the features and functionality of Windows 10 Enterprise Semi-Annual Channel. There is also a crossover Office/Windows component here - If you are planning on running Office 2019 on Windows 10 LTSC it will need to be Windows 10 LTSC 2018, not one of the earlier LTSC releases.

 

Network Watcher Connection Troubleshoot の一般提供を開始

$
0
0

執筆者: Abhishek Pathak (Senior Program Manager, R&D Azure NW PM-US)

このポストは、2018 1 29 日に投稿された Network Watcher Connection Troubleshoot now generally available の翻訳です。

 

Azure Network Watcher Connection Troubleshoot の一般提供が開始されました。これはプレビュー時に Connectivity Check と呼ばれていた機能で、今回名前が変更されました。Connection Troubleshoot は Network Watcher スイートで提供されるネットワーク ツールや機能の一部で、Azure のネットワーク パフォーマンスや接続に関する問題のトラブルシューティングに使用するものです。

Azure Network Watcher のツールは拡張を続けており、今回の追加機能によって接続元から接続先までのホップ バイ ホップのパスが可視化され、ネットワーク パフォーマンスや接続に影響を与える可能性のある問題を特定できるようになります。

Network Watcher Connection Troubleshoot の機能

Connection Troubleshoot の追加によって、Network Watcher の機能がさらに拡張され、次のような日常業務で利用できるようになりました。

        接続元 (VM) と接続先 (VMURIFQDNIP アドレス) の間の接続チェック

        到達可能性に影響を与える構成の問題の特定

        接続元から接続先までの間で利用可能なホップ バイ ホップのパスの提示

        ホップ バイ ホップのレイテンシ

        接続元と接続先の間のレイテンシの最小値、最大値、平均値

        接続元と接続先の間のトポロジの (グラフィカルな) 表示

        Connection Troubleshoot のチェック中に欠落したパケット数

Connectivity troubleshoot check


Connection Troubleshoot
が接続元の Azure VM から接続先の www.bing.com までをチェックした結果をグラフ ビューで出力

Connection Troubleshoot で検出可能な問題の種類は?

Connection Troubleshoot では、接続に影響を与える可能性のある以下のような問題を検出できます。

        VM の CPU 使用率が高い状態

        VM のメモリ使用量が多い状態

        トラフィックをブロックする仮想マシン (ゲスト) のファイアウォール ルール

        DNS 解決エラー

        ルーティングの構成ミスや欠落

        トラフィックをブロックする NSG ルール

        特定の接続元のポートで開けないソケット

        Azure Express Route 回線用アドレス解決プロトコル エントリの欠落

        指定した接続先のポートをリッスンしているサーバーが存在しない状態

Connection Troubleshoot でサポートされるシナリオは?

Connection Troubleshoot は、Azure VMFQDNURIIPv4 アドレスが接続元および接続先となるあらゆるネットワーク シナリオをサポートします。Connection Troubleshoot の使用開始のシナリオには、以下のようなものがあります。

·         Azure VM Azure SQL Server の間の接続で、すべての Azure トラフィックがオンプレミス ネットワークを通じてトンネルされる場合。

Network Watcher - Connection troubleshoot

·         異なる VNet VM 間を VNet ピアリングで接続する場合。この例では、Connection Troubleshoot は接続先の VM のファイアウォールでブロックされたトラフィックを検出します。

InkedPresentation1_LI

Connection Troubleshoot の詳細情報の確認や使用開始する場合は、こちらのドキュメントを参照してください。

Azure ポータル以外から Connection Troubleshoot を使用する方法

Connection Troubleshoot を含むすべての Network Watcher の機能は、Azure ポータルの他に PowerShell Azure CLIREST API からも使用できます。

また、タイマーでトリガーされる Azure Functions PowerShell から使用して Connection Troubleshoot を継続的に実行し、トラブルシューティングを開始することもできます。今後は、Network Watcher エクスペリエンスでユーザーのネットワーク インフラストラクチャの接続を継続的に監視する機能を実装する予定です。どうぞご期待ください。

Connection Troubleshoot のフィードバックをお寄せください

Connection Troubleshoot およびその他の Network Watcher の機能について、何かありましたら Azure フィードバック フォーラム (英語) までお寄せください。

 

Viewing all 36188 articles
Browse latest View live


<script src="https://jsc.adskeeper.com/r/s/rssing.com.1596347.js" async> </script>