Quantcast
Channel: TechNet Blogs
Viewing all 36188 articles
Browse latest View live

Suse 12.3 での Sybase 16.3 パッチ レベル 3 の Always-On と DR のインストール手順 – お客様の環境での最新の概念実証

$
0
0

執筆者: Cameron (MSFT SAP Program Manager)

このポストは、2018 年 6 月 18 日に投稿されたInstallation Procedure for Sybase 16.3 Patch Level 3 Always-on + DR on Suse 12. 3 – Recent Customer Proof of Concept の翻訳です。

 

この数か月、Hana テクノロジに大きな投資を行っている数社のお客様から、大規模でミッション クリティカルな SAP アプリケーションを Sybase ASE と共に Azure に展開する方法について何度かお問い合わせがありました。

通常、SAP Hana をご利用のお客様は、Hana データベースのライセンスを取得していれば追加コストなし (あるいはほぼ不要) で Sybase ASE を展開することができます。

マイクロソフトにお問い合わせいただくお客様の多くが、データセンターの閉鎖や、 UNIX プラットフォームの打ち切りを行い、25 ~ 45 TB 規模DB ボリュームの ECC システムや BW システムを Azure に移行しようとしています。超大規模 DB を Azure に移行する際の要件とベスト プラクティスについては、こちらのブログ  (https://blogs.technet.microsoft.com/jpitpro/2018/04/23/very-large-database-migration-to-azure-recommendations-guidance-to-partners/) をご覧ください。

同期レプリケーションの高可用性ノードペア+非同期レプリケーションの3番目のノードという典型的な構成のインストール手順を簡潔にまとめたドキュメントは、最近までありませんでした。これは SAP ユーザーにおいてよくある要件です。

この記事では、SAP社が提供する既存のドキュメントを補足することを目的に、ヒントや追加情報をいくつかご紹介します。Sybase のドキュメントは SAP Sybase チームが継続的に更新、改訂しているため、そちらの公式ドキュメントを見たうえでこの記事を参照されることをお勧めします。この記事はCognizant と DXC による実際の導入事例を参考に、最新バージョンの Sybase と Suse をインストールしたラボのテスト環境でスクリーンショットを撮って作成しています。

インストール手順の概要

以下は 3 層の SAP 分散インストールの大まかなインストール プロセスです。

  1. 必要な OSS ノート、インストール ガイドを参照する。インストール メディアをダウンロードして SAP Sybase ASE for SAP Business Suite ドキュメントを参照する。
    1. SUSE Linux Enterprise Server 12 SP3 リリース ノート: https://www. suse. com/releasenotes/x86_64/SUSE-SLES/12-SP3/ (英語)
    2. SAP ソフトウェア ダウンロード: https://support.sap.com/ja/my-support/software-downloads.html
    3. SWPM ダウンロード: https://support.sap.com/ja/tools/software-logistics-tools.html
    4. Sybase リリース一覧: https://wiki. scn. sap. com/wiki/display/SYBASE/Targeted+ASE+16. 0+Release+Schedule+and+CR+list+Information (英語)
    5. Sybase 公式ドキュメント: https://help. sap. com/viewer/product/SAP_ASE/16.0.3.3/en-US (英語)
  2. Azure VM をプロビジョニングし、SAP Applications 12. 3 用に Suse をインストールし、Accelerated Networking を有効化する
  3. OS に修正プログラムを適用し、後述の準備手順を実行する
  4. SWPM で分散インストールを実行し、ASCS インスタンスをインストールする
  5. /sapmnt NFS 共有をエクスポートする
  6. /sapmnt NFS 共有をプライマリ サーバー、セカンダリ サーバー、DR DB サーバーにマウントする
  7. SWPM で分散インストールを実行し、プライマリ DB インスタンスをインストールする
  8. SWPM で分散インストールを実行し、プライマリ アプリケーション サーバーをインストールする (任意: 追加のアプリケーション サーバーをインストール)
  9. プライマリ DB インスタンスで Sybase Always-On の準備手順を実行する
  10. プライマリ DB インスタンスで setuphadr を実行する
  11. SWPM で分散インストールを実行し、セカンダリ DB インスタンスをインストールする
  12. セカンダリ DB インスタンスで Sybase Always-On の準備手順を実行する
  13. セカンダリ DB インスタンスで setuphadr を実行する
  14. SWPM で分散インストールを実行し、DR DB インスタンスをインストールする
  15. DR DB インスタンスで Sybase Always-On の準備手順を実行する
  16. DR DB インスタンスで setuphadr を実行する
  17. Fault Manager のインストールなど、後処理を実行する

デプロイメントの構成

  1. 最新の更新プログラムを適用した Suse 12.3
  2. Sybase 16.03.03
  3. SWPM バージョン 22 または 23、SAP Kernel 7.49 パッチ 500、NetWeaver ABAP 7.50
  4. Accelerated Networking を有効化した、vCPU が 4 コアの Azure Ev3 VM
  5. Premium Storage – 各 DB サーバーに P20 のディスクを 2 つ (または必要に応じてそれ以上) 搭載し、アプリケーション サーバーにはブートディスクのみ搭載
  6. 公式の Sybase ドキュメント (一部の手順が実行できない場合に、補足として参照) – https://help. sap. com/viewer/product/SAP_ASE/16. 0. 3. 3/en-US (英語)
  7. サンプルの応答ファイル – このファイルをダウンロードして参照することをお勧めします。
  8. Sybase Always-On は Pacemaker または Windows クラスターなどの OS レベルのクラスタリング テクノロジを利用せず、Azure ILB は使用されません。代わりに、SAP ワークプロセスでプライマリとセカンダリの Sybase サーバーを認識します。DR ノードでは自動フェールオーバーがサポートされないため、SAP アプリケーション サーバーに DR ノードへの接続を手動でセットアップ、構成します。
  9. このインストールは「分散」インストールです。SAP セントラル サービスに高い可用性を持たせる場合は、SAP on Azure の Pacemaker 向けドキュメントに従ってください。
  10. Sybase Fault Manager は自動的に SAP プライマリ アプリケーション サーバー (PAS) にインストールされます。
  11. Linux と Windows の行末コードの違いに注意してください。Linux コマンド cat -v response_file.rs を実行して「^M」が表示されるのは、そこに Windows の行末コードがあるためです。
      例: cat -v test.sh

      出力

      行 1 ^M

      行 2 ^M

      行 3 ^M

      (注: CTRL + M は Linux では単独文字であり、Windows のキャリッジリターンに相当します。Linux でファイルを使用する前にこの問題を修正する必要があります)

      この問題の修正方法

      $> dos2unix test. sh

      出力

      行 1

      行 2

      行 3

  1. 今回のデプロイメントで使用する Hosts ファイルの構成
      1. 例: <IP アドレス> <FQDN> <省略名> <#任意のコメント>

        10.1.0.9     sybdb1. hana. com     sybdb1    #プライマリ DB

        10.1.0.10   sybapp1. hana. com    sybapp1    #SAP NetWeaver 7.5 PAS

        10.1.0.11   sybdb2. hana. com     sybdb2        #セカンダリ DB

        10.1.0.12   sybdb3. hana. com    sybdb3        #DR 向けサード DBP

      すべての Suse サーバー共通の準備手順

      sudo zypper install -y glibc-32bit

      sudo zypper install -y libgcc_s1-32bit

      #この 2 つの glib 32bit は必須です。インストールしないと Always-On が動作しません。

      sudo zypper up -y

      注: カーネルのパッチが適用された場合、必ずサーバーを再起動してください。

      #ブート ディスクのサイズを変更します。既定の 30 GB の Linux ルート ディスクは小さすぎるため、VM を停止して、Azure Portal または PowerShell でディスクを編集します。ディスク サイズを 60 ~ 100 GB に拡張します。VM を再起動し、次のコマンドを実行します。SAP アプリケーション サーバーに追加で別のディスクをプロビジョニングしても特にメリットはありません。

      sudo fdisk /dev/sda

      ##既存のパーティションを削除し (データは削除されません)、「n」で新規に作成し、「p」で基本パーティションを選択し、「w」で設定を適用します。

      sudo resize2fs /dev/sda2

      sudo reboot

      #Accelerated Networking が動作しているか確認します。

      /sbin/ethtool -S eth0 | grep vf_
      #hosts ファイルに次のエントリを追加します。

      sudo vi /etc/hosts

        10.1.0.9     sybdb1. hana. com     sybdb1    #プライマリ DB

        10.1.0.10   sybapp1. hana. com    sybapp1    #SAP NetWeaver 7.5 PAS

        10.1.0.11   sybdb2. hana. com     sybdb2        #セカンダリ DB

        10.1.0.12   sybdb3. hana. com    sybdb3        #DR 向けサード DB

      #waagent を編集してスワップファイルを作成するよう構成します。

        sudo vi /etc/waagent. conf

        次の行を探す>>

        ResourceDisk. EnableSwap=n

        ResourceDisk. SwapSizeMB=

        <<

        上記の項目の値を編集します。注: スワップ サイズは MB 単位で設定します。

        #次のように、スワップファイルの有効化と、2 GB 以上のサイズを設定します。

        ResourceDisk.EnableSwap=y

        ResourceDisk.SwapSizeMB=2000

        編集後にスワップファイルをアクティブにするにはエージェントを再起動する必要があります。

        sudo systemctl restart waagent

        他のサービスの有効化、再起動を実行します。

        sudo systemctl restart nfs-server

        sudo systemctl enable nfs-server

        sudo systemctl status uuidd

        sudo systemctl enable uuidd

        sudo systemctl start uuidd

        sudo systemctl status uuidd

      ##sapcar を実行し、SWPM 22 または 23 を解凍します。

      sapcar -xvf SWPM10SP22_7-20009701. SAR

      SAP アプリケーション サーバーの ASCS のインストール

      sudo /source/swpm/sapinst SAPINST_REMOTE_ACCESS_USER=<OS ユーザー>

      管理サーバーから Web ブラウザーを開いて、Suse の OS ユーザーとパスワードを入力します (https://10.1.0.10:4237/sapinst/docs/index. html)。

        ##インストール後、/sapmnt の NFS 共有をエクスポートします。

        sudo vi /etc/exports

        #最終行に /sapmnt*(rw,no_root_squash) を追加します。

        ##必要に応じて、NSG に NFS 用のポート 2049 を開きます (既定で、同一 vNET 上の VM は相互通信が可能です)。

        sudo systemctl restart nfs-server

      SAP DB インスタンスのインストール

      ##zypper のインストールや hosts ファイルの編集など、共通の準備手順を実行します。

      #sybase 用のディスクを作成します。

        sudo fdisk -l | grep /dev/sd

        sudo fdisk /dev/sdc を実行し、「n」「p」「w」の順に入力

        sudo fdisk /dev/sdd を実行し、「n」「p」「w」の順に入力

      #一般的には、LVM を使用して、ここで物理ボリューム、論理ボリュームなどを作成することをお勧めします。そうすることで、追加ディスクをストライピングすることによって後からパフォーマンスをテストすることができます。

      注: データ、バックアップ、ログ ストレージの作成に複数のディスクを使用している場合、最適なパフォーマンスを得るために必要なストライピングを有効化します。

      vgcreate VG_DATA /dev/sdc /dev/sdd

      lvcreate -l 100%F VG_DATA -n lv_data -i 2 -I 256

      sudo pvcreate /dev/sdc1 /dev/sdc1

      sudo pvcreate /dev/sdc1 /dev/sdd1

      sudo pvscan

      sudo vgcreate syb_data_vg /dev/sdc1

      sudo vgcreate syb_log_vg /dev/sdd1

      sudo lvcreate -i1 -l 100%FREE -n syb_data_lvsyb_data_vg

      sudo lvcreate -i1 -l 100%FREE -n syb_log_lvsyb_log_vg

      sudo mkfs. xfs -f /dev/syb_data_vg/syb_data_lv

      sudo mkfs. xfs -f/dev/syb_log_vg/syb_log_lv

      sudo mkdir -p /sybase/source

      sudo mkdir -p /log

      sudo mkdir -p /sapmnt

      sudo blkid | grep log

      sudo blkid | grep data

      /etc/fstab を編集し、作成したディスク用にエントリを追加します。

      オプション 1

      作成したボリューム グループと論理ボリュームの内容に基づいて指定します。

      例: /dev/mapper/

      適切なデバイスを参照します。

      例: syb_data_vg-syb_data_lv

      /etc/fstab にエントリを追加します。

      sudo vi /etc/fstab

      次の行を追加します。

      /dev/mapper/syb_data_vg-syb_data_lv /hana/data xfs defaults,nofail 1 2

      オプション 2

      #sudo su - を実行してルート ユーザーに切り替え、GUID の置き換えを実行します。この操作は sudo コマンドでは実行できません。ルートである必要があります。

      sudo su –

      echo “/dev/disk/by-uuid/799603d6-20c0-47af-80c9-75c72a573829 /sybase xfsdefaults,nofail02”>> /etc/fstab

      echo “/dev/disk/by-uuid/2bb3f00c-c295-4417-b258-8de43a844e23 /log xfsdefaults,nofail02”>> /etc/fstab

      exit

      sudo mount -a

      sudo df -h

      ##ソース ファイルのディレクトリを作成します。

      sudo mkdir /sybase/source

      ##ソース ファイルをコピーします。

      sudo chmod 777 /sybase/source -R

      ##/sapmnt に自動マウントを設定します。

      ### – 従来の方法の sudo mount -t nfs4 -o rw sybapp1:/sapmnt /sapmnt ではなく、自動マウントを使用します。

      sudo mkdir /sapmnt

      sudo vi /etc/auto.master

      #次の行をファイルに追加し、保存して終了します。

      +auto.master

      /- /etc/auto.direct

      sudo vi /etc/auto.direct

      #次の行をファイルに追加し、保存して終了します。

      /sapmnt -nfsvers=4,nosymlink,sync sybapp1:/sapmnt

      sudo systemctl enable autofs

      sudo service autofs restart

      sudo /sybase/source/swpm/sapinst SAPINST_REMOTE_ACCESS_USER=<OS ユーザー>

      Web ブラウザーを開き、インストールを開始します。

      SAP PAS のインストール

      ##ASCS として同じ準備手順を実行し、zypper のインストールや hosts ファイルの編集などを行います。

      sudo /source/swpm/sapinst SAPINST_REMOTE_ACCESS_USER=<OS ユーザー>

      https://10.1.0.10:4237/sapinst/docs/index. html へ移動します。

      プライマリ DB での Always-On のインストール

      ##ASCS として同じ準備手順を実行し、zypper のインストールや hosts ファイルの編集などを行います。

      これらのライブラリがインストールされていることを確認します。インストールされていないと、Fault Manager はエラーを返すことなく失敗します。

      sudo zypper install glibc-32bit

      sudo zypper install libgcc_s1-32bit

      ##Sybase の <sid> としてログインします。ここでは、<sid> は「ase」です。

      sybdb1 /sybase% whoami

      sybase

      sybdb1 /sybase% pwd

      /sybase

      sybdb1 /sybase% ls

      ASEsourcesybdb1_dma.rssybdb1_setup_hadr. rs

      sybdb1 /sybase% cat sybdb1_dma.rs | grep USER_INSTALL_DIR

      USER_INSTALL_DIR=/sybase/ASE

      sybdb1 /sybase%

      sybdb1 /sybase% source/ASE1633/BD_SYBASE_ASE_16.0.03.03_RDBMS_for_BS_/SYBASE_LINUX_X86_64/setup.bin -f /sybase/sybdb1_dma.rs -i silent

       

      注: コマンドが動作しない場合は、-i silent の前に空白文字を入力してください。 ASE.ZIP ファイルの setup.bin への完全なパスを入力します。応答ファイルへの完全なパスを入力します。それ以外の場合、特定のエラー メッセージが出力されずに失敗します。

       

      ##次のコマンドを実行して、sa アカウントのロックを解除します。「-X」を指定しないとコマンドは失敗します。

      isql-Usapsso -PSAPHana12345 -SASE -X
      sp_locklogin sa, unlock

      go

      ##エラーが発生する場合は、次の SAP Note を参照してください。

      2450148 – ‘Warning: stopService() only supported on windows’ message happened during HADR configuration -SAP ASE

      ##Sybase のドキュメントに基づいて応答ファイルを編集した後、setuphadr を実行します (サンプルの応答ファイルはこの記事で提供しています)。

      setuphadr /sybase/sybdb1_setup_hadr.rs

      セカンダリ DB での Always-On のインストール

      ##ASCS として同じ準備手順を実行し、zypper のインストールや hosts ファイルの編集などを行います。

      これらのライブラリがインストールされていることを確認します。インストールされていないと、Fault Manager はエラーを返すことなく失敗します。

      sudo zypper install glibc-32bit

      sudo zypper install libgcc_s1-32bit

      ##ASCS として同じ準備手順を実行し、zypper のインストールや hosts ファイルの編集などを行います。

      #sybase 用のディスクを作成します。

      sudo fdisk -l | grep /dev/sd

      sudo fdisk /dev/sdc を実行し、「n」「p」「w」の順に入力

      sudo fdisk /dev/sdc を実行し、「n」「p」「w」の順に入力

      #ディスクは 1 つのみですが、ここで物理ボリューム、論理ボリュームなどを作成すると、追加ディスクをストライピングすることによってパフォーマンスを後からテストすることができます。

      sudo pvcreate /dev/sdc1 /dev/sdc1

      sudo pvcreate /dev/sdc1 /dev/sdd1

      sudo pvscan

      sudo vgcreate syb_data_vg /dev/sdc1

      sudo vgcreate syb_log_vg /dev/sdd1

      sudo lvcreate -i1 -l 100%FREE -n syb_data_lvsyb_data_vg

      sudo lvcreate -i1 -l 100%FREE -n syb_log_lvsyb_log_vg

      sudo mkfs. xfs -f /dev/syb_data_vg/syb_data_lv

      sudo mkfs. xfs -f/dev/syb_log_vg/syb_log_lv

      sudo mkdir -p /sybase/source

      sudo mkdir -p /log

      sudo mkdir -p /sapmnt

      sudo blkid | grep log

      sudo blkid | grep data

      #sudo su - を実行してルート ユーザーに切り替え、GUID の置き換えを実行します。この操作は sudo コマンドでは実行できません。ルートである必要があります。

      sudo su –

      echo “/dev/disk/by-uuid/799603d6-20c0-47af-80c9-75c72a573829 /sybase xfsdefaults,nofail02”>> /etc/fstab

      echo “/dev/disk/by-uuid/2bb3f00c-c295-4417-b258-8de43a844e23 /log xfsdefaults,nofail02”>> /etc/fstab

      exit

      sudo mount -a

      sudo df -h

      sudo mount -a

      sudo df -h

      ##ソース ファイルのディレクトリを作成します。

      sudo mkdir /sybase/source

      ##ソース ファイルをコピーします。

      sudo chmod 777 /sybase/source -R

      ##/sapmnt に自動マウントを設定します。

      ### – 従来の方法の sudo mount -t nfs4 -o rw sybapp1:/sapmnt /sapmnt ではなく、自動マウントを使用します。

      sudo mkdir /sapmnt

      sudo vi /etc/auto.master

      #次の行をファイルに追加し、保存して終了します。

      +auto.master

      /- /etc/auto.direct

      sudo vi /etc/auto.direct

      #次の行をファイルに追加し、保存して終了します。

      /sapmnt -nfsvers=4,nosymlink,sync sybapp1:/sapmnt

      sudo systemctl enable autofs

      sudo service autofs restart

      sudo /sybase/source/swpm/sapinst SAPINST_REMOTE_ACCESS_USER=<OS ユーザー>

      autofs を停止し、/sapmnt のマウントを解除します。sapinst は存続させます。

      /sapmnt はこの後すぐにマウントする必要があります。

      ##Sybase の <sid> としてログインします。ここでは、<sid> は「ase」です。
      /sybase/source/ASE1633/BD_SYBASE_ASE_16. 0. 03. 03_RDBMS_for_BS_/SYBASE_LINUX_X86_64/setup. bin -f /sybase/sybdb2_dma. rs -i silent

      isql-Usapsso -PSAPHana12345 -SASE -X

      sp_locklogin sa, unlock

      go

      2450148 – ‘Warning: stopService() only supported on windows’ message happened during HADR configuration -SAP ASE
      ##Sybase のドキュメントに基づいて応答ファイルを編集した後、setuphadr を実行します (サンプルの応答ファイルはこの記事で提供しています)。

      setuphadr /sybase/sybdb2_setup_hadr.rs

      RMA は再起動しません。再起動は不要です。

      Always-On Fault Manager のインストールと後処理

      この手順に関する Sybase のドキュメントは以下から入手できます。

      https://help.sap.com/viewer/efe56ad3cad0467d837c8ff1ac6ba75c/16.0.3.3/en-US/286f4fc8b3ab4439b3400e97288152dc.html (英語)

      ドキュメントは完全ではありません。このドキュメントにある手順を実行した後、次の SAP Note を参照してください。

      1959660 – SYB: Database Fault Management

      su – aseadm

      rsecssfx put DB_CONNECT/SYB/DR_USER DR_admin -plain

      rsecssfx put DB_CONNECT/SYB/DR_PASSWORD SAPHana12345

      sybdb1:~ #su – aseadm

      sybdb1:aseadm 1> rsecssfx put DB_CONNECT/SYB/DR_USER DR_admin -plain

      sybdb1:aseadm 2> rsecssfx put DB_CONNECT/SYB/DR_PASSWORD SAPHana12345

      sybdb1:aseadm 3>

      sybdb2:~ #su – aseadm

      sybdb2:aseadm 1> rsecssfx put DB_CONNECT/SYB/DR_USER DR_admin -plain

      sybdb2:aseadm 2> rsecssfx put DB_CONNECT/SYB/DR_PASSWORD SAPHana12345

      sybdb2:aseadm 3>

      ##Always-On のチューニングと構成のスクリプトをプライマリとコンパニオンで実行します。

      isql -UDR_admin -PSAPHana12345 -Ssybdb1:4909

      sap_tune_rs Site1, 16, 4

      isql -UDR_admin -PSAPHana12345 -Ssybdb2:4909

      sap_tune_rs Site2, 16, 4

      sybdb2:aseadm 3> isql -UDR_admin -PSAPHana12345 -Ssybdb2:4909

      1> sap_tune_rs Site2, 16, 4

      2> go

      TASKNAMETYPE

      VALUE

      ———————– —————–

      ————————————————————

      Tune Replication Server Start Time

      Sun Apr 29 06:20:37 UTC 2018

      Tune Replication Server Elapsed Time

      00:07:11

      TuneRSTask Name

      Tune Replication Server

      TuneRSTask State

      Completed

      TuneRSShort Description

      Tune Replication Server configurations.

      TuneRSLong Description

      Waiting 180 seconds: Waiting Replication Server to fully up.

      TuneRSTask Start

      Sun Apr 29 06:20:37 UTC 2018

      TuneRSTask End

      Sun Apr 29 06:27:48 UTC 2018

      TuneRSHostname

      sybd2

      (9 rows affected)

      ##アプリケーション サーバーでのみ実行します。

      sudo vi . dbenv. csh

      setenv dbs_syb_ha 1

      setenv dbs_syb_server sybdb1:sybdb2

      ##SAP アプリケーション サーバーを再起動します。

      sapcontrol -nr 00 -function StopSystem ALL

      sapcontrol -nr 00 -function StartSystem ALL

      https://help. sap. com/viewer/efe56ad3cad0467d837c8ff1ac6ba75c/16.0.3.3/en-US/41b39cb667664dc09d2d9f4c87b299a7. html (英語)

      sybapp1:aseadm 6> rsecssfx list

      |———————————————————————————|

      | Record Key | Status | Time Stamp of Last Update |

      |———————————————————————————|

      | DB_CONNECT/DEFAULT_DB_PASSWORD | Encrypted| 2018-04-2903:07:11UTC |

      |———————————————————————————|

      | DB_CONNECT/DEFAULT_DB_USER | Plaintext| 2018-04-2903:07:07UTC |

      |———————————————————————————|

      | DB_CONNECT/SYB/DR_PASSWORD | Encrypted| 2018-04-2906:18:26UTC |

      |———————————————————————————|

      | DB_CONNECT/SYB/DR_USER | Plaintext| 2018-04-2906:18:22UTC |

      |———————————————————————————|

      | DB_CONNECT/SYB/SADB_PASSWORD | Encrypted| 2018-04-2903:07:19UTC |

      |———————————————————————————|

      | DB_CONNECT/SYB/SADB_USER | Plaintext| 2018-04-2903:07:14UTC |

      |———————————————————————————|

      | DB_CONNECT/SYB/SAPSID_PASSWORD | Encrypted| 2018-04-2903:07:42UTC |

      |———————————————————————————|

      | DB_CONNECT/SYB/SAPSID_USER | Plaintext| 2018-04-2903:07:37UTC |

      |———————————————————————————|

      | DB_CONNECT/SYB/SSODB_PASSWORD| Encrypted| 2018-04-2903:07:27UTC |

      |———————————————————————————|

      | DB_CONNECT/SYB/SSODB_USER| Plaintext| 2018-04-2903:07:22UTC |

      |———————————————————————————|

      | DB_CONNECT/SYB/SYBSID_PASSWORD | Encrypted| 2018-04-2903:07:34UTC |

      |———————————————————————————|

      | DB_CONNECT/SYB/SYBSID_USER | Plaintext| 2018-04-2903:07:30UTC |

      |———————————————————————————|

      | SYSTEM_PKI/PIN | Encrypted| 2018-04-2722:36:39UTC |

      |———————————————————————————|

      | SYSTEM_PKI/PSE | Encrypted (binary) | 2018-04-2722:36:45UTC |

      |———————————————————————————|

      Summary

      ——-

      ActiveRecords : 14 (Encrypted: 8, Plain: 6, Wrong Key: 0, Error: 0)

      Defunct Records : 12 (180+ days: 0; Show: “list -withHistory”, Remove: “compact”)

      ##Fault Manager のインストール手順を SAP PAS で実行します。

      sybapp1:aseadm 24> pwd

      /sapmnt/ASE/exe/uc/linuxx86_64

      sybapp1:aseadm 25> whoami

      aseadm

      sybapp1:aseadm 26> ./sybdbfm install

      replication manager agent user DR_admin and password set in Secure Store.

      Keep existing values (yes/no)?(yes)

      SAPHostAgent connect user: (sapadm)

      Enter password for user sapadm.

      Password:

      Enter value for primary database host: (sybdb1)

      Enter value for primary database name: (ASE)

      Enter value for primary database port: (4901)

      Enter value for primary site name: (Site1)

      Enter value for primary database heart beat port: (13777)

      Enter value for standby database host: (sybdb2)

      Enter value for standby database name: (ASE)

      Enter value for standby database port: (4901)

      Enter value for standby site name : (Site2)

      Enter value for standby database heart beat port: (13787)

      Enter value for fault manager host: (sybapp1)

      Enter value for heart beat to heart beat port: (13797)

      Enter value for support for floating database ip: (no)

      Enter value for use SAP ASE Cockpit if it is installed and running: (no)

      installation finished successfully.

      SAP インスタンスを再起動します。Fault Manager が ASCS 起動プロファイルに追加されます。

      sybapp1:aseadm 32> sybdbfm status

      fault manager running, pid = 4338, fault manager overall status = OK, currently executing in mode PAUSING

      *** sanity check report (5)***.

      node 1: server sybdb1, site Site1.

      db host status: OK.

      db status OK hadr status PRIMARY.

      node 2: server sybdb2, site Site2.

      db host status: OK.

      db status OK hadr status STANDBY.

      replication status: SYNC_OK.

      サード ノード (DR) での非同期 Always-On のインストール

      公式の SAP Sybase ドキュメントや参考情報は次のリンクからご覧ください。

      https://blogs. sap. com/2018/04/19/high-availability-disaster-recovery-3-node-hadr-with-sap-ase-16.0-sp03/ (英語)

      ドキュメント: https://help. sap. com/viewer/38af74a09e48457ab699e83f6dfb051a/16.0.3.3/en-US (英語)

      https://help. sap. com/viewer/38af74a09e48457ab699e83f6dfb051a/16.0.3.3/en-US/6ca81e90696e4946a68e9257fa2d3c31. html (英語)

      1. SWPM を使用して、コンパニオン ホストと同じように DB ホストをインストールします。
      2. コンパニオン ホストの応答ファイルをコピーします。
      3. COMP のエントリを含むセクションをコピーしてファイルの最後に追加し、追加したセクションの「COMP」を「DR」などに変更します。元の COMP と PRIM のエントリはそのままにしておきます。
      4. セットアップ サイトを DR に変更します。
      5. サード ノードで実行する setuphadr には PRIM と COMP のホストの情報が必要なため、その 2 つの他のすべてのエントリはそのまま残します。
      6. setuphadr を実行します。

      この記事で提供しているサンプルの応答ファイルを見てみましょう。

      ##ASCS として同じ準備手順を実行し、zypper のインストールや hosts ファイルの編集などを行います。

      これらのライブラリがインストールされていることを確認します。インストールされていないと、Fault Manager はエラーを返すことなく失敗します。

      sudo zypper install glibc-32bit

      sudo zypper install libgcc_s1-32bit

      ##ASCS として同じ準備手順を実行し、zypper のインストールや hosts ファイルの編集などを行います。

      #sybase 用のディスクを作成します。

      注: データ、ログ、バックアップ用に複数のディスクを追加して単一ボリュームを作成している場合、良いパフォーマンスが得られるように適切なストライピング方法を用います。

      vgcreate VG_DATA /dev/sdc /dev/sdd

      lvcreate -l 100%F VG_DATA -n lv_data -i 2 -I 256

      (for log use –l 32 )

      sudo fdisk -l | grep /dev/sd

      sudo fdisk /dev/sdc -> n, p, w

      sudo fdisk /dev/sdd -> n, p, w

      #ディスクは 1 つのみですが、ここで物理ボリューム、論理ボリュームなどを作成すると、追加ディスクをストライピングすることによってパフォーマンスを後からテストすることができます。

      sudo pvcreate /dev/sdc1 /dev/sdc1

      sudo pvcreate /dev/sdc1 /dev/sdd1

      sudo pvscan

      sudo vgcreate syb_data_vg /dev/sdc1

      sudo vgcreate syb_log_vg /dev/sdd1

      sudo lvcreate -i1 -l 100%FREE -n syb_data_lvsyb_data_vg

      sudo lvcreate -i1 -l 100%FREE -n syb_log_lvsyb_log_vg

      sudo mkfs. xfs -f /dev/syb_data_vg/syb_data_lv

      sudo mkfs. xfs -f/dev/syb_log_vg/syb_log_lv

      sudo mkdir -p /sybase/source

      sudo mkdir -p /log

      sudo mkdir -p /sapmnt

      sudo blkid | grep log

      sudo blkid | grep data

      edit /etc/fstab and add the entries for the created disks.

      オプション 1:

      作成したボリューム グループと論理ボリュームの内容に基づいて指定します。

      例: /dev/mapper/

      適切なデバイスを参照します。

      例: syb_data_vg-syb_data_lv

      /etc/fstab にエントリを追加します。

      sudo vi /etc/fstab

      次の行を追加します。

      /dev/mapper/syb_data_vg-syb_data_lv /hana/data xfs defaults,nofail 1 2

      オプション 2:

      #sudo su - を実行してルート ユーザーに切り替え、GUID の置き換えを実行します。この操作は sudo コマンドでは実行できません。ルートである必要があります。

      sudo su –

      echo “/dev/disk/by-uuid/799603d6-20c0-47af-80c9-75c72a573829 /sybase xfsdefaults,nofail02”>> /etc/fstab

      echo “/dev/disk/by-uuid/2bb3f00c-c295-4417-b258-8de43a844e23 /log xfsdefaults,nofail02”>> /etc/fstab

      exit

      sudo mount -a

      sudo df -h

      sudo mount -a

      sudo df -h

      注: 自動マウントが有効な場合、フォルダーが df –h コマンドでアクセスされているときにのみマウント ポイントを確認することができます。

      ##ソース ファイルのディレクトリを作成します。

      sudo mkdir -p /sybase/source

      ##ソース ファイルをコピーします。

      sudo chmod 777 /sybase/source -R

      ##/sapmnt に自動マウントを設定します。

      ### – 従来の方法の sudo mount -t nfs4 -o rw sybapp1:/sapmnt /sapmnt ではなく、自動マウントを使用します。

      sudo mkdir /sapmnt

      sudo vi /etc/auto.master

      #次の行をファイルに追加し、保存して終了します。

      +auto.master

      /- /etc/auto.direct

      sudo vi /etc/auto.direct

      #次の行をファイルに追加し、保存して終了します。

      /sapmnt -nfsvers=4,nosymlink,sync sybapp1:/sapmnt

      sudo systemctl enable autofs

      sudo service autofs restart

      sudo /sybase/source/swpm/sapinst SAPINST_REMOTE_ACCESS_USER=<os-user>

      autofs を停止し、/sapmnt のマウントを解除します。sapinst は存続させます。

      /sapmnt はこの後すぐにマウントする必要があります。

      ##DR ノードに DMA をインストールします。

      ##Sybase の <sid> としてログインします。ここでは、<sid> は「ase」です。
      source/ASE1633/BD_SYBASE_ASE_16.0.03.03_RDBMS_for_BS_/SYBASE_LINUX_X86_64/setup. bin -f /sybase/sybdb3_dma. rs -i silent

      isql-Usapsso -PSAPHana12345 -SASE -X

      sp_locklogin sa, unlock

      go

      sybdb3 /sybase% uname -a

      Linux sybdb3 4.4.120-9270-default #1 SMP Wed Mar 14 15:59:43 UTC 2018 (52a83de) x86_64 x86_64 x86_64 GNU/Linux

      sybdb3 /sybase% whoami

      sybase

      ##Sybase のドキュメントに基づいて応答ファイルを編集した後、setuphadr を実行します (サンプルの応答ファイルはこの記事で提供しています)。

      sybdb3 /sybase% setuphadr /sybase/sybdb3_setup_hadr.rs

      Always-On のテストと便利なコマンドの構文

      以下のセクションでは、計画的および計画外のフェールオーバーや監視コマンドについて説明しています。

      Sybase のドキュメントや次の SAP Note を確認することをお勧めします。

      1982469 – SYB: Updating SAP ASE with saphostctrl

      1959660 – SYB: Database Fault Management

      2179305 – SYB: Usage of saphostctrl for SAP ASE and SAP Replication Server

      ##Fault Manager が SAP PAS で実行されているかどうかを次のコマンドで確認します。

      ps -ef | grep sybdbfm
      executable in /usr/sap/<SID>/ASCS00/work

      sybdbfm is copied to sybdbfm. sap<SID>_ASCS00

      cd /usr/sap/<SID>/ASCS00/work

      ./sybdbfm. sapASE_ASCS00 status

      ./sybdbfm. sapASE_ASCS00 hibernate

      ./sybdbfm. sapASE_ASCS00 resume

      login as syb<sid> in this case sybase

      ##RMA にログインします。

      isql -UDR_admin -P<<パスワード>> -SASE_RMA_Site1 -I DM/interfaces -X -w999

      ##すべてのコンポーネントが実行されていることを確認するには、次のコマンドを実行します。

      sap_version all

      go

      ##レプリケーション パスの状態を確認するには、次のコマンドを実行します。

      sap_status path

      go

      ##リソースの状態を確認するには、次のコマンドを実行します。

      sap_status resource

      go

      ##ASE にログインします。

      構文の「-I DM/interfaces」によって、Sybase Always-On の構成データベース内からホストと TCP ポートを検索します。
      isql -UDR_admin -P<<パスワード>> -SASE_Site1 -I DM/interfaces -X-w999

      ##トランザクション ログを削除するには、次のコマンドを実行します。

      dump tran ASE with truncate_only

      go

      ##DB 内の空き領域を表示するには、次のコマンドを実行します。

      sp_helpdb ASE

      go

      ##すべてのレプリカでトランザクション ログ バックアップを行う必要があります。行わない場合、トランザクション ログが満杯になります。

      ##Sybase DB (および、RMA などの Always-On に必要なすべてのコンポーネント) の起動、停止、情報取得を行うには、次のコマンドを DB ホストで実行します。

      sudo /usr/sap/hostctrl/exe/saphostctrl -user sapadm -function StartDatabase -dbname ASE -dbtype syb

      sudo /usr/sap/hostctrl/exe/saphostctrl -user sapadm -function StartDatabase -dbname ASE_REP -dbtype syb

      ##Sybase DB の状態を取得するには、次のコマンドを実行します。

      sudo /usr/sap/hostctrl/exe/saphostctrl -user sapadm -function GetDatabaseStatus -dbname ASE -dbtype syb

      ##Sybase DB レプリケーションの状態を取得するには、次のコマンドを実行します。

      sudo /usr/sap/hostctrl/exe/saphostctrl -user sapadm -function LiveDatabaseUpdate -dbname ASE -dbtype syb -updatemethod Check -updateoption TASK=REPLICATION_STATUS

      ##トレース チケットを送信するには、RMA にログインして次のコマンドを実行します。

      sap_send_trace Site1

      go

      sap_status active

      go

      ##HADR のテスト中に、/usr/sap/<SID>/ASCS00/work のファイルで実行している tail を監視します。

      tail -100f dev_sybdbfm

      ##DB エンジンのシャットダウンを強制的に実行するには、次のコマンドを実行します。Always-On は DB の通常のシャットダウンを停止させるよう試みます。

      shutdown with wait nowait_hadr

      go

      ##プライマリ DB からコンパニオン DB への計画的フェールオーバーを実行するときの通常の手順は次のとおりです。

      1. プライマリからコンパニオンにフェールオーバー
      2. プライマリから DR サイトにログを送信
      3. レプリケーション ルートを反転して、新しいプライマリからコンパニオンと DR への同期を開始

      — 上記の手順をすべて自動的に実行する新しいコマンドは以下です。
      /usr/sap/hostctrl/exe/saphostctrl -user sapadm – -function LiveDatabaseUpdate -dbname ASE -dbtype syb -updatemethod Execute -updateoption TASK=FAILOVER -updateoption FAILOVER_FORCE=1 -updateoption FAILOVER_TIME=300

      ##このコマンドを使用することをお勧めします。エラーがある場合は、/usr/sap/hostctrl/work というパスのログ ファイルを確認します。

      ##その他の便利なコマンドを以下に紹介します。

      ##サイトからすべてのルートへのレプリケーションを無効化、有効化するには、次のコマンドを実行します。

      sap_disable_replication Site1, <DB>

      sap_enable_replication Site1,Site2,<DB>

      ##手動でフェールオーバーするには、次のコマンドを実行します。

      sap_failover <プライマリ>,<スタンバイ>,<タイムアウト>, [force], [unplanned]

      ##マテリアライゼーションとは、Sybase Always-On のレプリカを再初期化するための「ダンプとロード」です。

      sap_materialize auto,Site1,Site2,master

      sap_materialize auto,Site1,Site2,<SID>

      Sybase のヘルプとリンク

      SQL Server AlwaysOn を使い慣れているお客様は、バックアップに関して注意する必要があります。DB またはログのバックアップをレプリカから取得することはできますが、これらのバックアップは、プライマリ データベースとレプリカ データベース間での互換性がありません。また、SQL Server とは異なり、レプリカ ノードでトランザクション ログ バックアップを実行する必要があります。

      以下の SAP Note を参照してください。

      2134316 – Can SAP ASE run in a cloud environment? – SAP ASE

      1554717 – SYB: Planning information for SAP on ASE

      1706801 – SYB: SAP ASE released for virtual systems

      1590719 – SYB: Updates for SAP Adaptive Server Enterprise (SAP ASE)

      1959660 – SYB: Database Fault Management

      2450148 – ‘Warning: stopService() only supported on windows’ message happened during HADR configuration -SAP ASE

      2489781 – SAP ASE 16. 0 SP03 Supported Operating Systems and Versions

      DBA Cockpit doesn’t work by default after installation.

      Setup DBA Cockpit as per:

      2293673 – SYB: DBA Cockpit Correction Collection SAP Basis 7.50

      1605680 – SYB: Troubleshoot the setup of the DBA Cockpit on Sybase ASE

      1245200 – DBA: ICF Service Activation for WebDynpro DBA Cockpit

      SUSE Linux Enterprise Server 12 SP3 リリース ノート: https://www. suse. com/releasenotes/x86_64/SUSE-SLES/12-SP3/ (英語)

      SAP ソフトウェア ダウンロード: https://support.sap.com/ja/my-support/software-downloads.html

      SWPM ダウンロード: https://support.sap.com/ja/tools/software-logistics-tools.html

      Sybase リリース一覧: https://wiki. scn. sap. com/wiki/display/SYBASE/Targeted+ASE+16. 0+Release+Schedule+and+CR+list+Information (英語)

      Sybase 公式ドキュメント: https://help. sap. com/viewer/product/SAP_ASE/16.0.3.3/en-US (英語)

      ご協力くださった Walldorf SAP Sybase 開発部門の Wajeeh Samdani 氏に感謝申し上げます。

      また、アドバイスやこの記事のレビューにご協力くださった Cognizant SAP Cloud Team の皆様に感謝申し上げます。

      サードパーティの Web サイト、SAP、その他ソースのコンテンツは、フェア ユース (英語) に規定された批評、解説、ニュース報道、教育、学問、研究に関するルールに従って複製されています。

       


      Azure の SAP on SQL Server –プロキシ サーバーを使用せずに Backup to URL を実行する方法

      $
      0
      0

      執筆者: Cameron (MSFT SAP Program Manager)

      このポストは、2018 年 6 月 25 日に投稿された SAP on SQL Server on Azure – How to Bypass Proxy Server During Backup to URL の翻訳です。

       

      今回の記事では、Backup to URL を実行するときにオンプレミスもしくは Azure 上のプロキシ サーバーのオーバーロードを回避する方法をお伝えします。一般的な .Net 構成ファイルを作成してプロキシ サーバーを無効化することで、BackupToURL.exe を使用して HTTPS 経由で Azure Blob ストレージと直接通信できるようになります。

      1. SQL Server Backup to URL

      最新リリースの SQL Server では、Azure Blob ストレージへのバックアップをサポートしています。これは、Azure で SAP on SQL を実行している環境で、データベースのフル バックアップやトランザクション ログのバックアップによく利用される便利な手段です。

      SQL Server Backup to URL を実行しているお客様で、特にデータベースで透過的なデータ暗号化 (TDE) を行っている場合は、最新の Service Pack や累積更新プログラムを適用することを強く推奨しています。

      https://blogs.msdn.microsoft.com/saponsqlserver/2017/04/04/more-questions-from-customers-about-sql-server-transparent-data-encryption-tde-azure-key-vault/ (英語)

       

      SAP は、最新の SQL Server の Service Pack と累積更新プログラムをサポートしています。 https://launchpad.support.sap.com/#/notes/62988

      2.プロキシ サーバー構成と Backup to URL

      Backup to URL 機能は、BackupToURL.exe という独立した実行可能ファイルとして実装されています。HTTPS トラフィックの送信中に、このファイルが標準の Windows API を呼び出します。既定では、この API が [コントロール パネル] > [インターネット オプション] > [接続] > [LAN の設定] で設定されている Windows のプロキシ サーバー構成を読み込みます。

      Azure でSAP on SQL Server を利用しているお客さまにとって、プロキシ サーバーに関する主なシナリオは、以下の 2 つです。

      1. Azure から、既存のオンプレミス データ センター内にあるセントラル プロキシ サーバーを使用する。
      2. Azure VM や Azure サービス専用のプロキシ サーバーが Azure 上にセットアップされている。

       
      いずれの場合も、プロキシ サーバーは必須ではなく、使用するとバックアップ パフォーマンスが大幅に低下することもあります。プロキシ サーバーがオンプレミス環境にある場合、HTTPS 経由でプロキシ サーバーを呼び出すと ExpressRoute 回線を往復する通信が発生し、データ コストが増大します。

      最新バージョンの SQL Server は多数の URL への同時バックアップをサポートしているため、トラフィック量が大幅に増加し、プロキシ サーバーや ExpressRoute 回線が飽和することもあります。

      通常、SQL Server Backup to URL がバックアップ先のストレージ アカウントと直接通信できるように、BackupToURL.exe 専用のプロキシ サーバーを無効化しておくことをお勧めします。これにはいくつかの方法がありますが、以下の推奨手順をご紹介します。

      3. SQL Server Backup to URL のプロキシ サーバーを無効化する方法

      BackupToURL.exe で既定のプロキシ サーバーを使用しないようにするには、以下のパスにファイルを作成します。

      C:Program FilesMicrosoft SQL ServerMSSQL13.<InstanceName>MSSQLBinn

       

      SQL Server の特定のバージョンとインスタンス名用のディレクトリにある BackupToURL.exe と同じディレクトリに構成ファイルを配置する必要があります。

      ファイル名は以下を使用します。

      BackuptoURL.exe.config

      ファイルの内容は以下のとおりです。

      <?xml version =”1.0″?>

      <configuration>

      <system.net>

      <defaultProxy enabled=”false” useDefaultCredentials=”true”>

      <proxy usesystemdefault=”true” />

      </defaultProxy>

      </system.net>

      </configuration>

       

      詳しくは次のドキュメントをご確認ください。 https://docs.microsoft.com/ja-jp/sql/relational-databases/backup-restore/sql-server-backup-to-url-best-practices-and-troubleshooting?view=sql-server-2017

       

      TDE 用に Azure Key Vault の読み込みや書き込みを行うなど、構成内容によっては SQL Server の実行可能ファイルが有効なプロキシ サーバーを必要とする場合もあります。そのため、コントロール パネルからプロキシ サーバーを完全に無効にする際は注意してください。

      このほかに、UDR を構成してルーティングを制御する方法や、SQL VM 上の VNET の BLOB ストレージ アカウント用のプライベートなローカル エンドポイントを作成する方法もあります。IP アドレスが VM に対してローカルであれば、プロキシ サーバーが使用されることはありません。

       

      追加情報

      以下の記事の「6」の項目で Backup to URL のチューニングについて説明しています。 https://blogs.technet.microsoft.com/jpitpro/2017/12/13/sap-on-sql-general-update-for-customers-partners-march-2017/

      https://docs.microsoft.com/ja-jp/sql/relational-databases/backup-restore/sql-server-backup-to-url?view=sql-server-2017

      https://docs.microsoft.com/ja-jp/sql/t-sql/statements/backup-transact-sql?view=sql-server-2017

      https://docs.microsoft.com/ja-jp/sql/relational-databases/backup-restore/deleting-backup-blob-files-with-active-leases?view=sql-server-2017

      Azure Blob ストレージへのマネージド バックアップについては、こちらの記事をご覧ください。 https://docs.microsoft.com/ja-jp/sql/relational-databases/backup-restore/sql-server-managed-backup-to-microsoft-azure?view=sql-server-2017

       

      Mit Sicherheit Cloud!

      $
      0
      0

      Logbucheintrag 180706:

      Zwei Drittel der deutschen Unternehmen nutzen die Cloud. Der Grund: Sie suchen mehr Cybersicherheit und Systemverfügbarkeit als sie zu wirtschaftlichen Bedingungen von den eigenen IT-Abteilungen erwarten können. Das ergab eine Studie von Bitkom Research und KPMG unter deutschen Anwendern. Demnach ist Cloud Computing nicht mehr vor allem ein Modell, um Kostenm zu sparen und die eigene Flexibilität zu steigern. Vielmehr sehen die Anwenderunternehmen inzwischen ein, dass Cloud-Lösungen in der Regel sicherer sind als die eigenen On-Premises-Rechenzentren. Und tatsächlich helfen gerade die Skaleneffekte bei großen Cloud-Plattformen wie Azure dabei, die enormen Aufwände in Security und Verfügbarkeit auf viele zu verteilen und damit günstiger zu gestalten.
      Dabei zeigt der aktuelle Cloud Monitor 2018 von Bitkom und KPMG, dass vor allem Großunternehmen, die eigentlich selbst über weltumspannende IT-Netzwerke verfügen, mit aller Konsequenz auf hybride Lösungen, also einem Mix aus eigenem Rechenzentrum um Public Cloud, setzen. Ein Grund dafür sind die unterschiedlichen Datenschutzbestimmungen, die in Deutschland als besonders herausfordernd gelten, aber auch in den USA oder Fernost permanent angepasst werden. Da ist es vielfach vernünftiger, das Management großer Cloud-Infrastrukturen globalen Anbietern wie Microsoft zu übertragen. Inzwischen sind acht von zehn Konzernen in der Cloud, viele davon setzen bereits auf die Azure-Plattform.
      In Unternehmen mit 100 bis 1.999 Mitarbeitern liegt die Cloud-Nutzung bei 65 Prozent, ähnlich hoch wie bei kleineren Unternehmen mit 20 bis 99 Mitarbeitern (66 Prozent). Im Jahr 2017 nutzten zwei Drittel aller Unternehmen (66 Prozent) Rechenleistungen aus der Cloud. Im Vergleich zum Vorjahr wuchs der Anteil der Nutzer auf dem erreichten hohen Niveau damit sehr leicht (2016: 65 Prozent). Und der Boom geht weiter: Jedes fünfte Unternehmen plant oder diskutiert den Cloud-Einsatz und will noch dieses Jahr mit einem konkreten Projekt beginnen.
      97 Prozent der von Bitkom und KPMG befragten Unternehmen sehen denn auch in der Konformität zur Datenschutz-Grundverordnung ein wesentliches Qualitätsmerkmal für Cloud-Angebote. Die DSGVO als „Must have“! Aber auch umgekehrt wird ein Schuh draus: Viele Unternehmen sehen sich mit der Umsetzung der DSGVO in der firmeneigenen IT-Infrastruktur überfordert und geben diese Compliance-Verantwortung lieber an Dritte ab – zum Beispiel an Microsoft. Tatsächlich haben wir in nicht nur in Deutschland das stärkste Cloud-Wachstum im gesamten Konzern zu verzeichnen. Die weltweiten Azure-Umsätze wachsen auch im Konzernvergleich schneller als alle anderen Sparten.
      Dabei wirkt sich sicherlich positiv aus, dass wir schon vor drei Jahren mit der „Deutschen Cloud“ Standards gesetzt haben, der in puncto Sicherheit und Vertraulichkeit bis zur Einführung der DSGVO nichts Ebenbürtiges gegenüberstand. Dank der treuhänderischen Verwaltung durch die Deutsche Telekom konnten Anwender sicher sein, dass Daten vor dem Zugriff Dritter sicher sind – selbst dann, wenn beispielsweise in den USA ein Gerichtsbeschluss die Herausgabe von Informationen zu Ermittlungszwecken gefordert hätte. Ich bin sicher, dass Microsoft und Deutsche Telekom gemeinsam das Sicherheitsbewusstsein in Deutschland geschärft und gleichzeitig das Vertrauen in Cloud-Infrastrukturen gestärkt haben.

      インターネットベースのクライアント管理 (IBCM) のセットアップに関する注意事項につきまして

      $
      0
      0

      みなさま、こんにちは。System Center Configuration Manager サポート チーム の日下です。

       

      本記事では、System Center Configuration Manager Current Branch (以降、SCCM CB)を利用し、インターネット ベースのクライアント管理 (Internet-Based Client Management: IBCM) 環境を構成する上で、お問い合わせの多い、証明書の取り扱いに関する注意事項をご紹介いたします。

       

      目次:

      (1) IBCM の概要・仕組み

      (2) サーバー証明書のサブジェクト名について

      (3) ccmsetup.exe で付与するオプション

      (4) サイトサーバーのプロパティ設定の変更

       

      ------------------------------------------------------------

      (1) IBCM の概要・仕組み

      ------------------------------------------------------------

      IBCM では、企業ネットワークに接続されておらず、標準的なインターネットに接続されている SCCM クライアントを管理できます。

      公衆ネットワーク上のクライアント コンピューターの管理には、高いセキュリティが求められるので、インターネット ベースのクライアント管理では、クライアントとその接続先サイト システム サーバーで PKI 証明書を使用する必要があります。

       

      当環境では、VPN 接続は不要であるため、インターネット接続のみでインベントリ収集や更新プログラムの配信などを行いたいシナリオでご利用いただけます。

      詳細は以下 URL に記載がございますのでご参照ください。

       

      System Center Configuration Manager でインターネット ベースのクライアント管理を計画する

      https://docs.microsoft.com/ja-jp/sccm/core/clients/manage/plan-internet-based-client-management

       

       

      ------------------------------------------------------------

      (2) サーバー証明書のサブジェクト名について

      ------------------------------------------------------------

      サーバ―証明書のサブジェクト名については、IBCM サーバーの場合、インターネット経由の接続のほか、イントラネット経由の接続も受け付ける場合には、2 つのサブジェクト名が必要となります。

      シナリオとしては、イントラネット接続でセットアップを行い、インターネット接続に切り替えた場合に利用するシナリオが考えられますので、IBCM サーバーのサーバー証明書では、2 つのサブジェクト名を含めるよう考慮することが一般的です。

      証明書の発行方法については、以下 URL に記載がございますのでご参照ください。

       

      なお、証明書の発行を外部公的証明機関に委託する場合には、サブジェクト名が 2 つ入れることが可能であるか必ずご確認下さい。

      サービス プランによっては、複数のサブジェクト名の登録ができず、SCCM の証明書に必要な要件を実現できない場合がございます。

       

      System Center Configuration Manager PKI 証明書の展開手順の例: Windows Server 2008 証明機関

      https://docs.microsoft.com/ja-jp/sccm/core/plan-design/network/example-deployment-of-pki-certificates

      -------------------

      サイト システムがイントラネット経由のクライアント接続のみを許可する場合は、サイト システム サーバーのイントラネット FQDN は server1.internal.contoso.com になります。「server1.internal.contoso.com」と入力し、[追加] を選択します。

      サイト システムがイントラネットからとインターネットからのクライアント接続を許可する場合は、 サイト システム サーバーのイントラネット FQDN は server1.internal.contoso.com で、サイト システム サーバーのインターネット FQDN は server.contoso.comとなります。

       

      「server1.internal.contoso.com」と入力し、[追加] を選択します。

      「server.contoso.com」と入力し、[追加] を選択します。

      -------------------

       

      ------------------------------------------------------------

      (3) ccmsetup.exe で付与するオプション

      ------------------------------------------------------------

      IBCM 環境では、インターネット上で名前解決をするための、インターネット FQDN を取得する必要がございます。

      こちらはドメイン取得サービスから取得したインターネットに公開する FQDN を、インターネットに公開する SCCM のサイトシステムのインターネット FQDN として登録します。

      また、SCCM エージェントのセットアップ時に、CCMHOSTNAME オプションにインターネット FQDN を指定します。

       

      お問い合わせが多いシナリオとしては、ccmsetup.exe 実行時にオプションが不足していることによって、SCCM エージェントの登録に失敗するといったことがございます。

      そのため、SCCM クライアントをセットアップする際の注意事項についてコマンド オプションの例と共にご紹介いたします。

       

      // 前提

      ドメイン名:contoso.local

      IBCM サーバーのイントラネット FQDN :IBCM-Intra.contoso.local

      IBCM サーバーのインターネット FQDN:IBCM-Internet.public.com

      サイトコード:P01

       

      // コマンド例

      ccmsetup.exe /UsePKICert /NoCRLCheck SMSSITECODE=P01 SMSMP=https://IBCM-Intra.contoso.local CCMHOSTNAME=IBCM-Internet.public.com

       

      -詳細

      オプションを列挙しますと、以下の通りです。

      ccmsetup.exe

      /UsePKICert

      /NoCRLCheck

      SMSSITECODE=P01

      SMSMP=https://IBCM-Intra.contoso.local >>> イントラネット FQDN を指定します

      CCMHOSTNAME=IBCM-Internet.public.com >>> インターネット FQDN を指定します。

       

      このシナリオにおいては、イントラネット環境でも https を利用する想定であるため、SMSMP https:// を付与することがポイントです。

      なお、http 構成である場合には、http:// は不要です。

       

      // 注意 インターネット管理ポイントを設定している場合は、インストール時に CCMHOSTNAMEオプションを指定しない場合も、イントラネットのドメインや、管理ポイントから、情報を受け取けとった場合に、インターネット管理ポイントの情報が入ります。

      クライアントからインターネット管理ポイントの情報を削除したとしても、上記タイミングにて再設定されるため、インターネット管理ポイントを構成している限りクライアントからその情報を恒久的に削除いただくことはできません。

       

      ------------------------------------------------------------

      (4) サイトサーバーのプロパティ設定の変更

      ------------------------------------------------------------

      (1) (3) の設定が問題ないにも関わらず、インターネット クライアントを管理できない (インベントリが報告されない、など) シナリオもございます。

      その場合、以下のチェック ボックスの状態をご確認ください。この設定は、既定でオンになっていますので、オフにします。

      1. ConfigMgr コンソール画面で、[管理] ワークスペースをクリックし、左ペインの [サイトの構成] – [サイト] をクリックして、プライマリ サイトを右クリックし、[プロパティ] をクリックします。

      2. [クライアント コンピューターの通信方法] タブをクリックし、[サイト システムの証明書失効リスト (CRL) をチェックする] のチェックを外して、[OK] をクリックします。

      これは、インターネット環境にいるクライアントがIBCM 管理ポイントと通信して、ドメイン環境のエンタープライズ CA から発行されたサーバー証明書を受け取った際、証明書失効リスト (CRL) のチェックが行えず、SSL 接続に失敗することがあるためです。この場合、インターネット環境であることによって、証明書の失効確認ができず、SSL 接続に失敗します。(既定で Ldap パスの CRL が証明書に記載されているため、ドメイン利用前提の Ldap パスへの疎通に失敗する結果となります。)

       

      また、イントラネット環境であっても、ワークグループ クライアントのセットアップの場合には、SCCM クライアントエージェントのインストール時に、Ldap パスの CRL にアクセスできないためセットアップに失敗します。

      そのため、上記チェックをオフにして、CRL のチェックをしないようにすることで、管理ができるようになります。

       

      補足)

      この項目にチェックを入れてよい場合のシナリオについては、CRL を HTTP パスで外部公開しているか、エンタープライズ CA にて外部公開可能な HTTP パスの CRL を公開してる場合のみです。

      この場合には、クライアントが IBCM サーバーから受け取ったサーバー証明書の HTTP パスの CRL チェックが成功します。

      当設定は、このような追加要件がある場合にのみチェックを付ける項目となりますので、ご留意ください。

       

      参考)

      SCCM(CB)_評価ガイド_環境構築編

      -10.3.4        証明書失効リストによるチェックの無効化

      http://download.microsoft.com/download/F/0/D/F0D20D4C-B594-4341-924C-55DFF50FED88/SCCM_CB_EvalGuide_jp.docx

       

      System Center Configuration Manager の Technical Preview 1606 の機能

      https://docs.microsoft.com/ja-jp/sccm/core/get-started/capabilities-in-technical-preview-1606

      -------------------

      -クライアント証明書の認証用にプライマリ サイトを構成する

      -------------------

       

      - 免責事項

      このドキュメントは現状有姿で提供され、 このドキュメントに記載されている情報や見解 (URL 等のインターネット Web サイトに関する情報を含む) は、将来予告なしに変更されることがあります。 お客様は、その使用に関するリスクを負うものとします。

      SCOM 1801 Install Linux Agent

      $
      0
      0

      Supported platforms

      1. IBM AIX 6.1
      2. IBM AIX 7 (Power)
      3. HP-UX 11i v3 IA64
      4. Red Hat Enterprise Linux Server 5
      5. Red Hat Enterprise Linux Server 6
      6. Red Hat Enterprise Linux Server 7
      7. Red Hat Enterprise Linux Server 7 (Power)
      8. Solaris 10 SPARC
      9. Solaris 10 x86
      10. Solaris 11 SPARC
      11. Solaris 11 x86
      12. Solaris UTF-8 Support
      13. SUSE Linux Enterprise Server 10
      14. SUSE Linux Enterprise Server 11
      15. SUSE Linux Enterprise Server 12
      16. Universal Linux (Debian package)Debian, Ubuntu Server
      17. Universal Linux (RPM package)CentOS, Oracle Linux

      https://docs.microsoft.com/en-us/system-center/scom/plan-supported-crossplat-os?view=sc-om-1801

       

      ============================================================================================================

       

      Install agents through Discovery Wizard (recommended)

       

          1. Import the latest Linux Management pack.
          2. Administration pane à Device Management à UNIX/Linux Computers à Right Click à Choose Discovery Wizard.
          3. Choose UNIX/Linux Computers à Next
          4. Add Discovery Criteria à Enter the IP of the Linux Server under Discover Scope and the SSH Port; Discovery Type à All Computers; Credentials à either choose the configured Runa's credentials or click “Set Credentials” and set the credentials (both User name and password or SSH key) à Click Ok; Save the Discovery Criteria.
          5. Select target resource pool à click Discover
          6. Select the Linux Server that was discovered under “Manageable computers” à Click Manage.

       

      Install agents manually

       

      - Install the Linux agent through command line -

      • To install the Red Hat Enterprise package, type: sh ./omsagent-<version>.rhel.<version>.<arch>.sh --install --enable-OpsMgr

      - Certificate Signing – sign agent certificates and copy the signed certificates to the Linux servers -

      • If there are existing certificates on the system, they are reused during agent installation. New certificates are not created. Certificates are not automatically deleted when you uninstall an agent. You must manually delete the certificates that are listed in the folder /etc/opt/microsoft/scx/ssl for UNIX and /etc/opt/microsoft/omsagent/scom/certs folder for Linux. To regenerate the certificates at install, you must remove this folder before agent installation.
      • On the computer that is running the UNIX or Linux operating system, locate the file /etc/opt/microsoft/scx/ssl/scx-host-<hostname>.pem and securely copy or transfer it to any location on the computer that is hosting Operations Manager.
      • On the computer that is hosting Operations Manager, on the Windows desktop, click Start, and then click Run.
      • In the Run dialog box, type cmd, and then press Enter.
      • Change directories to the location where you copied the pem file.
      • Type the command scxcertconfig -sign scx-host-<hostname>.pem scx_new.pem, and then press Enter. This command will self-sign your certificate (scx-host-<hostname>.pem) and then save the new certificate (scx-host-<hostname>_new.pem). Securely copy or transfer the scx_new.pem file into the /etc/opt/microsoft/scx/ssl folder on the computer that is hosting the UNIX or Linux operating system. This replaces the original scx-host-<hostname>.pem file.
      • Restart the agent by typing scxadmin –restart.

       

      - Discover the Linux servers through Discovery Wizard.

       

      Link - https://docs.microsoft.com/en-us/system-center/scom/manage-install-crossplat-agent-cmdline?view=sc-om-1801

       

      ==========================================================================================================

       

      Known Issues:

      -- -- -- -- -- -- -- -- -- -- -- --

      Issue:

      You trying to add servers to SCOM. Servers get successfully discovered in SCOM but when I try to sign the certificate using "manage" I get the following error : Certificate signing operation was not successful

       

      Resolution:

      Most likely the system name for the Linux system "mydevlinuxbox.com" does not match what is in your DNS. SCOM will lookup the name in DNS and see if it matches the name that was generated in the  certificate of the agent. If they do not match you will see the error you posted.

      On the agent run:

      openssl x509 -in /etc/opt/Microsoft/scx/ssl/scx.pem -text

      Look at the CN name returned and see if it matches what a nslookup returns for the system from the SCOM server. If it does not then this is your problem. You can either fix the DNS entry or if you want to rename the name in the certificate to match what is in DNS run the following command on the agent.

      /opt/Microsoft/scx/bin/tools/scxsslconfig -h <hostname> -d <domain name> -f -v

      Where <hostname> and <domain name> are the DNS versions.

      Once complete re-run the discovery wizard in SCOM and see if it can now manage the agent.

      -- -- -- -- -- -- -- -- -- -- -- --

      Issue:

      Discovery was not successful, Message: platform not supported

       

      Resolution:

      Remove the existing Linux MPs and reinstall the latest ones from the download site and see if that helps.

      -- -- -- -- -- -- -- -- -- -- -- --

      Issue:

      Upgrade to 1801 - some RHEL servers updated to version 7.2 over the weekend, and all the agents grayed out. When they attempted to re-run discovery, this error occurred:

      Unexpected DiscoveryResult.ErrorData type.  Please file bug report.

       

      Resolution:

      them remove the agent from the console and uninstalled manually – then the discovery was successful

      -- -- -- -- -- -- -- -- -- -- -- --

      Issue:

      Downloaded Kit folder [%ProgramFiles%Microsoft System CenterOperations ManagerServerAgentManagementUnixAgentsDownloadedKits] is not available though we have installed UNIXLINUX Management Package

       

      Resolution:

      Open Issue

      SCCM から配信しているコンテンツのダウンロードが開始されない

      $
      0
      0

      こんにちは。System Center サポートチームです。

      本ポストでは、SCCM から配信しているコンテンツのダウンロードが開始されないときのお役立ち情報をご紹介いたします。

       

      SCCM クライアントの CCMCACHEフォルダ内にダウンロード用のフォルダは作成されるのに、その中にファイルがいっこうにダウンロードされてこないというお問い合わせをよくいただきます。

       

      ご利用環境で同様の問題が発生し原因の見当がつかない場合は、まずは SCCM クライアントの ContentTransferManager.log "suspend" という記録があるか確認してみてください。

       

      >>ログの所在:
      %windir%CCMLogs フォルダー

      ContentTransferManager.log

      ----------------------------------------

      CCTMJob::UpdateLocations - Received empty location update for CTM Job {320853F3-42B3-4D1C-9518-C1C7DA291B78}     201x/12/06 18:18:08  9020 (0x233C)

      CTM job {320853F3-42B3-4D1C-9518-C1C7DA291B78} suspended       201x/12/06 18:18:08  9020 (0x233C)

      ----------------------------------------

       

      suspended が記録されている場合は、(1) 境界、または境界グループの設定が不足しており、管理ポイントから利用可能な配布ポイントの情報を取得できない問題か、(2) 配布ポイントにコンテンツファイルがなくダウンロードできない問題に該当している可能性が非常に高いです。その場合は次の 2 つの確認を実施し、問題が解消するか確認してみてください。

       

      --------------------------------------------------------------------------------

      (1) 境界と境界グループの確認

      --------------------------------------------------------------------------------

       

      SCCM クライアントが配布ポイントからコンテンツをダウンロードできるためには、予め対象のクライアントの IP アドレスが境界に含まれており、その境界を含む境界グループで利用可能な配布ポイントが紐づけられている必要があります。この設定が正しくされているかを次の方法で確認します。

      1). ipconfig /all コマンドで問題の端末の IP アドレスとサブネット マスクを確認します。
      2). SCCM コンソールを起動して [管理] - [階層の構成] - [境界グループ] を開きます。
      3). 複数の境界グループが存在する場合は、すべての境界グループを右クリックしてプロパティを開き、次の確認をします。

       

      3)-①

      [参照] タブに配布ポイントが登録されていることを確認します。

      3)-②

      [全般] タブに登録されている境界を確認します。

      3)-②の境界に含まれるネットワーク ロケーションのクライアントがアクセスできる配布ポイントが 3)-① となります。

       

       

      4). 正常に動作していないクライアントの IP アドレス、サブネット マスク、AD サイトを確認し、どれか 1 つでも、上記境界に含まれているか確認します。含まれていない場合は、次の手順で境界を作成して、ダウンロードさせたい配布ポイントが含まれる境界グループに登録してください。

       

      4)-①. [管理] - [階層の構成] - [境界] を右クリックして [境界の作成] をクリックします。

      4)-②. 正常に動作していないクライアントの IP アドレスを含むように境界を作成します。(IP アドレスの範囲か IP サブネットで登録することになるかと存じます。)

      4)-③. [管理] - [階層の構成] - [境界グループ] でダウンロードさせたい配布ポイントを含む境界グループを右クリックしてプロパティを開きます。

      4)-④. [全般] タブで [追加] をクリックして、作成した境界を追加し、[OK] をクリックします。

       

      その後ダウンロードが進むか確認します。

       

      <ご参考>

      System Center Configuration Manager の境界としてネットワークの場所を定義する

      https://docs.microsoft.com/ja-jp/sccm/core/servers/deploy/configure/boundaries

       

      System Center Configuration Manager の境界グループを構成する

      https://docs.microsoft.com/ja-jp/sccm/core/servers/deploy/configure/boundary-groups

       

       

      --------------------------------------------------------------------------------

      (2) 配布ポイントのファイル確認 (展開パッケージのコンテンツ ステータス)

      --------------------------------------------------------------------------------

      1). [監視] [概要] [配布ステータス] - [コンテンツのステータス] を開きます。

      2). パッケージの中から、展開対象とするコンテンツが含まれるパッケージをクリックして、右ペイン下部の配布ポイントのステータスを確認します。

      緑の円グラフになってなかった場合は、配布ポイントへのコピーが失敗しています。

      その場合は該当の展開パッケージを右クリックして [配布ポイントの更新] をクリックしてください。

      その後ダウンロードが進むか確認します。

       

       

      - 免責事項

      このドキュメントは現状有姿で提供され、 このドキュメントに記載されている情報や見解 (URL 等のインターネット Web サイトに関する情報を含む) は、将来予告なしに変更されることがあります。 お客様は、その使用に関するリスクを負うものとします。

      Security and Windows session recommendations for Microsoft Inspire

      $
      0
      0

      I hope everyone is excited about Microsoft Inspire 2018. We are just over a week away from the event, and if you’re like me, you’re now finalizing your schedule by choosing the sessions you most want to attend. There are plenty to choose from this year, with a good mix of business development and product information.

      If you’re looking for specific Security and Windows sessions, here are a few recommendations, focusing on product-specific sessions versus business development. There are a lot of great sessions to choose from, and there are excellent choices beyond the seven sessions listed below, but hopefully you will be able to attend several of them while at Inspire.

      WIN11t Build services offerings around modern desktop

      Monday 12:30–12:50

      Description

      Learn how to build service offerings related to modern desktop by utilizing Microsoft 365 product capabilities. We’ll be showcasing how you can utilize services such as Windows Analytics and products such as Windows Defender ATP to create customer solutions.

      Partner Outcome

      How to build project and managed services around modern Windows and Office, Device as a Service, and security infrastructure management.

      SEC113t – Lessons from the field: Discuss real-world deployment challenges and business outcomes

      Monday 1:30–1:50

      Description

      Review real-world customer scenarios and how Microsoft 365 and EMS uniquely serve the customer’s security needs. You’ll hear from an Intune partner and Microsoft MVP, who will share lessons learnt and tips to make your own deployment successful.

      Partner Outcome

      Amplify your mobile security business with application management and conditional access.

      WIN08 – Taking a data-driven approach to application compatibility on Windows 10 and Office 365 ProPlus

      Monday 4:15–5:00

      Description

      Microsoft has a rich collection of data-driven tools (Windows Analytics Upgrade Readiness, Ready for Windows, and more) to catalog your enterprise applications as you test, and determine which ones are compatible with the latest Windows 10 and Office 365 ProPlus builds as your organization adopts the latest semi-annual channel (SAC). These tools can even help you identify which apps are ready for deployment, as well as candidates for modernizing.

      Partner Outcome

      Analytics tools to help you manage your business.

      SEC107 – Integrate threat capabilities to drive E5

      Tuesday 12:30–1:15

      Description

      Interested in leveraging threat capabilities to drive E5? Learn how Microsoft’s multiple layers of threat protection across applications, devices, and identities (including Office, Windows, and Azure) can help protect your customers from advanced cyber threats. With the latest innovations in machine learning, world-class research, and the Microsoft Intelligent Security Graph, discover Microsoft’s unique approach in cyber defense.

      Partner Outcome

      Help protect customers from advanced cyber threats.

      WIN07 – Windows and Microsoft 365 Business: How simplified management = increased security and partner opportunity

      Tuesday 1:45–2:30

      Description

      In this session, we dive into the role of Windows and device management as part of Microsoft 365 Business, addressing common questions and feedback. Learn how a simplified device management of Microsoft 365 Business helps fortify the security of business PCs generating tons of new partner opportunity.

      Partner Outcome

      Specifics on Microsoft 365 Business offerings, what’s included, and options. Follow-up “how-to” theater session referenced.

      SEC110 – Identify digital transformation opportunities to deploy identity-driven mobile security across device platforms

      Wednesday 2:30–3:30

      Description

      Discuss the latest innovations in Intune for app management and full device management across Android, Apple, and Windows devices. Help your customers get immediate value from cloud management by extending current on-premises infrastructure. You’ll learn how EMS and Intune provide the best protection of corporate data in Office 365 apps, SaaS apps, and line-of-business apps.

      Partner Outcome

      Learn the strategies to discuss unified endpoint operations and integrated mobile security with your customers.

      SEC108 – Expand your security practice: Identity, security, and collaboration all at once with Azure Active Directory

      Wednesday 4:00–5:00

      Description

      Identity is one of the first workloads that customers consider when moving to the cloud. Identity is the control plane when it comes to a customer’s digital transformation from a management and security perspective. Come to this session to learn what Azure Active Director—Microsoft’s cloud identity and access management solution—offers, and how you can help customers to enable identity, security, and collaboration all at once!

      Partner Outcome

      Learn how this product enables seamless access to apps across employees, partners, and customers while enhancing security and compliance.

      There’s no end to the incredible sessions you can attend at Microsoft Inspire. Make sure to register today so you can take advantage of all these opportunities, and follow @MSInspireUS and #MSInspire to stay up-to-date on all the news before the event!

      Modern Workplace Technical Community

      Microsoft Teams: Protecting against advanced threats

      $
      0
      0

      How well do you trust your employees? What about your vendors? I'm constantly coming across organizations that are storing intellectual property and other sensitive data in Microsoft Teams, so they can collaborate with that data in a centralized manner. I'm also learning that most of those organizations are enabling guest access, and allowing outside vendors to have access to that data and the resources within the team. A good example of this is an outside marketing agency that you contract with for event marketing, online marketing, etc. What if a guest of that team (or employee), accidently (or intentionally) uploads malware to the team (but masks it as a file called MarketingRoadmap.pptx), and an employee of the organization opens the file? The malware could now spread throughout your environment.

      This is where Office 365 Advanced Threat Protection (ATP) comes in. ATP can help to safeguard your organization from this threat by "detonating" (executing) files uploaded to Microsoft Teams (specifically the SharePoint/Office 365 Group on the back-end) to validate it is a legitimate file and contains no malicious code that can do harm. This feature comes with Microsoft 365 E5, Office 365 E5, or available as an add-on to an existing Office 365 subscription.

      Too Long Don't Read (TLDR):In this blog, I'm going to describe how to enable this feature, perform a test, and show you alerting. For details on how Office 365 Advanced Threat Protection for SharePoint, Microsoft Teams, OneDrive works and it's architecture, see the below diagram – and read the following article: Office 365 ATP for SharePoint, OneDrive, and Microsoft Teams

      Office 365 Advanced Threat Protection Architecture:

      How to enable Office 365 Advanced Threat Protection:

      Note: I will not be discussing Office 365 ATP for Exchange Online.

      To enable, simply browse to the Office 365 Security & Compliance Center (protection.office.com) -> Threat Management -> Policy and click ATP Safe Attachments:

      Once in ATP Safe Attachments, check the box Turn on ATP for SharePoint, OneDrive and Microsoft Teams and click Save:

      IMPORTANT: Review the Safe Attachment policies and configure as appropriate. Consider running Set-SPOTenant to DisallowInfectedFileDownload in PowerShell for the SharePoint tenant
      to ensure the malicious files cannot be downloaded. For more information see Turn on Office 365 ATP for SharePoint, OneDrive, and Microsoft Teams

      User Experience:

      If a malicious file is uploaded, and detected by ATP, the user will be unable to open the file. If the user browses to the Office 365 Group or SharePoint site where the file is stored, and attempts to run from there, they will be presented with the following:

      Setting up an alert:

      As the admin, I want to be notified when this activity occurs. Using Office 365 Alerts I will create an Alert Policy to notify me so I can take action:


      When the alert notification arrives via email, here is an example of what it looks like:

      Clicking Investigate will launch the alert in Office 365 Alerts (notice I can suppress, or notify users):

      Accessing the event via Threat Explorer gives me access to additional details and advanced analysis that could be helpful in my investigation of the threat:

      Conclusion

      Office 365 Advanced Threat Protection is one of the many layers in your defense in depth approach to cyber security, and with it's ease of administration and use, it can be a valuable tool to protect your organization. Enjoy! –Matt Soseman


      Variables, Literals, Procs and Stats

      $
      0
      0

      This post by US PFE Susan Van Eyck goes through considerations when developing stored procedures using local variables and literals, and their effect on the query plan / performance.

       

      I ran across a very interesting blog post by Kendra Little this week about the perils of troubleshooting – or developing – stored procedure using local variables.

      I’ve often done this myself.  You morph the CREATE statement into a DECLARE, plug in some values, then try to figure out why the query is misbehaving.

       

      [sql]--CREATE PROC dbo.DoSomethingUseful

      DECLARE       @parm1 INT = 875,

      @parm2 VARCHAR(10) = 'ABC'

      AS

      BEGIN

      -- Useful bits here

      END

      GO[/sql]

       

      The problem here is that those local variables behave differently than either stored procedure parameters or literal values and you can end up with bad/wrong/misleading query plans because of it.

      To demonstrate, consider these two very similar queries.  Both will return 4 rows.

       

      [sql]SELECT City FROM Person.Address WHERE StateProvinceID = 80;

      DECLARE @StateProvinceID INT = 80;

      SELECT City FROM Person.Address WHERE StateProvinceID = @StateProvinceID;[/sql]

       

      Executing them with the options to Include Actual Query Plan and SET STATISTICS IO ON you find that the first one (using the literal value) has a very efficient query plan (Index Seek + Lookups) requiring only 10 logical reads, but the second (using the variable) is executed using an Index Scan at a cost of 216 logical reads.  [Interestingly we’re scanning a nonclustered index because it happens to covers the query and saves us the higher cost (346 logical reads) of a clustered index scan.]

      clip_image002

       

      The first query is auto-parameterized (note the =@1 in the plan’s SQL text), but that doesn’t account for the difference.  Adding another table to the query to increase up its complexity and prevent auto-parameterization, we get the same results.  Rather, the difference is due to which statistics are being used, which is in turn determined by whether or not we’re using a local variable.  Looking at the Estimated Number of Rows for the two plans they’re very different – 4 and 265.

      image

       

      An Index Seek + Lookups is a good data access strategy when the Seek returns a relatively low number of rows and there’s an index supporting the Lookups.  That’s the case with the first plan with its (very accurate) estimate of 4 rows and Lookups into the Clustered Index.  But the Seek/Lookup pattern doesn’t scale well, and as row counts increase you hit a “tipping point” where it actually is cheaper to Scan the Clustered Index (or another index that covers the query).  That’s what’s happened in the second plan – the estimated cost of 265 Lookups (530 logical reads because the index has a depth of 2) is much higher than that of scanning the covering index (216 logical reads).

      So we have a rational explanation for the differing plans, but how did they come to have such different estimated row counts?

      When evaluating query plans options the Optimizer checked the statistics associated with the index on StateProvinceId.  There are two values in the statistics object that offer guidance on expected row counts.  One is Density – a measure of the uniqueness of any single column value in the context of the entire table.  If you multiply it by the number of rows in the table…

       

      [sql]DBCC SHOW_STATISTICS ('Person.Address', IX_Address_StateProvinceID) WITH DENSITY_VECTOR;[/sql]

      image

       

      [sql]SELECT 0.01351351 * COUNT(*) FROM person.Address; /* 265.05398514 */[/sql]

      …you get 265!  Here’s another way to arrive at 265 that might make it clearer what that value represents:

       

      [sql]SELECT COUNT( * ) / COUNT( DISTINCT StateProvinceID ) FROM Person.Address; /* 265 */[/sql]

      This is the value that’s used when your code includes a local variable.  Its degree of accuracy will depend on how evenly data is distributed across a column’s values.  In our case, an average value of 265 rows per column value is not a very representative value.  We can see that by examining the other useful value(s) in the table – the Histogram:

       

      [sql]DBCC SHOW_STATISTICS ('Person.Address', IX_Address_StateProvinceID) WITH HISTOGRAM;[/sql]

      image

       

      Looking at values in the EQ_ROWS column in this excerpt, you can see that none of them is anywhere near 265!  But that value in the row for a RANGE_HI_KEY of 80 is spot on at 4.  These are much more granular, accurate stats, and these numbers are used when your code uses literal values or stored procedure parameters.

      So the bottom line is don’t test your stored procedure code using local variables – and do read Kendra’s interesting post.

      One more thing not to do – don’t assign new values to your stored procedure parameters within the code – like I’m doing here:

       

      [sql]CREATE OR ALTER PROCEDURE dbo.GetCities

      @StateProvinceID INT

      AS

      SET @StateProvinceID += 1;

      SELECT City FROM Person.Address WHERE StateProvinceID = @StateProvinceID;

      GO

      EXEC dbo.GetCities @StateProvinceID = 79;

      GO[/sql]

       

      The query plan to execute the stored proc performs an Index Scan, but for an entirely different reason than in our local variable example.  The estimated row count for the EXEC statement is 2636 rows.  Now look back at the stats histogram values for a value of 79 – it’s also 2636 rows.  The query plan is based on the parameter values the proc is called with, so although we’re ultimately executing the query with a search value of 80, the plan is based on a value of 79.  The recommended fix is to assign the new value to a local variable declared within the stored proc – but beware – that takes us back to the original problem!

       

      Happy Exploring,

      Azure の情報を的確に見つけるならこちら!『Azure サイトの歩き方』サイト紹介【7/7 更新】

      $
      0
      0

      300 点以上の資料が見つかるまとめサイト!

      Azure についての情報がどこにあるかわからない、欲しい情報が見つからない、他社と比べて分かりにくい、そんな風に感じたことがある貴方、今日から「Azure サイトの歩き方」ページをブックマークしてチェックしてみてください。ここから基本情報、活用事例、料金計算方法、セミナー/トレーニング情報、ビデオ、ホワイトペーパーなど、さまざまなリソースが見つかります。

      ▼ 「Azure サイトの歩き方」に移動する


       

      『Azure サイトの歩き方』掲載情報を少しだけご紹介!

      選ばれる理由

      ソリューションとサービス

       

      学習する

       

      コストを計算する

       

      さあ始めましょう

       

       

      On Optimizing Large Deployments of Windows Analytics

      $
      0
      0

      One of the more crucial pillars to ongoing success with managing initial Windows 10 deployments, as well as ongoing WaaS (Windows as a Service) servicing is the ability to leverage organization intelligence and key data to optimize ongoing updates and servicing and get in front of potential issues before they become widespread and disruptive. Specifically, analytics - as of now: Windows Analytics.

      Telemetry

      Windows Analytics is built from telemetry. Telemetry has been the key to Microsoft understanding the true insights of Windows usage and the vast Windows application ecosystem in the consumer space. Microsoft then took these lessons to the enterprise making available the very tools that made us successful transition to WaaS available free for our enterprise customers. However, telemetry involves the transmission of data and there is a level of trust required from our customers (not to mention laws and regulations from various governments and compliance bodies. Microsoft has gone to great lengths to comply with all regulations even at times, suspending collection in order to make proper adjustments when needed. I would recommend the following resources for further reading:

      Windows Analytics and privacy
      https://docs.microsoft.com/en-us/windows/deployment/update/windows-analytics-privacy 

      Learn about security and privacy at Microsoft data centers
       http://www.microsoft.com/datacenters

      Confidence in the trusted cloud
      https://azure.microsoft.com/en-us/support/trust-center/

      In addition, with versions of Windows 10 1709 and later, a special level of telemetry was created that allows you to submit additional telemetry beyond basic, but only that which is required specifically for Windows Analytics. This new value as well as all the other values are documented and regularly updated here: https://docs.microsoft.com/en-us/windows/privacy/configure-windows-diagnostic-data-in-your-organization
      Without telemetry, other metrics would have to be leveraged and have been in the past. These insights are often flawed depending on the metric. For example, take support call volume – a common usage metric but it can be flawed in the sense that the products/components that are either the more difficult or defected are inferred to be used more. That is not always the case.

      Telemetry Decisions

      Due to the varying degrees of telemetry as well as the factor that certain analytical solutions have specific telemetry requirements, the assumption is made that your organization’s various privacy, governance, and legal stakeholders have signed off on a telemetry level adequate for use as it is obviously a fundamental piece of an analytics solution. Microsoft has listened
      With this , it also important to note that recent factors involving the GDPR play into this as now in European Union nations, there are certain data types that cannot be collected regardless of organizational decisions and those limits are now reflected in the telemetry engines as well.

      The Upgrade Readiness Deployment Script - A *Pilot* Script

      One useful piece of the Analytics onboarding process is the Upgrade Readiness deployment script. While truly only a real pre-requisite for piloting Upgrade Readiness, it is a great start to evaluating Windows Analytics in a PoC or Pilot environment while at the same time, learning what additional configuration items might be required at scale for your wider deployment (proxy configuration, client telemetry engine updates, etc.)
      The script is very useful in the pilot phase as it allows you to get in front of any potential large scale issues that may be cumbersome to trouble once widely deployed. What the script essential does is:

      • Verifies that the Telemetry engine and specifically AppRaiser Module are up to date: This is crucial not only on down-level clients (Windows 7 and 8.1 but also older Windows 10 clients.)
      • Connectivity: Verifies that connectivity to the telemetry cloud endpoints. In addition, also verifies appropriate access through proxies both authenticated and unauthenticated.
      • Setting the Corporate ID: Crucial in order to get the information into the right Analytics tenant.
      • Setting Telemetry Levels and Options: Setting the appropriate level needed depending on solution(s) leveraged.

      Finally, the script culminates in a collection and uploading of a full set of telemetry data dependent on telemetry level.

      Deployment

      Pushing out a script can be avoided at scale in favor of more optimal configuration management. While the script also uploads insights regarding script successes and failures, those insights are more useful during piloting for identifying potentially common causes of deployment failures – most commonly pending reboots – which is one of the items checked in the onboarding script. As documented in https://docs.microsoft.com/en-us/windows/deployment/update/windows-analytics-get-started now scaled deployments can leverage management infrastructures to stamp these configuration items on windows endpoints.

      • CommercialID Value
      • AllowTelemetry Value (Windows 10)
      • Optionally setting the LimitEnhancedDiagnosticDataWindowsAnalytics value (1709 and later)
      • Setting the AllowDeviceNameInTelemetry (Windows 10) parameter. For Windows 10 1803 and later, this value must be explicitly set to ensure device name is collected.
      • CommercialDataOptIn (Pre-Windows 10 Clients)
      • IEDataOptin (if using Site Discovery)

      In lieu of the deployment script, you can also deploy this configuration at scale using your current management environment including:

      Group Policy: The old-fashioned way. Ensuring the Proper ADMX has been imported, the path is Computer Configuration – Administrative Templates – Windows Components – Data Collection and Preview Builds.

      MDM via the Policy CSP: The reference is here: https://docs.microsoft.com/en-us/windows/client-management/mdm/policy-configuration-service-provider

      Specifically, the primary items are:

      OMA-URI -> ./Vendor/MSFT/Policy/Config/System/AllowTelemetry
      OMA-URI - /Vendor/MSFT/DMClient/Provider/ProviderID/CommercialID

      Configuration Manager (1706 and later.) Full information here: https://docs.microsoft.com/en-us/sccm/core/clients/manage/monitor-windows-analytics

      The process is pretty straight forward:

      • Create NEW - Client Settings - Windows Analytics
      • Then apply the settings via Custom Device Settings

      Then, ensuring the scheduled tasks are in place to establish that there is a periodic full upload of telemetry. Upon deploying the script, you might have noticed the scheduled tasks including these commands:

       CompatTelRunner.exe -m:generaltel.dll -f:DoCensusRun
       CompatTelRunner.exe -m:appraiser.dll -f:DoScheduledTelemetryRun ent
      

      A full sync of telemetry data for analytics happens under the following conditions:

      1. When a new version of appraiser is installed (i.e. if the machine installs a monthly Quality Update. However the cadence for updating the AppRaiser module is usually every 2-3 months.)
      2. When you run those two commands:CompatTelRunner.exe -m:generaltel.dll -f:DoCensusRun
        CompatTelRunner.exe -m:appraiser.dll -f:DoScheduledTelemetryRun ent
      3. Finally, re-running the UR Script will also automatically upload a full data set.

      Top Contributors Awards! Understanding JavaScript Interop In Blazor and many more!

      $
      0
      0

      Welcome back for another analysis of contributions to TechNet Wiki over the last week.

      First up, the weekly leader board snapshot...

      As always, here are the results of another weekly crawl over the updated articles feed.

       

      Ninja Award Most Revisions Award
      Who has made the most individual revisions

       

      #1 Mohsin_A_Khan with 47 revisions.

       

      #2 get2pallav with 43 revisions.

       

      #3 Dave Rendón with 29 revisions.

       

      Just behind the winners but also worth a mention are:

       

      #4 RajeeshMenoth with 27 revisions.

       

      #5 Peter Geelen with 18 revisions.

       

      #6 karimSP with 17 revisions.

       

      #7 Carsten Siemens with 17 revisions.

       

      #8 George Chrysovaladis Grammatikos with 14 revisions.

       

      #9 Sabah Shariq with 7 revisions.

       

      #10 [Kamlesh Kumar] with 4 revisions.

       

       

      Ninja Award Most Articles Updated Award
      Who has updated the most articles

       

      #1 Mohsin_A_Khan with 27 articles.

       

      #2 RajeeshMenoth with 17 articles.

       

      #3 get2pallav with 10 articles.

       

      Just behind the winners but also worth a mention are:

       

      #4 Dave Rendón with 9 articles.

       

      #5 karimSP with 9 articles.

       

      #6 Carsten Siemens with 5 articles.

       

      #7 George Chrysovaladis Grammatikos with 3 articles.

       

      #8 Richard Mueller with 2 articles.

       

      #9 Peter Geelen with 2 articles.

       

      #10 Sabah Shariq with 2 articles.

       

       

      Ninja Award Most Updated Article Award
      Largest amount of updated content in a single article

       

      The article to have the most change this week was Understanding JavaScript Interop In Blazor, by AnkitSharma007

      This week's reviser was AnkitSharma007

       

      Ninja Award Longest Article Award
      Biggest article updated this week

       

      This week's largest document to get some attention is ASP.NET Core Blazor Master Detail Grid with Filtering and Sorting using EF and Web API, by SYEDSHANU - MVP

      This week's reviser was Carsten Siemens

       

      Ninja Award Most Revised Article Award
      Article with the most revisions in a week

       

      This week's most fiddled with article is SharePoint Online : Copy Or Move Items From A Document Library, by Kaviya. It was revised 10 times last week.

      This week's revisers were Peter Geelen, get2pallav, RajeeshMenoth, Kapil.Kumawat & Kaviya

       

      Ninja Award Most Popular Article Award
      Collaboration is the name of the game!

       

      The article to be updated by the most people this week is SharePoint Framework(SPFx) webpart with elevated privileges using MS Flow, by Ramakrishnan Raman

      This week's revisers were get2pallav, Carsten Siemens, Dave Rendón, karimSP & Ramakrishnan Raman

       

      Ninja Award Ninja Edit Award
      A ninja needs lightning fast reactions!

       

      Below is a list of this week's fastest ninja edits. That's an edit to an article after another person

       

      Ninja Award Winner Summary
      Let's celebrate our winners!

       

      Below are a few statistics on this week's award winners.

      Most Revisions Award Winner
      The reviser is the winner of this category.

      Mohsin_A_Khan

      Mohsin_A_Khan has won 9 previous Top Contributor Awards. Most recent five shown below:

      Mohsin_A_Khan has TechNet Guru medals, for the following articles:

      Mohsin_A_Khan has not yet had any interviews or featured articles (see below)

      Mohsin_A_Khan's profile page

      Most Articles Award Winner
      The reviser is the winner of this category.

      Mohsin_A_Khan

      Mohsin_A_Khan is mentioned above.

      Most Updated Article Award Winner
      The author is the winner, as it is their article that has had the changes.

      AnkitSharma007

      AnkitSharma007 has been interviewed on TechNet Wiki!

      AnkitSharma007 has won 4 previous Top Contributor Awards:

      AnkitSharma007 has TechNet Guru medals, for the following articles:

      AnkitSharma007 has not yet had any featured articles (see below)

      AnkitSharma007's profile page

      Longest Article Award Winner
      The author is the winner, as it is their article that is so long!

      SYEDSHANU - MVP

      SYEDSHANU has been interviewed on TechNet Wiki!

      SYEDSHANU has won 15 previous Top Contributor Awards. Most recent five shown below:

      SYEDSHANU has TechNet Guru medals, for the following articles:

      SYEDSHANU has not yet had any featured articles (see below)

      SYEDSHANU's profile page

      Most Revised Article Winner
      The author is the winner, as it is their article that has ben changed the most

      Kaviya

      This is the first Top Contributors award for Kaviya on TechNet Wiki! Congratulations Kaviya!

      Kaviya has TechNet Guru medals, for the following articles:

      Kaviya has not yet had any interviews or featured articles (see below)

      Kaviya's profile page

      Most Popular Article Winner
      The author is the winner, as it is their article that has had the most attention.

      Ramakrishnan Raman

      This is the first Top Contributors award for Ramakrishnan Raman on TechNet Wiki! Congratulations Ramakrishnan Raman!

      Ramakrishnan Raman has TechNet Guru medals, for the following articles:

      Ramakrishnan Raman has not yet had any interviews or featured articles (see below)

      Ramakrishnan Raman's profile page

      Ninja Edit Award Winner
      The author is the reviser, for it is their hand that is quickest!

      Kapil.Kumawat

      Kapil.Kumawat has been interviewed on TechNet Wiki!

      Kapil.Kumawat has won 20 previous Top Contributor Awards. Most recent five shown below:

      Kapil.Kumawat has TechNet Guru medals, for the following articles:

      Kapil.Kumawat has not yet had any featured articles (see below)

      Kapil.Kumawat's profile page

       Says: Another great week from all in our community! Thank you all for so much great literature for us to read this week!

      Please keep reading and contributing, because Sharing is caring..!!

       

      Best regards,
      — Ninja [Kamlesh Kumar]

       

      Microsoft Inspire 2018 の準備に役立つリソース【7/8 更新】

      $
      0
      0

      (この記事は2018年6月13日にMicrosoft Partner Network blog に掲載された記事 Resources to help you prepare for Microsoft Inspire の翻訳です。最新情報についてはリンク元のページをご参照ください。)

      Microsoft Inspire (英語) は巨大なイベントです。朝のコアノートからワークショップ、セッション、そして国ごとに企画された会議やイベントに至るまで、毎日アクティビティがいっぱいです。このようにたくさんの行事があり、1万5千人を超える人々が参加するため、カンファレンス中の体験や意味のある人脈の構築を最大化するにあたっては、事前の計画が重要です。

      参加者が Microsoft Inspire で迷わないように、イベント前、およびネバダ州ラスベガスの会期中にご利用になれる様々なリソースをご用意しています。

      MyInspire ウェブサイトから始めましょう

      カンファレンスの準備は MyInspire から始めるのが最適です。 Microsoft Inspire 参加者は、登録時に使用したのと同じアカウントでログインできます。 MyInspireの機能には、個人の会議アジェンダを構築するためのセッションスケジューラツールと、パートナーとマクロソフトの参加者の両方とのミーティングを設定するためのミーティングスケジューラが含まれています。また、Microsoft Inspire企画チームからのイベント情報とメッセージも表示されます。このサイトはモバイルデバイスからも閲覧しやすく設計されており、登録されたすべての参加者が利用できます。

      今年は、お客様からのご意見に基づき、以前はConnectと呼ばれていた会議ツールを再設計しました。これは現在、「MyInspire Connections」と呼ばれており、以下を含むいくつかの機能強化が行われています。

      • 参加者や出展企業が訪問すべきネットワーキング、セッションのパーソナライズされたおすすめ
      • 会議とセッションがダイナミックに更新される新しいOutlookとの統合機能
      • 1日に受信できるメッセージ数と会議参加依頼数が制限可能に
      • 自分が参加するセッションリストの URLを生成して共有する機能
      • 参加者がすべてのマイクロソフト専門家を検索できるエキスパートディレクトリ

       

      ご利用できます: MyInspire モバイルアプリ

      MyInspireはApple iOSとAndroidのモバイルアプリでも利用可能になります。 MyInspireのウェブサイトと同様に、モバイルアプリでは、あなたの個人的なアジェンダを管理したり、メッセージを送信してミーティングを設定したり、会場やフロアののインタラクティブ マップにアクセスしたりして、他の参加者を見つけて連絡することができます。 LinkedInでつながっている参加者を確認することもできます。この機能を利用できるように、モバイルアプリのプロファイルにLinkedInアカウントの情報を必ず追加してください。これを行うには、アプリケーションの参加者ディレクトリに移動し、接続を選択します。

      注: MSFT Events という名前のアプリです。こちらからApp StoreもしくはGoogle Play にアクセスできます。

       

      リリース予定:「ご出発前ガイド」をご覧ください

      Microsoft Inspire について詳細な情報をお知らせするための最も包括的な「ご出発前 (Know Before You Go)」ガイドがリリースされる予定です。到着とチェックイン、カンファレンスバッジ、交通機関、セッションとイベントのスケジュール、カンファレンスの交通手段など、幅広いトピックを網羅しています。このガイドと Microsoft Inspireのウェブサイト (英語) をご覧になり、カンファレンスについて学びましょう。よくある質問やカンファレンスのアジェンダ (英語) を見たり、セッションやスピーカー (英語) について調べたり、The Commons (英語)、The Community Hubサイト、エリアラウンジ、展示ホールで行われるイベントを知ることができます。 Microsoft Partner Networkのメンバーは、Microsoft IDでログインして、ラスベガス・モータースピードウェイ (英語)One Celebrationに登場予定の、複数のグラミー賞を受賞したアーティストが誰なのかを知ることができます。

       

      Microsoft Inspire にご登録ください

      ラスベガスで行われる Microsoft Inspire はもうすぐの開催です。毎日様々な学びがあり、今年のメインテーマ「イノベーション」「パートナーシップ」「リーダーシップ」に沿って作られた、たくさんの種類のセッション、ワークショップに参加する忙しい週になるでしょう。Microsoft Inspire はまた、人脈を築き、他のパートナー、マイクロソフトの社員、出展企業、スポンサーと収益性の高い関係を構築するのに最適な場でもあります。

      加えて、今年は Microsoft Inspire と、マイクロソフトの営業/技術支援組織の年次のキックオフミーティングである Microsoft Ready が同時開催される初めての年でもあります。これにより、世界中のマイクロソフト社員と関係を築く機会が増えます。この短いビデオ (英語)をご覧になり、Microsoft Inspire と Microsoft Ready が初めて同時開催となり、パートナーとマイクロソフトの経営陣が体験を共有することに興奮しているかをご覧ください。

      学び、つながり、そしてパートナーシップの構築を行うための、本当に思い出深い、活気ある週になることをお約束する Inspire に今すぐ登録 (英語) して席を確保してください。お見逃しなく!

      注: ツアー受付はすでに終了しています。

       

      関連リソース

      Text Suggestions In Windows 10

      $
      0
      0

      iPhone

      The text suggestion feature on an iPhone

      Anyone who has used a modern smartphone or tablet will be very familiar with the idea of "text suggestions" to speed up the input of text on a software keyboard. Whilst I personally don't make regular use of this feature, it's comforting to know it's there if I should need it.

       

      Of course, those with accessibility needs find features like this invaluable and I was talking to educators last week who specialize in this area and was asked whether Windows 10 supported "text suggestions" or "word complete".

      I was aware that on software keyboards in Windows 10, such as on a tablet or touch screen device, text suggestions had been around for a while, however I pinged the awesome Mike Tholfsen who shared with me that the release of Windows 10 1803 brought text suggestions to hardware keyboards too.

      Enabling Text Suggestions in Windows 10:

      The easiest way to achieve this is to simply hit the "windows key" on your and type "text":

      1.PNG

      When I first looked for this I only saw the software keyboard options:

      2

      However, Mike reminded me to scroll down and it was there that I came across the new feature in Windows 10 1803 that is support for the Hardware Keyboards:

      3

      It's worth noting, as I've highlighted in the screenshot above, that for now this is only supported when the keyboard is set to US English. Talking with the product team, they are looking to expand support for this include other English keyboards and, ideally, other languages.

      So What Does It Look Like?

      In Microsoft Word, here is a few examples of text suggestions:

      In fact, it works great in virtually all applications I tried, here are screenshots from Outlook and Edge:

      7

      And Edge:

      8.PNG

      The only application that I had difficulty with was the Chrome Web Browser which I believe is built on the Electron framework which uses the legacy IMM32 for input and doesn't support intelligent features like text suggestions for Hardware Keyboards.

      Why Does This Matter?

      For many people, they don't think twice about entering text into their computer with a keyboard, rarely pausing to correct spelling. However, for many students having assistance in this area, either with spelling help, or indeed reducing the physical process of typing every single key is of tremendous assistance.

      Adding text suggestions natively into Windows 10 also saves organisations considerable money, as the educators I was talking to last week suggested that software extensions to enable this often costs in the hundreds of dollars. I've written before how accessibility is at the heart of Microsoft solutions and this relatively new feature further shows this commitment.

      blog-11

      Microsoft Inspire 2018 基調講演登壇者のご紹介【7/9 更新】

      $
      0
      0

      (この記事は2018年6月21日にMicrosoft Partner Network blog に掲載された記事 Introducing the Microsoft Inspire Corenote Speakers の翻訳です。最新情報についてはリンク元のページをご参照ください。)

      Microsoft Inspire (英語) のプレゼンテーションで最も話題になっているのは、マイクロソフトの主要な役員が提供する基調講演です。これらの講演から、技術革新、ソリューション戦略、および市場参入戦略の観点より、パートナーコミュニティへの今年度のマイクロソフトの方向性を伺い知ることができます。また、同時に基調講演は、グローバルな状況の下、私たちが肯定的な変化のためにどのように集合的な力を発揮できるのかを、私たちに示してくれます。 2014年の基調講演プレゼンテーションでは、マイクロソフトの最高経営責任者 Satya Nadellaがマイクロソフトの企業ミッション「地球上のすべての個人とすべての組織が、より多くのことを達成できるようにする」について初めて解説しました。

      今年の基調講演は、何千人ものMicrosoft Inspire参加者のためのエキサイティングでエネルギーに満ち溢れる体験です。私は次のような優れた講演者のラインナップを発表することを誇りに思います。

      • Satya Nadella, CEO of Microsoft  Twitter
      • Brad Smith, President and Chief Legal Officer of Microsoft Twitter
      • Judson Althoff, Executive Vice President of Worldwide Commercial Business at Microsoft Twitter
      • Jason Zander, Executive Vice President of the Microsoft Azure Team in the Cloud and AI Group at Microsoft Twitter
      • Alysa Taylor, Corporate Vice President, Business Applications and Global Industry at Microsoft
      • Anand Eswaran, Corporate Vice President, Microsoft Digital Twitter
      • Julia White, Corporate Vice President, Cloud Platform at Microsoft Twitter
      • Ron Markezich, Corporate Vice President, Microsoft 365 Marketing at Microsoft Twitter
      • Yusef Medhi, Corporate Vice President, Windows and Devices Group at Microsoft Twitter

      そして僭越ながら私も、今年の基調講演の1つを担当することになりました。私たちが持っている驚異的な成長の機会と、顧客のデジタル変革を加速するために長年にわたるパートナーシップを培っていくのかに焦点を当てます。

      基調講演と登壇者のプロファイルの詳細については、セッションとスピーカーのページ (英語)をご覧ください。

       

      マイクロソフト関係者全員で共有する基調講演

      基調講演は現地時間 7月16日(月)、7月17日(火)、7月18日(水)の午前中にT-Mobileアリーナで開催されます。月曜日の朝からMicrosoft Inspireプレゼンテーションが正式に開始となり、私が皆様をラスベガスにお迎えします。その後、Judson AlthoffとBrad Smithを迎えます。Jason Zander は、ハイブリッド・クラウドの機会であるAzureとコンピューティングにおけるAIの役割の拡大に注力し、Alysa TaylorとAnand Eswaranは業種の視点から深い見識を共有します。火曜日は、私はジェネラル セッションの最後に登壇します。ここでは、マイクロソフトが数百万の顧客とパートナー様をどのように結びつけ、パートナー様がデジタル変革の新しいフロンティアを活用することができるかに焦点を当てます。水曜日の基調講演は本当に特別なイベントになる予定で、マイクロソフトの最高経営責任者 Satya Nadella が、Microsoft Inspire と マイクロソフトの営業/マーケティング/技術支援組織の年次キックオフとなる Microsoft Ready の両方の参加者に語り掛けます。パートナー様とマイクロソフト社員が、同じメッセージを一緒に聞くことで、世界中のマイクロソフト関係者全員が今年度の同じビジョンを共有できるようになります。

       

      昨年の基調講演からのハイライト

      昨年のプレゼンテーションを振り返り、私たちがどれだけ達成できたか見ることで、とても大きなエネルギーを得ることができます。昨年、Satya NadellaはMicrosoft 365を紹介し、グローバル企業と中小企業の両方がおよそ4.5兆米ドルのデジタル変革機会を活用できる方法について議論しました。 Brad Smithは、高度なセキュリティ機能をすべてのマイクロソフトソリューションに統合し、世界中の人々のデジタル権利を保護するためにパートナーと密接に協力するという当社のコミットメントを概説しました。 Judson Althoffは、ビジネスモデルの見直し、つまり「お客様への対応」、「従業員の生産性向上」、「業務の最適化」、「製品の変革」を可能にするデジタル変革の4つの柱を説明しました。私は、ソリューションを構築し、そのソリューションを市場に投入するためのフレームワークを作成し、お客様のソリューションやサービスを顧客に販売する力を合わせることで、パートナーシップを強化するOne Commercial Partnerの立ち上げをご紹介しました。

      ラスベガスで私たちとお会いする前に、去年の基調講演からビデオの抜粋 (英語)を見てインスパイアされてみてはいかがでしょうか。

       

      Microsoft Inspire にご登録ください

      ラスベガスで行われる Microsoft Inspire はもうすぐの開催です。毎日様々な学び、つながり、関係の構築を行う忙しい週になるでしょう。 Microsoft InspireとMicrosoft Readyの同時開催 (英語)は、パートナー様とマイクロソフト社員が有意義なつながりを確立し、目標と戦略を調整し、お客様の成長とデジタル変革を促進する機会を増やします。また、新しいソリューションを直接体験して、The Commons  (英語)のさまざまなマイクロソフトコミュニティとつながり、業界のリーダーや変革者の登壇者 (英語) から洞察を得るとともに、ソリューション、戦略、および戦略を網羅したさまざまなブレイクアウトセッション (英語) から選択できます。お客様のビジネスに最も関連性の高いパートナー機会を提供します。

      本当に素晴らしい週になることをお約束するInspire に今すぐ登録 (英語) して席を確保してください。お見逃しなく!ラスベガスでお会いしましょう!

      注: ツアー受付はすでに終了しています。

       

      関連リソース


      SharePoint Online で発行機能を有効にする場合の留意点

      $
      0
      0

      サイト コレクションの作成後に SharePoint Server 発行インフラストラクチャ/SharePoint Server 発行機能を有効にする場合、主にパフォーマンスの観点で以下のような留意すべき事項があります。

      ・ナビゲーション

      ・ページ (Pages) ライブラリ

       

      一般的に運用の開始後は設定や構成の変更が難しくなりますので、本稿の内容を構築の段階で考慮いただくことを、推奨いたします。

       

      なお、サイト コレクションの作成時に、発行ポータル” (英語: Publishing Portal) テンプレートを利用される場合は後述の内容は考慮された状態でサイト コレクションが作成されます。

      このため、発行機能の利用を検討される場合は、サイト コレクションの作成時に、”発行ポータル” テンプレートを利用することもご検討ください。

       

      ナビゲーション

      サイト コレクションの作成後に SharePoint Server 発行インフラストラクチャ機能を有効にすると、ナビゲーションに構造ナビゲーションが設定されます。

      以下のブログ投稿でも紹介していますが、構造ナビゲーションを利用すると深刻なパフォーマンスの劣化が生じる可能性があるため、SharePoint Server 発行インフラストラクチャ機能を有効にした場合は、ナビゲーションを管理ナビゲーションに変更することが強く推奨されます。

       

      タイトル : SharePoint Online のパフォーマンス チューニングについて

      アドレス : https://blogs.technet.microsoft.com/sharepoint_support/2018/06/25/spo-performance-tuning/

       

      タイトル : SharePoint Online で管理ナビゲーションを使用する

      アドレス : https://blogs.technet.microsoft.com/sharepoint_support/2018/07/02/using-managed-navigation-in-sharepoint-online/

       

       

      ページ (Pages) ライブラリ

      チーム サイト等の発行機能が既定で無効であるテンプレートでサイトコレクションを作成すると、サイトを構成するページのファイル (.aspx ファイル) サイトのページ” (SitePages) ライブラリに保持されます。

      一方で、サイトの機能の “SharePoint Server 発行機能を有効にすると、ページ” (Pages) ライブラリが作成され、本ライブラリにもサイトを構成するページのファイルを保持することが可能です。

      何れのライブラリも同様の機能を保持しているように見えますが、ページライブラリはSharePoint Server 発行インフラストラクチャを有効にしているサイト コレクションに最適化されているため、SharePoint Server 発行インフラストラクチャを有効にしている場合は、ページライブラリを利用することが一般的に推奨されます。

       

      ・発行機能はポータルサイト等の閲覧を主目的としたサイト向けの機能となります。サーバー側の動作で、閲覧に最適化された機能が幾つかありますが、ページライブラリに存在するページ ファイルにのみ有効となります。

      ・主にカスタマイズのパフォーマンス チューニングにおいて有効な CDN の利用に最適化されています。

       

      なお、サイトのページライブラリで作成したページ ファイルを、ページライブラリに移行することは出来ません。このため、サイトの構築段階で ページライブラリについて考慮することが重要となります。

       

      タイトル : SharePoint Online CDN を利用する

      アドレス : https://blogs.technet.microsoft.com/sharepoint_support/2018/06/20/sharepoint-online-cdn/

       

       

      補足

      既に広く知られている情報になりますが、SharePoint Server 発行インフラストラクチャを一度でも有効にしたサイト コレクションは。サイト テンプレートがサポートされませんので、ご留意ください。

       

      タイトル : Office 365 SharePoint Online または SharePoint Server 2013 [テンプレートとしてサイトを保存] 機能が利用できない

      アドレス : https://support.microsoft.com/ja-jp/help/2492356/

       

      タイトル : 発行機能とサイトテンプレートについて

      アドレス : https://blogs.technet.microsoft.com/sharepoint_support/2014/05/23/691/

       

       

       

      今回の投稿は以上です。

      本情報の内容は、作成日時点でのものであり、予告なく変更される場合があります。

      Azure Data Factory の新機能の一般提供を開始

      $
      0
      0

      執筆者: Mark Kromer (Senior Program Manager, Information Management)

      このポストは、2018 6 27 日に投稿された Azure Data Factory new capabilities are now generally available の翻訳です。

       

      このたび、Azure Data Factory (ADF V2) の新機能の一般提供を開始しました。これにより、クラウドでのデータ統合がこれまでよりもずっと簡単になります。ブラウザー ベースの新しいユーザー インターフェイスでは、データ パイプラインの構築やスケジュール設定をドラッグ アンド ドロップで効率的に行えるため、プロジェクト期間を短縮することができます。クラウドでもオンプレミスでも、データ格納場所を問わずデータ統合プロジェクトの正常性を大規模に管理、監視することができます。データはすべてエンタープライズ レベルのセキュリティで保護されます。ADF 70 を超えるデータ ソース コネクタをサポートしており、大規模なデータ変換ジョブを簡単にディスパッチして生データを整形し、ビジネス アナリストがお好みの BI ツールやカスタム アプリケーションで利用できるようにします。

      既に SQL Server Integration Services (SSIS) をお使いのお客様は、ADF を使用してお持ちの SSIS パッケージをクラウドにリフトアンドシフトすることで、既存のパッケージをほとんど変更することなく、サービスとしての SSIS へと移行することが可能です。ADF がお客様に代わって SSIS リソースの管理を行うため、生産性を高めると共に、総保有コスト (TCO) を削減することができます。さらに、セキュリティやコンプライアンスの要件を満たしつつ、従量課金制で必要に応じて機能を拡張していくことができます。

      Azure Data Factory のすべての新機能には、一般提供中の Azure SLA が適用されます。以下、いくつかの新機能をご紹介します。

      1. 制御フロー: 分岐、ループ、条件付き実行、パラメーター化などの制御フロー データ パイプライン コンストラクトによって、複雑なデータ統合ジョブを再利用できるよう柔軟に調整します。
      2. コーディング不要のデータ移動やオーケストレーション設計: お使いのブラウザーから直接パイプラインの設計、管理、メンテナンス、監視を行うことができます。Visual Studio Team Services Git リポジトリとネイティブに統合されているため、管理やオートメーションの構築とリリースに加えて、データ パイプライン上でのチームの共同作業が可能です。
      3. パイプラインの反復開発: ADF の設計環境では、組み込みの反復デバッグ機能を使用して、パイプラインの開発とデバッグをインタラクティブに反復することができます。
      4. 柔軟なスケジュール設定: ウォールクロック スケジューラ、イベント ベースのトリガー、タンブリング ウィンドウ スケジュールなどで、パイプラインのスケジュールを設定できます。
      5. SSIS ADF へリフトアンドシフト: 統合ランタイムのサポートにより、Azure Data Factory を使って既存のオンプレミスの SSIS パッケージをクラウドへ移行し、クラウド上で SSIS パッケージの実行、スケジュール設定、監視を行うことができます。
      6. HDInsight のオンデマンドな Spark Azure Databricks: ADF で構築したクラウド上の ETL パイプラインでは、HDInsight のオンデマンド クラスターや Azure Databricks Notebook を使用して、Spark で大規模にデータを変換することができます。
      7. SDK のサポート (英語): SDK のサポートが追加および更新され、Python.NETRESTPowerShell を使用してカスタム アプリケーションを構築できるようになりました。

      マイクロソフトのクラウドおよびデータ パートナーである Pragmatic Works では、こうした便利な機能を活用することで、これまでになかった新しい方法で顧客との関係を構築できるようになりました。

      Pragmatic Works は、Azure クラウド、データ サービス、トレーニングを通じて、お客様がビジネス上の課題をすべて解決できるよう支援しています。Azure Data Factory を採用したことで、当社のお客様はオンプレミスやマルチクラウド ソースのデータを驚くほど簡単に集約できるようになりました。当社でも、ドラッグ アンド ドロップ式のブラウザー ベースのユーザー インターフェイスを使用して、複雑なデータ統合をすばやく構築できるようになったため、現在はビジネス価値の提供に注力しています」

      Adam Jorgensen (Pragmatic Works、コンサルティング プレジデント)

      今すぐ始めましょう

              ADF V2 ファクトリ作成のクイックスタート ガイド

              ハンズオン ラボ: SSIS パッケージを Azure に移行し、データ ウェアハウスを刷新する (英語) を見る

              eBookAzure Data Factory: SSIS in the Cloud (英語)」をダウンロードする

              Azure Data Factory パイプライン構築に関するホワイトペーパー (英語) を読む

       

      Network Performance Monitor の Service Connectivity Monitor の一般提供を開始

      $
      0
      0

      執筆者: Abhave Sharma (Program Manager, Azure Networking)

      このポストは、2018 6 25 日に投稿された Network Performance Monitors Service Connectivity Monitor is now generally available の翻訳です。

       

      Network Performance Monitor (NPM) Service Connectivity Monitor は、これまで Service Endpoint Monitor という名称でプレビューが提供されていましたが、このたび一般提供が開始され、それと同時に新たな名称に変更されました。Service Connectivity Monitor では、アプリケーション、URIVM、ネットワーク デバイスなどのサービスへの接続を監視できるほか、パス内のインフラストラクチャやネットワークのボトルネックが発生している場所を特定することができます。

      サービスやユーザーが、クラウド、ブランチ オフィス、遠隔地に分散することに伴い、サービス停止やパフォーマンス低下の原因を特定することがますます困難になってきました。その要因としては、アプリケーション、スタック、クラスターの問題や、クラウド、通信事業者のネットワーク、ファースト ワンマイルのネットワークの問題があることが考えられます。Service Connectivity Monitor は、社内でホストされたサービスやクラウド サービスのパフォーマンス、およびエンドツーエンドのネットワーク パフォーマンスを監視、視覚化するための機能を統合したもので、ネットワーク内の主要ポイントからサービスへの接続テストを作成することで、問題の原因がネットワークにあるかアプリケーションにあるかを判断できます。ネットワーク トポロジ マップでは、パケット損失率やレイテンシの高いリンクやインターフェイスを確認し、社内外の問題のあるネットワーク セグメントを特定することができます。

      アプリケーションの問題かネットワークの問題かを判断する

      アプリケーションの応答時間とネットワーク レイテンシの相関関係を確認することで、アプリケーションの接続に関する問題の原因がアプリケーションにあるかネットワークにあるかを判断できます。

      以下の画像の例では、アプリケーションの応答時間の急増に伴い、ネットワーク レイテンシも急増しています。このことから、アプリケーションのパフォーマンス低下はネットワーク レイテンシの増加によるものであり、問題の原因はアプリケーションではなく、基盤となるネットワークにあると判断できます。

      Application or network problem

      以下の例では、アプリケーションの応答時間が急増しているものの、ネットワーク レイテンシは一定です。このことから、パフォーマンス低下の発生時にネットワークは安定した状態にあり、問題の原因はアプリケーション側にあると判断できます。

      Scenario 1

      ネットワークのボトルネックを特定する

      NPM インタラクティブなトポロジ マップには、オンプレミスとアプリケーション エンドポイント間のすべてのパスとインターフェイスが表示されます。ノードからアプリケーションへのエンドツーエンドのネットワークが視覚化されるだけでなく、各インターフェイスで発生しているレイテンシも表示されるため、問題のあるネットワーク セグメントを特定することができます。以下に示す画像では、四角で囲んだネットワーク インターフェイスで最大のレイテンシが発生していることを特定できます。

      Network bottlenecks

      単一のビューで複数のバンテージ ポイントからサービスへの接続を監視する

      ブランチ オフィス、データセンター、オフィス サイト、クラウド インフラストラクチャなどからサービスへの接続を単一のビューで監視することができます。企業のネットワーク境界内のバンテージ ポイントに NPM エージェントをインストールすることで、ユーザーがアプリケーションにアクセスしている場所からのパフォーマンスが視覚化されます。

      以下の画像の例では、複数のソース ノードから www.msn.com へのネットワーク トポロジを単一のビューで確認できます。正常でないパスが赤で表示され、接続に関する問題のあるノードを特定できます。

      Service endpoints

      サービスへのエンドツーエンドの接続を監視する

      企業のネットワーク境界内のソース ノードと使用しているサービス (Web サイト、SaaSPaaSAzure サービス、ファイル サーバー、SQL サーバーなど) 間の合計応答時間、ネットワーク レイテンシ、パケット損失を監視できます。いずれかのブランチ オフィスからの応答時間、パケット損失、レイテンシがしきい値を超えた場合に、プロアクティブに通知されるようにアラートを設定できます。パフォーマンス データのほぼリアルタイムの値と時系列的な推移を表示する以外に、ネットワーク状態レコーダー (英語) を使用すると、特定のネットワークの過去の状態を表示して、把握しにくい一時的な問題を調査することができます。

      Tech nodes for Bing

      Microsoft Office 365 Dynamics 365 の組み込みテストを使用してマイクロソフトのサービスへの接続を監視する

      Service Connectivity Monitor には、組み込みテストが用意されています。このテストはワンクリックで簡単にセットアップできるため、事前設定なしで Microsoft Office 365 および Dynamics 365 サービスへの接続を監視できます。この機能には、これらのサービスに関連付けられたエンドポイントの一覧が保持されるため、各サービスに関連付けられている各種エンドポイントを入力する必要はありません。

      Monitoring

      カスタムのクエリやビューを作成する

      NPM GUI に表示されるデータはすべて、Log Analytics の検索機能でもネイティブに使用できます。リポジトリ内のデータに対してインタラクティブな分析を実行して、各種ソースからのデータの相関関係を確認し、カスタムのアラートやビューを作成して、ExcelPower BI、共有リンクにデータをエクスポートすることができます。

      使用を開始する

      NPM Service Connectivity Monitor を設定する詳細な手順についてはこちらを、NPM のその他の機能の詳細についてはこちらをご確認ください。

      フィードバックのお願い

      フィードバックをお寄せいただくには、以下の方法があります。

      • UserVoice の利用: Network Performance Monitor の新機能に関するご提案は UserVoice ページ (英語) までお寄せください。
      • コミュニティに参加: マイクロソフトでは、新機能を早期に利用し、今後の NPM の機能強化にご協力いただけるお客様を随時募集しています。コミュニティへの参加にご興味があるお客様は、こちらの簡単なアンケート (英語) にご回答ください。

       

      Windows Server System Insights の概要

      $
      0
      0

      執筆者: Garrett Watumull (Program Manager, Windows Server)

      このポストは、2018 6 19 日に投稿された Introducing Windows Server System Insights の翻訳です。

       

      このたび、Windows Insider Program の参加者向けに Windows Server 2019 の新しいプレビュー ビルドがリリースされました。ご存知の方もいらっしゃるかと思いますが、Windows Server 2019 は数か月前に発表され、今年中に一般提供が開始される予定となっています。リリースのたびに新機能がいくつか導入されますが、今回は System Insights についてご紹介したいと思います。

      System Insights とは

      IT 管理者の任務の 1 つは、システムを円滑に運用することです。ディスクの空き領域が不足していないか監視したり、Hyper-V ホストの消費メモリや消費 CPU を確認して VM の追加を計画するなど、さまざまなアクティビティやコンポーネントに目を光らせている必要があります。

      System Insights は今回の Windows Server 2019 プレビューで導入された新しい機能で、Windows Server にローカルの予測分析機能がネイティブに提供されます。これらの予測機能は、それぞれ機械学習モデルを基盤としており、パフォーマンス カウンターやイベントといった Windows Server のシステム データをローカルで分析し、高精度の予測を提供します。これにより、Windows Server インスタンスの事後対応型の管理に伴う運用コストを削減できます。

      これらの各機能はローカルで実行されるため、すべてのデータは Windows Server インスタンスで直接収集、保存、分析され、クラウドに接続することなく予測分析機能を使用することができます。Windows Server 2019 では、容量予測に重点を置いた機能セットが System Insights に導入され、コンピューティング、ネットワーク、ストレージの今後の使用状況を予測します。

      https://cloudblogs.microsoft.com/uploads/prod/2018/06/cpu-forecasting-1024x552.png

      1: Windows Admin Center System Insights ダッシュボード

      上記の画像をご覧いただくとわかるとおり、System Insights Windows Admin Center から管理できます。また、System Insights ではリッチな PowerShell インターフェイスも提供されており、強力な自動化が可能です。

      現在利用可能な機能と今後の計画

      現在の Windows Server 2019 プレビュー ビルドの System Insights でできることは、以下のとおりです。

      • 予測機能を参照し、機能をオンデマンドで呼び出すか、定期的に実行するように構成する。
      • 予測結果を視覚化して、容量の消費傾向を直観的に理解する。
      • カスタムの修復ジョブを設定し、特定の結果が生成された場合に自動で実行されるようにする。これにより、予測機能で検出された問題による影響を自動で緩和できます。
      • 個々の Windows Server の容量予測について、一定期間における傾向を表示し理解する。
      • リモート インスタンスに対して PowerShell を使用して、関連する Windows Server インスタンス (クラスター、アプリケーション層、ラック、データセンターなど) のグループから報告される予測結果を集計し、グループ全体におけるコンピューティング、ストレージ、ネットワークの傾向を理解する。

      マイクロソフトは今後も引き続き System Insights の強化に取り組んでいきます。今後のビルドでは、オプションのクラスター化されたストレージの予測、修復用の PowerShell スクリプトの提案、Windows Admin Center のリッチなユーザー エクスペリエンスの強化、カスタムのシステム データを必要とする新しい予測機能の動的インストールといった新機能が追加される予定です。

      プレビューを今すぐダウンロード

      System Insights の利用を開始するには、Windows Server 2019 および Windows Admin Center (英語) のプレビューをダウンロードしてください。

      Windows Server 2019 のさまざまな新機能については、Windows Server Summit (英語) をご覧ください。

       

      Office 365 Weekly Digest | July 1 – 7, 2018

      $
      0
      0

      Welcome to the July 1 - 7, 2018 edition of the Office 365 Weekly Digest.

      There were six additions to the Office 365 Roadmap last week, including new Yammer features in SharePoint Online and Teams, new integration between Microsoft Planner and Microsoft Project, a combined password reset and multi-factor authentication registration experience, and adding a link for the Security and Compliance Center (SCC) in the Exchange Admin Center.

      New online customer immersion experiences are now open for registration, with sessions starting in late July through late August. There are a few Azure Active Directory sessions this week, which will complete the July 2018 round of webinars.

      Microsoft Teams was the focus of several blog posts last week, including a roundup of new features for July 2018 and the availability of eDiscovery for calls and meetings in Teams. In addition, idle-session timeout policies for OneDrive for Business and SharePoint Online are now available. Upcoming changes to the Exchange Web Services (EWS) API for Office 365 were also announced, with support for Basic Authentication access for EWS ending in October 2020.

      Noteworthy items wrapping up this week's post include updates to the Office 365 URLs and IP address ranges effective August 1, 2018, the new Driving Adoption blog and Office 365 Teamwork Champions community, OneDrive Message Center updates for the last half of June 2018, and new capabilities for financial services and US government customers.

       

      OFFICE 365 ROADMAP

       

      Below are the items added to the Office 365 Roadmap last week:

       

      Feature ID

      Title Description

      Status

      Added

      Estimated Release

      More Info

      31503

      Rich Yammer feeds in SharePoint New web part to add a fully functional native Yammer feed to any modern SharePoint site.

      In development

      07/03/2018

      Q4 CY2018

      n / a

      31502

      Yammer tab in Microsoft Teams Easier access to Yammer communities with a built-in tab in Microsoft Teams.

      In development

      07/03/2018

      Q4 CY2018

      n / a

      27755

      Microsoft Project & Microsoft Planner – Create a new plan When connecting a Planner plan to a Project task, create a new plan quickly instead of linking to an existing one.

      In development

      07/03/2018

      August CY2018

      n / a

      20614

      SharePoint Online communication sites for sovereign datacenters Bringing SharePoint communication sites to all sovereign datacenters, including government tenants.

      Launched

      07/06/2018

      Q4 CY2017

      SharePoint Communication sites begin rollout to Office 365 customers

      31548

      Combined Password Reset & MFA Registration We are releasing a preview of a new user experience that will allow users to register security info for multi-factor authentication (MFA) and password reset in a single experience. Now when a user registers security info such as their phone number for receiving verification codes, that number can also be used for resetting a password. Likewise, users can change or delete their security info from a single page, making it easier to keep information up-to-date.

      Rolling out

      07/06/2018

      July CY2018

      n / a

      31546

      Make the Action Center easier to find When administrators need to unblock a blocked sender(s), due to compromise and/or sending spam, they could go to the Security and Compliance Center (SCC) Admin Center, but that wasn't easy since you had to type it into the browser. So, we're making it easier to find if the admin is already in SCC and also adding a link in the Exchange Admin Center to point directly to it.

      In development

      07/06/2018

      Q4 CY2018

      n / a

       

       

       

      UPCOMING EVENTS

       

      Azure Active Directory Webinars for July

      When: Multiple sessions currently scheduled from July 10 - 12, 2018 | Are you looking to deploy Azure Active Directory quickly and easily? We are offering free webinars on key Azure Active Directory deployment topics to help you get up and running. Sessions include Getting Ready for Azure AD, Managing Enterprise Apps with Azure AD, and more. Each 1-hour webinar is designed to support IT Pros in quickly rolling out Azure Active Directory features to their organization. All webinars are free of cost and will include an anonymous Q&A session with our Engineering Team. So, come with your questions! Capacity is limited. Sign up for one or all of the sessions today!  Note: There are also some sessions available on-demand.

       

      Visualizing, Analyzing & Sharing Your Data Without Having to be a BI Expert

      When: Tuesday, July 31, 2018 at 12pm ET and 3pm ET | This 2-hour hands-on experience will give you the opportunity to test drive the latest business analytics tools. A trained facilitator will guide you as you apply these tools to your own business scenarios and see how they can work throughout your organization. During this interactive session, you will explore how to: (1) Locate and organize large amounts of data from multiple sources, (2) Visualize complex data and identify trends quickly without having to be a BI expert, (3) Find and collaborate with company experts on the fly, even if they work in another part of the country, and (4) Gather colleague's opinions easily and eliminate communication and process bottlenecks. Each session is limited to 12 participants, reserve your seat now.

       

      Connecting, Organizing & Collaborating with Your Team

      When: Wednesday, August 1, 2018 at 12pm ET and 3pm ET | During this session, you will have the opportunity to experience Windows 10, Office 365 and Microsoft's newest collaboration tool: Microsoft Teams. A trained facilitator will guide you as you apply these tools to your own business scenarios and see how they work for you. During this interactive session, you will explore how to use Microsoft Teams and Office 365 to: (1) Create a hub for team work that works together with your other Office 365 apps, (2) Build customized options for each team, (3) Keep everyone on your team engaged, (4) Coauthor and share content quickly, and (5) Gain skills that will save you time and simplify your workflow immediately. Each session is limited to 12 participants, reserve your seat now.

       

      Transforming your business to meet the changing market and needs of your customers

      When: Thursday, August 2, 2018 at 12pm and 3pm ET | This 2-hour hands-on experience will give you the opportunity to test drive Windows 10, Office 365 and Dynamics 365. A trained facilitator will guide you as you apply these tools to your own business scenarios and see how they work for you. During this interactive session, you will: (1) Use digital intelligence to build personalized experiences across all customer touchpoints, (2) Improve customer service through a single, unified experience that delivers end-to-end service across every channel, (3) Increase customer satisfaction with intelligent scheduling, native mobile support, and remote asset monitoring to help you get the job done right the first time, and (4) Run your project-based business more productively by bringing people, processes, and automation technology together through a unified experience. Each session is limited to 12 participants, reserve your seat now.

       

      Hands-on with security in a cloud-first, mobile-first world

      When: Thursday, August 9, 2018 at 12pm ET and 3pm ET | This 2-hour hands-on session will give you the opportunity to try Microsoft technology that secures your digital transformation with a comprehensive platform, unique intelligence, and partnerships. A trained facilitator will guide you as you apply these tools to your own business scenarios and see how they work for you. During this interactive session, you will: (1) Detect and protect against external threats by monitoring, reporting and analyzing activity to react promptly to provide organization security, (2) Protect your information and reduce the risk of data loss, (3) Provide peace of mind with controls and visibility for industry-verified conformity with global standards in compliance, (4) Protect your users and their accounts, and (5) Support your organization with enhanced privacy and compliance to meet the General Data Protection Regulation. Each session is limited to 12 participants, reserve your seat now.

       

      Productivity Hacks to Save Time & Simplify Workflows

      When: Wednesday, August 22, 2018 at 12pm ET and 3pm ET | This 90-minute hands-on experience will give you the opportunity to test drive Windows 10, Office 365 and Dynamics 365. A trained facilitator will guide you as you apply these tools to your own business scenarios and see how they work for you. During this interactive session, you will: (1) Discover how you can keep your information more secure without inhibiting your workflow, (2) Learn how to visualize and analyze complex data, quickly zeroing in on the insights you need, (3) See how multiple team members can access, edit and review documents simultaneously, and (4) Gain skills that will save you time and simplify your workflow immediately. Each session is limited to 12 participants, reserve your seat now.

       

      BLOG ROUNDUP

       

      What's new in Microsoft Teams – July Roundup

      The July Roundup for Microsoft Teams details the latest enhancements across the following areas: (1) Communicate more seamlessly, (2) Collaborate more effectively, (3) Customize and extend your workspace, with third-party apps and processes, (4) New features available for mobile, (5) Experience Teams across devices, and (6) Learn how customers are using Teams. Some of the specific enhancements referenced in the post include Direct Routing in Teams, Teams availability in US Government Community Cloud, View and edit Visio files in Teams, Office 365 app launcher in the Teams web client, several new apps in Teams, support for eDiscovery, archiving a team, etc.

       

      Microsoft Teams launches eDiscovery for Calling and Meetings

      We're proud to announce that starting July 2nd, 2018 Microsoft Teams now supports eDiscovery for calling/meeting. With this feature launch, Microsoft Teams delivers on its Q2CY2018 commitments towards the Skype and Teams convergence roadmap. Now, compliance admins who are used to performing eDiscovery searches for Microsoft Teams messages and files will now be able to search and discover summary records for every Microsoft Teams meeting or call in their tenant. Microsoft Teams Clients participate in Meetings and Calls that run on the next generation calling and meeting infrastructure services from Skype and Teams. These services will collect information about every meeting and call in Teams. This information is used by the Call Record Processing services to generate a record of the call or meeting, referred to as a call detail record (CDR). This CDR is sent into a special folder (not discoverable by Exchange clients like Outlook or OWA) located within the mailbox storage of all participants who dialed into the call/meeting. This data is indexed and made available to the eDiscovery functionality in the Office 365 Security and Compliance center. So, when compliance admins search for Teams content by including user mailboxes are included in the scope of the search, meeting and call summaries for Microsoft Teams are going to be included in the output of the search.

       

      Idle-Session Timeout Policy in SharePoint Online & OneDrive is now Generally Available

      SharePoint and OneDrive include a set of controls to help keep your data safe no matter where people are when they access or share data, what device they're working on, and how secure their network connection is. These controls can help you customize the level of access granted to people while making sure the resulting constraints meet your organizational security requirements. They also allow you to balance security and user productivity and prevent overexposure, leakage, and oversharing of your sensitive data. To help safeguard your information on these systems, we're pleased to announce idle session timeout policies are now generally available. Session lifetimes are an important part of authentication for Office 365 and are an important component in balancing security and the number of times users are prompted for their credentials. Idle session timeout provides an Office 365 administrator to configure a threshold at which a user is warned and subsequently signed out of SharePoint or OneDrive after a period of inactivity. Idle session timeout policies allow Office 365 administrators to automatically sign out inactive sessions preventing the overexposure of information in the event a user leaves a shared system unattended.

       

      Microsoft Teams: Protecting against advanced threats

      How well do you trust your employees? What about your vendors? I'm constantly coming across organizations that are storing intellectual property and other sensitive data in Microsoft Teams, so they can collaborate with that data in a centralized manner. I'm also learning that most of those organizations are enabling guest access and allowing outside vendors to have access to that data and the resources within the team. A good example of this is an outside marketing agency that you contract with for event marketing, online marketing, etc. What if a guest of that team (or employee), accidently (or intentionally) uploads malware to the team (but masks it as a file called MarketingRoadmap.pptx), and an employee of the organization opens the file? The malware could now spread throughout your environment. This is where Office 365 Advanced Threat Protection (ATP) comes in. ATP can help to safeguard your organization from this threat by "detonating" (executing) files uploaded to Microsoft Teams (specifically the SharePoint/Office 365 Group on the back-end) to validate it is a legitimate file and contains no malicious code that can cause harm. This feature comes with Microsoft 365 E5, Office 365 E5, or available as an add-on to an existing Office 365 subscription. In this blog, I'm going to describe how to enable this feature, perform a test, and show you alerting.

       

      Upcoming changes to Exchange Web Services (EWS) API for Office 365

      Over the last few years, we have been investing in services that help developers access information in Office 365 in a simple and intuitive way, specifically through Microsoft Graph. Microsoft Graph and the use of OAuth 2.0 provide increased security and seamless integration with other Microsoft cloud services and is rapidly expanding developer access to the rich data sets behind Microsoft applications. As we make progress on this journey, we have continued to evaluate the role of Exchange Web Services (EWS). We are sharing our plans to move away from Basic Authentication access for EWS over the next two years, with support ending Oct. 13, 2020. Note: These plans apply only to the cloud-based Office 365/Exchange Online products; there are no changes to EWS capabilities of on-premises Exchange products. Also starting today, Exchange Web Services (EWS) will no longer receive feature updates. While the service will continue to receive security updates and certain non-security updates, product design and features will remain unchanged. This change also applies to the EWS SDKs for Java and .NET as well. While we are no longer actively investing in it, EWS will still be available and supported for use in production environments. However, we strongly suggest migrating to Microsoft Graph to access Exchange Online data and gain access to the latest features and functionality.

       

      NOTEWORTHY

       

      Updated: Office 365 URLs and IP Address Ranges

      July 2, 2018: Updates for Exchange Online, Exchange Online Protection, Microsoft Teams, Office 365 Portal and Shared, Office Mobile, Office Online, SharePoint Online, and Skype for Business Online effective August 1, 2018. Details on the updates are available on the RSS feed and the complete list is located here. | Additional Resources: Managing Office 365 Endpoints, Content Delivery Networks, Client Connectivity, and Office 365 endpoint categories and Office 365 IP Address and URL Web Service.

       

      The Office 365 Teamwork Champion's community is Open!

      You're the Go-To person in your organization for Office 365, among other things. Curious by nature and ready to help, you're motivated by learning new things and ready to lead. You believe that technology can transform the way people work. We're here to connect you with other Champions that share your passion for working better together! You'll meet like-minded passionate thought leaders—so you can share and learn from each other. The Office 365 Champion Program will bring you the latest updates and Microsoft insider views. You'll get exclusive access to Microsoft product experts, and pre-release tools and resources you can use to be a Champion with your peers at work. More details on what is provided and what is coming are included in the post. You can join the program at https://aka.ms/O365Champions. | Related: Welcome to the Driving Adoption Blog!

       

      OneDrive Message Center Updates for June 16-30, 2018

      This post is a recap of OneDrive Message Center posts from the past two weeks. Around the 15th and 30th of each month we will post information on: (1) What is coming, (2) What has been released, and (3) A timetable of when these features might be hitting your tenants categorized into web features, mobile features and sync features. The post for June 16 – 30, 2018 includes information on the following features: (1) Weekly Trends for access statistics for files on OneDrive, (2) File Hover Card now available in Shared by Me View, (3) Mandatory use of TLS 1.2 in Office 365, (4) Mac OneDrive sync client support for IRM content, and many more.

       

      Take your summer back and automate your Office 365 migration

      Get this summer started off on the right foot and accelerate your migration to Office 365. More than 200,000 organizations and 190 million people have SharePoint for intranets, team sites and content management, join the ranks of those transforming their workplace with the SharePoint Migration Tool from Microsoft. Helping people share files and collaborate on content has always been central to SharePoint. At the core of these principles is the content itself, the documents you create, the documents you manage, the documents you share and now we're making it easier than ever to take advantage of the power content management and collaboration capabilities in SharePoint and OneDrive so you can share and manage content, knowledge, and applications to empower teamwork, quickly find information, and seamlessly collaborate across your organization. Based on your feedback, we're pleased to share that we're adding new support for Windows PowerShell to the SharePoint Migration Tool. With these new capabilities you'll be able to address scale migrations and deliver automated, programmatic migration solutions through the SharePoint Migration Tool.

       

      Proposal Manager for financial services helps increase proposal win rates

      The commercial and corporate lending environment is increasingly competitive and squeezing interest margins for banks and lenders. Bank lending teams must navigate a stream of documents—such as client financials, collateral assets, and regulatory attestations. They must follow protocols that thoroughly analyze the risk attached to a credit facility and income potential of business loans and capital investments. Since lending proposals contain sensitive client information, strict privacy, security, and compliance measures are required. In addition, financial services institutions are hampered by disjointed systems and manual processes that are costly and slow—often leading to inconsistent results, higher error rates, and increased costs. To win business in this competitive market, lending teams need the right tools to deliver tailored proposals quickly and easily. Built on the Microsoft 365 platform, the Proposal Manager solution is designed specifically for corporate and commercial banks to: (1) Streamline, automate, and speed up the lending process, (2) Create more effective proposals, and (3) Collaborate across the bank with strict confidentiality. The solution was developed by the Microsoft Financial Services team and developers as part of their focus to build vertical-specific solutions. No other cloud productivity providers offer a true banking-specific, end-to-end proposal management solution—architected from the ground up using the Microsoft 365 productivity suite. The solution is fully customizable and adaptable by your enterprise development team.

       

      Customer Key now available in GCC, GCC High, DoD for Exchange Online

      At Ignite last year, we announced several new encryption capabilities including Customer Key, which enables customers to provide and control their own keys that are used to encrypt their Office 365 data at-rest. Customer Key was designed for customers that have certain compliance obligations that require the ability to control their own encryption keys. With Customer Key, you can control your organization's encryption keys and then configure Office 365 to use them to encrypt your data at-rest. Data at-rest includes customer data from Exchange Online and Skype for Business that is stored in mailboxes and files that are stored in SharePoint Online and OneDrive for Business. We are announcing that Customer Key is now generally available for Exchange Online in Office 365 government cloud instances: GCC, GCC High and DoD. We plan to make available Customer Key for SharePoint Online and OneDrive for Business in Office 365 government cloud instances by end of Q3 2018. Customer Key is offered for Exchange Online in the Office 365 Government Community Cloud suite, "E5", and the Advanced Compliance SKU. Additionally, customers must also purchase Azure Key Vault.


      Viewing all 36188 articles
      Browse latest View live


      <script src="https://jsc.adskeeper.com/r/s/rssing.com.1596347.js" async> </script>