Quantcast
Channel: TechNet Blogs
Viewing all 36188 articles
Browse latest View live

The new HCI industry record: 13.7 million IOPS with Windows Server 2019 and Intel® Optane™ DC persistent memory

$
0
0

Written by Cosmos Darwin, Senior PM on the Core OS team at Microsoft. Follow him on Twitter @cosmosdarwin.

intel-microsoft-partnership

 

 

Hyper-converged infrastructure is an important shift in datacenter technology. By moving away from proprietary storage arrays to an architecture built on industry-standard interconnects, x86 servers, and local drives, organizations can benefit from the latest cloud technology faster and more affordably than ever before.

Watch this demo from Microsoft Ignite 2018:

Intel® Optane™ DC persistent memory delivers breakthrough storage performance. To go with the fastest hardware, you need the fastest software. Hyper-V and Storage Spaces Direct in Windows Server 2019 are the foundational hypervisor and software-defined storage of the Microsoft Cloud. Purpose-built for efficiency and performance, they're embedded in the Windows kernel and meticulously optimized. To learn more about hyper-converged infrastructure powered by Windows Server, visit Microsoft.com/HCI.

For details about this demo, including some additional results, read on!

Hardware

iops-hardware

The reference configuration Intel and Microsoft used for this demo.

  • 12 x 2U Intel® S2600WFT server nodes
  • Intel® Turbo Boost ON, Intel® Hyper-Threading ON

Each server node:

  • 384 GiB (12 x 32 GiB) DDR4 2666 memory
  • 2 x 28-core future Intel® Xeon® Scalable processor
  • 5 TB Intel® Optane™ DC persistent memory as cache
  • 32 TB NVMe (4 x 8 TB Intel® DC P4510) as capacity
  • 2 x Mellanox ConnectX-4 25 Gbps

optane-module

Intel® Optane™ DC modules are DDR4 pin compatible but provide native storage persistence.

Software

Windows OS. Every server node runs Windows Server 2019 Datacenter pre-release build 17763, the latest available on September 20, 2018. The power plan is set to High Performance, and all other settings are default, including applying relevant side-channel mitigations. (Specifically, mitigations for Spectre v1 and Meltdown are applied.)

Storage Spaces Direct. Best practice is to create one or two data volumes per server node, so we create 12 volumes with ReFS. Each volume is 8 TiB, for about 100 TiB of total usable storage. Each volume uses three-way mirror resiliency, with allocation delimited to three servers. All other settings, like columns and interleave, are default. To accurately measure IOPS to persistent storage only, the in-memory CSV read cache is disabled.

Hyper-V VMs. Ordinarily we’d create one virtual processor per physical core. For example, with 2 sockets x 28 cores we’d assign up to 56 virtual processors per server node. In this case, to saturate performance took 26 virtual machines x 4 virtual processors each = 104 virtual processors. That’s 312 total Hyper-V Gen 2 VMs across the 12 server nodes. Each VM runs Windows and is assigned 4 GiB of memory.

VHDXs. Every VM is assigned one fixed 40 GiB VHDX where it reads and writes to one 10 GiB test file. For the best performance, every VM runs on the server node that owns the volume where its VHDX file is stored. The total active working set, accounting for three-way mirror resiliency, is 312 x 10 GiB x 3 = 9.36 TiB, which fits comfortably within the Intel® Optane™ DC persistent memory.

Benchmark

There are many ways to measure storage performance, depending on the application. For example, you can measure the rate of data transfer (GB/s) by simply copying files, although this isn’t the best methodology. For databases, you can measure transactions per second (T/s). In virtualization and hyper-converged infrastructure, it’s standard to count storage input/output (I/O) operations per second, or “IOPS” – essentially, the number of reads or writes that virtual machines can perform.

More precisely, we know that Hyper-V virtual machines typically perform random 4 kB block-aligned IO, so that’s our benchmark of choice.

How do you generate 4 kB random IOPS?

  • VM Fleet. We use the open-source VM Fleet tool available on GitHub. VM Fleet makes it easy to orchestrate running DISKSPD, the popular Windows micro-benchmark tool, in hundreds or thousands of Hyper-V virtual machines at once. To saturate performance, we specify 4 threads per file (-t4) with 16 outstanding IOs per thread (-o16). To skip the Windows cache manager, we specify unbuffered IO (-Su). And we specify random (-r) and 4 kB block-aligned (-b4k). We can vary the read/write mix by the -w

In summary, here’s how DISKSPD is being invoked:

.diskspd.exe -d120 -t4 -o16 -Su -r -b4k -w0 [...]

How do you count 4 kB random IOPS?

  • Windows Admin Center. Fortunately, Windows Admin Center makes it easy. The HCI Dashboard features an interactive chart plotting cluster-wide aggregate IOPS, as measured at the CSV filesystem layer in Windows. More detailed reporting is available in the command-line output of DISKSPD and VM Fleet.

windows-admin-center

The HCI Dashboard in Windows Admin Center has charts for IOPS and IO latency.

The other side to storage benchmarking is latency – how long an IO takes to complete. Many storage systems perform better under heavy queuing, which helps maximize parallelism and busy time at every layer of the stack. But there’s a tradeoff: queuing increases latency. For example, if you can do 100 IOPS with sub-millisecond latency, you may be able to achieve 200 IOPS if you accept higher latency. This is good to watch out for – sometimes the largest IOPS benchmark numbers are only possible with latency that would otherwise be unacceptable.

Cluster-wide aggregate IO latency, as measured at the same layer in Windows, is charted on the HCI Dashboard too.

Results

Any storage system that provides fault tolerance necessarily makes distributed copies of writes, which must traverse the network and incurs backend write amplification. For this reason, the absolute largest IOPS benchmark numbers are typically achieved with reads only, especially if the storage system has common-sense optimizations to read from the local copy whenever possible, which Storage Spaces Direct does.

With 100% reads, the cluster delivers 13,798,674 IOPS.

iops-record

Industry-leading HCI benchmark of over 13.7M IOPS, with Windows Server 2019 and Intel® Optane™ DC persistent memory.

If you watch the video closely, what’s even more jaw-dropping is the latency: even at over 13.7 M IOPS, the filesystem in Windows is reporting latency that’s consistently less than 40 µs! (That’s the symbol for microseconds, one-millionths of a second.) This is an order of magnitude faster than what typical all-flash vendors proudly advertise today.

But most applications don’t just read, so we also measured with mixed reads and writes:

With 90% reads and 10% writes, the cluster delivers 9,459,587 IOPS.

In certain scenarios, like data warehouses, throughput (in GB/s) matters more, so we measured that too:

With larger 2 MB block size and sequential IO, the cluster can read 535.86 GB/s!

Here are all the results, with the same 12-server HCI cluster:

Run Parameters Result
Maximize IOPS, all-read 4 kB random, 100% read 13,798,674 IOPS
Maximize IOPS, read/write 4 kB random, 90% read, 10% write 9,459,587 IOPS
Maximize throughput 2 MB sequential, 100% read 535.86 GB/s

Conclusion

Together, Storage Spaces Direct in Windows Server 2019 and Intel® Optane™ DC persistent memory deliver breakthrough performance. This industry-leading HCI benchmark of over 13.7M IOPS, with consistent and extremely low latency, is more than double our previous industry-leading benchmark of 6.7M IOPS. What’s more, this time we needed just 12 server nodes, 25% fewer than two years ago.

iops-gains

More than double our previous record, in just two years, with fewer server nodes.

It’s an exciting time for Storage Spaces Direct. Early next year, the first wave of Windows Server Software-Defined (WSSD) offers with Windows Server 2019 will launch, delivering the latest cloud-inspired innovation to your datacenter, including native support for persistent memory. Intel® Optane™ DC persistent memory comes out next year too – learn more at Intel.com/OptaneDCPersistentMemory.

We’re proud of these results, and we’re already working on what’s next. Hint: even bigger numbers!

Cosmos and the Storage Spaces Direct team at Microsoft,
and the Windows Operating System team at Intel

intel-microsoft-partnership


Lilly visualiza un lugar de trabajo donde la colaboración interna y externa ayuda a potenciar la innovación y acelerar la llegada al mercado de nuevos medicamentos

$
0
0

Por: Mike Meadows, vicepresidente y jefe de tecnología en Eli Lilly and Company.

En Lily tenemos una expresión que inspira a diario a nuestra fuerza laboral: el paciente espera. Este enfoque comunica nuestra cultura, nos motiva a trabajar más rápido, y nos ayuda a cumplir la promesa de hacer la vida mejor para los pacientes de todo el mundo. Está detrás de todo lo que hacemos en Lilly, desde perseguir una molécula en un laboratorio a desarrollar nuevas maneras de relacionarse con pacientes, e incluso reparar un servidor o un problema con la red.

Mantenemos nuestro reto de descubrir nuevas terapias y acelerar su llegada al mercado. El proceso es muy lento, y aunque con claridad es difícil y complejo, nuestra capacidad de llegar más rápido es clave. Necesitamos forjar nuevas asociaciones, cumplir con un complejo ambiente regulatorio, mantener la calidad y seguridad al frente, y reducir costos. Todos estos elementos que en apariencia están en conflicto ponen una presión significativa en cómo cumplimos nuestra promesa.

Lilly responde a estos retos con un nuevo pensamiento a través de nuestro ciclo de proceso de negocio. A través de la investigación, desarrollo de producto, fabricación, y relación con el cliente, trabajamos en capacidades de siguiente generación para mejorar nuestra velocidad y productividad.

Nuestro ambiente de trabajo, y cómo interactuamos entre nosotros, no está exento de dicha transformación, y en parte será soportado por las tecnologías de nube de Microsoft 365. Podemos ver que Microsoft ha conseguido grandes avances en su propia transformación para satisfacer mejor las necesidades de los clientes, y con certeza, esto ha jugado un rol en nuestro interés por las tecnologías Microsoft para nuestras propias metas de transformación del lugar de trabajo.

Fomentar una colaboración fluida y el trabajo creativo en equipo a nivel global son clave, pues requerimos diferentes ideas para reunirnos y generar nuevas capacidades y productos. De manera básica, esa es la definición de innovación, y la innovación es nuestra esencia. Con instalaciones alrededor del mundo en investigación y Desarrollo (R&D), manufactura, y servicios administrativos, nuestra capacidad de colaborar a través de diversas culturas, maneras de pensar y lenguajes, tienen un impacto enorme en acelerar nuestros flujos de trabajo para innovación de producto y nuestra promesa con los pacientes.

Hemos utilizado Microsoft Exchange Online y aplicaciones de Office por años, pero la interoperación mejorada entre herramientas como Microsoft Teams e innovadores dispositivos como Surface Hub y HoloLens tiene el potencial para llevar la colaboración al siguiente nivel.

En la investigación de la actualidad, tenemos dos ambientes primarios en funcionamiento: el laboratorio, donde los científicos en batas de laboratorio conducen sus experimentos aislados de sus colegas; y el tradicional espacio de oficina ocupado por administración y dirección. Entre estos dos ambientes no sucede mucha colaboración en tiempo real. Si un científico tiene una idea brillante en el laboratorio, para llevarla a cabo o compartirla con sus colegas requiere parar lo que hace, quitarse el equipo, y regresar a la oficina para llamar o escribir un email a alguien.

Imaginamos disolver estas barreras físicas a través de algo que llamamos “colaboración en laboratorio”, al colocar las herramientas de comunicación y colaboración dentro de nuestros laboratorios que impulsan a nuestros científicos a compartir una chispa creativa con otros científicos alrededor del mundo, o con el gerente de desarrollo clínico que se encuentra un piso arriba. Con el uso de Surface Hubs para bocetar ideas, realizar videollamadas en Office 365, y chatear en tiempo real a través de Teams, fomentamos la innovación a escala y podemos ayudar a asegurar que no se pierdan las grandes ideas.

En el ambiente de la atención médica actual, trabajamos más y más con innovadores fuera de la misma compañía. Estamos en la búsqueda de nuevos escenarios donde Lilly podría correr experimentos en un acuerdo rentable llamado “lab-as-a-service” (laboratorio como servicio), donde podemos aprovechar de manera rápida y fluida, y conforme los necesitemos, laboratorios de especialidades en un modo de tipo arrendamiento de parte de nuestros socios, para facilitar la investigación y el desarrollo. Cada vez más, conforme seguimos la ciencia para nuevos diseños experimentales y nuevas tecnologías terapéuticas (terapia de receptor de antígeno quimérico, vacunas para el cáncer, terapias digitales, etc.), estamos menos enfocados en construir laboratorios durables y estáticos. En lugar de eso, accedemos de manera dinámica a capacidades de laboratorio “elástico” que impulsarán la evolución continua de nuestra estrategia de investigación y desarrollo. Nuestras nuevas soluciones de colaboración basada en la nube avanzarán un largo camino hacia apoyar el trabajo en equipo de manera virtual con proveedores fuera de nuestras paredes.

Cuando colaboramos de manera eficiente, impulsamos la productividad al ayudarnos a trabajar más rápido. Uno de los beneficios más significativos en Lilly de trabajar más rápido girará alrededor de cambiar nuestros procesos en el lugar de trabajo para utilizar Teams a diario a través de la empresa. Conducimos cerca de 300 proyectos piloto en Teams alrededor del mundo dentro de los departamentos de TI, investigación, y mercadotecnia. Cuando los canales de comunicación están orientados a flujos de trabajo particulares de proyecto, los documentos están en un solo lugar. Podemos agregar flujos creativos con miembros del equipo alrededor del mundo, para abrir las posibilidades colaborativas en Lilly. Teams también facilita la autoría en conjunto, un beneficio significativo dada la abundancia de documentación que esta industria requiere. Cada vez que podamos pasar menos tiempo en la corrección y en pasar versiones entre la gente, habrá una ganancia en la eficiencia para gestionar el negocio.

Como tecnólogo, siempre busco este tipo de oportunidades para un cambio positivo en nuestros hábitos laborales. Al mirar hacia atrás cuando implementamos Exchange Online, migramos más de 70 mil buzones de correo para nuestros empleados y colaboradores en menos de nueve meses con una transición fluida, la cual también les brindó un almacenamiento casi ilimitado para mejorar sus vidas laborales. Creo que podemos generar más éxito como ese con Microsoft 365. Esperamos que Windows 10, con sus actualizaciones continuas y nuevas capacidades, será un buen ejemplo. Adicional a esto, las capacidades de IA que están integradas en Office 365, incluso para algo tan rutinario como automatizar cómo agendamos reuniones, puede ser un impulso para nuestra cultura.

Y cuando se trata de cumplimiento regulatorio y seguridad, por años he creído que tenemos la oportunidad de poder cumplir más y ser más seguros en la nube, en lugar de menos. Las capacidades que vemos en el ambiente de la Nube de Microsoft son la más reciente confirmación de estos instintos. Cumplir con los requerimientos regulatorios en esta industria de ciencias de la vida es siempre algo obvio en Lilly, pero las características de seguridad en Microsoft 365 ayudan a mejorar la manera en la que cumplimos con los requerimientos de privacidad de los datos y la calidad. “Seguridad y calidad por diseño” es una de nuestras principales estrategias de TI, y la Nube de Microsoft está alineada con esto.

Hace unos años, Lilly pasó por un significativo periodo de expiración de patentes que retó a nuestro negocio como nunca. Nuestro CEO en ese entonces nos inspiró a duplicar los esfuerzos en innovación y hoy tenemos una fuerte cartera de nuevas moléculas para ayudar a cumplir nuestro propósito. Nuestro CEO actual inspira un creciente sentido de trabajo en equipo, velocidad y productividad. Utilizar servicios dentro de Microsoft 365 es un componente de ese impulso y nos ayudará a posicionarnos en una posición aún mejor para continuar con la innovación requerida para cumplir nuestra promesa con los pacientes de todo el mundo.

—Mike Meadows

Adjusting Alert Storm thresholds on SCOM Agents

$
0
0

 

One of the features that has existed since SCOM 2007R2, is the ability to adjust Alert Storm thresholds on an agent by agent basis.  The default is any agent that generates 50 alerts, in a 60 second window – will auto-disable that workflow for 10 minutes to control alert storms.

All of this activity occurs on the agent itself.  There is an alert generated to let you know you are having an alert storm – but the alert is in response to an event in the SCOM agent’s event log only.

Log Name:      Operations Manager
Event ID:      5399
Computer:      SERVER.opsmgr.net
Description:
A rule has generated 3 alerts in the last 5 seconds.  Usually, when a rule generates this many alerts, it is because the rule definition is misconfigured.  Please examine the rule for errors. In order to avoid excessive load, this rule will be temporarily suspended until 2018-10-30T15:23:42.2572524-05:00.
Rule: SCOM.Management.TestEvent100.Rule

image

 

This is configurable on a per-agent basis, if you wish – via the registry:

HKLMSYSTEMCurrentControlSetServicesHealthServiceParametersManagement Groups<MGNAME>

Create three REG_DWORD values:

Alert Count - number of alerts from a single workflow to trigger an event about the alert storm

Alert Count Interval – the time period in SECONDS in which the number of alerts will be observed

Alert Suspend Interval – the number of SECONDS you want the workflow temporarily disabled

 

image

 

You will need to restart the Microsoft Monitoring Agent (Healthservice) on the agent, in order for these changes to take effect.  You could consider even changing these on a large scale using a SCOM workflow, task, script, or via GPO.

New Azure Government Services for partners

$
0
0

With Microsoft’s announcement of new Azure Government services, fresh mission scenarios for government agencies have opened up that were not possible before. For partners with a focus on public-sector industry and who have an interest in expanding public sector business through areas like data platform modernization and cloud infrastructure & management, they may find value in the following services and resources:

Azure Reservations

Azure Reservations can help save money by pre-paying for one-year or three-years of virtual machine, SQL Database compute capacity, Azure Cosmos DB throughput, or other Azure resources.

Azure Hybrid Benefit

Azure Hybrid Benefit allows for more value from Windows Server licenses and results in savings of up to 40 percent on virtual machines. Azure Hybrid Benefit for SQL Server is an Azure-based benefit that enables the use of SQL Server licenses with active Software Assurance to pay a reduced rate.

Azure Data Box Family

Azure Data Box products provide both offline and online solutions for moving data to the cloud.

    • Data Box, Data Box Disk, and Data Box Heavy devices help transfer large amounts of data to Azure when the network isn’t an option.
    • Data Box Edge and Data Box Gateway are online data transfer products that act as network storage gateways to manage data between on-premises and Azure.

Azure Data Box Edge

Azure Data Box Edge is a storage solution that will process data and send it over network to Azure. Data Box Edge uses a physical device supplied by Microsoft to accelerate the secure data transfer. The physical device resides on-premises and you write data via the NFS and SMB protocols.

Azure FastTrack for Government

FastTrack for Azure Government provides direct assistance from Azure engineers, working together with customers & partners, to help build Azure solutions quickly and confidently.

Expanded FedRAMP

Microsoft announced the expansion of FedRAMP Moderate coverage to Azure public cloud regions. A total of 50 services are now available, creating new partner practice opportunities across various federal agencies. Here is the list of Azure and Azure Gov authorizations

You can find additional details about these new capabilities here.

Join our Community call to learn more

Excited about these announcements or simply want to hear more? Register for the Public Sector community call on Thursday November 8, 2018. We’ll have a conversational dialogue and bring you up to speed about these new Azure Government services.

Useful Links

Public Sector Technical Community

Windows Server Upgrade Center

$
0
0

TimTetrickPhoto

Tim Tetrick

 

Hello Microsoft Partners!

Do you have questions about upgrading to the newest Windows Server OS? Are you looking for guidance on how to upgrade from one OS to another? And what consideration needs to be taken before and after upgrading?

If so, take a look at the Windows Server Upgrade Center which provides step-by-step guidance for modernizing your datacenter.

clip_image002

When you upgrade a Windows Server in-place, you move from an existing operating system release to a more recent release while staying on the same hardware. Windows Server can be upgraded in-place at least one, and sometimes two versions forward.  For example, Windows Server 2012 R2 and Windows Server 2016 can be upgraded in-place to Windows Server 2019.

The following graphic shows the upgrade paths for Windows Server. Downward pointing arrows represent the supported upgrade path moving from older versions up to Windows Server 2019. You can upgrade from an evaluation version of the operating system to a retail version, from an older retail version to a newer version, or, in some cases, from a volume-licensed edition of the operating system to an ordinary retail edition.

clip_image002[5]

Hope you find this resource helpful!

Azure サポート エンジニア説明会+キャリア相談会を 11 月にも開催します

$
0
0

今年の 5 月、10 月と開催してきた Azure サポート エンジニアの説明会・キャリア相談会ですが、好評のため 11 月にも再度開催させていただくことが決定しましたのでご案内いたします。

 

Azure のサポート部門ではエンジニアを募集しています。

ポジションとしては、私ども、Azure AD、AD FS、Azure AD Connect などを担当する Azure Identity チームをはじめ、IaaS Networking/Platform でも募集中です。

募集職種

  • Support Engineer (Azure Identity)
  • Support Engineer (Azure IaaS Networking)
  • Support Engineer (Azure IaaS Platform)

 

詳細について説明させていただければと思いまして、2018/11/14 () 19:00 から弊社品川オフィスにて、募集職種についての説明会、MS でのキャリアについて相談会を開催します。
興味のある方は下記 リンクより事前にお申し込みの上、ぜひご参加ください。

Azure サポート エンジニア 説明会、相談会 申し込みフォーム

日時: 2018/11/14 (水) 19:00~
場所: 品川マイクロソフト オフィス (最寄り駅: JR 品川駅)

 

こちらも見たことない方はぜひ → Azureサポート エンジニアの魅力とやりがいとは?
https://japan.zdnet.com/extra/microsoft_support_201803/35116283/

 

Azure が大好き! という皆さまのご参加・ご応募お待ちしています!

最新情報: Microsoft Partner Network の 2018 年 10月の情報まとめ【10/31 更新】

$
0
0

パートナー様必見の 10 月のアップデートが更新されていますのでお知らせします。お時間のある時にぜひご覧ください。

閲覧には MPN アカウントでログインが必要なものもありますのでご注意ください。

 

[イベント] … パートナー様向けイベント情報
[セミナー] … パートナー様向けセミナー情報
[トレーニング] … スキルアップ支援情報
[セールス] … 営業/マーケティングご担当者向け情報
[テクニカル] … 技術者向け情報
[サポート] … サポート情報
[製品] … 製品情報
[ライセンス] … ライセンスに関する情報
[プログラム] … パートナーネットワークに関する情報

10 月

[ニュース] Japan Partner Conference 2018 Tokyo セッション動画とスライドを公開!

[ニュース] 東芝デジタルソリューションズグループと日本マイクロソフトがデジタルトランスフォーメーション推進において協業

[ニュース] Adobe、マイクロソフト、SAP が新世代の顧客体験を支援するための Open Data Initiative を発表

[ニュース] 金融情報システムセンター (FISC) からの新安全対策基準 (9) にいち早く対応するマイクロソフトのクラウドサービス

[ニュース] Power of Partners and Microsoft 日本の社会変革を目指して

[ニュース] 日本マイクロソフト ヘルスケア(医療・製薬)分野における方針と新施策を発表

[製品] TLS 1.0/1.1 廃止に伴う 10/31 までの Skype for Business 必須アップグレード

[サポート] モダン デスクトップへの移行を支援

[プログラム] FY19 Cloud Everywhere プログラムのご案内

[イベント] Microsoft CEO サティア ナデラ 基調講演に登壇! Microsoft Tech Summit 2018 (11/5-7開催)

[トレーニング] パートナー様向けテクニカルセミナー Windows 10 更新プログラム管理 インフラ比較と理解 (2018 年 8 月) オンライン コース

[トレーニング] パートナー様向けテクニカルセミナー Windows 10移行に伴うアプリケーションの移行 (2018 年 8 月) オンライン コース

[トレーニング] MCP 70-533 受験対策セミナー ~Microsoft Azure インフラストラクチャ ソリューションの実装~(2018 年 7 月)

[トレーニング] Dynamics 365 for Marketing 機能概説 (2018 年 6 月) オンライン コース

[セールス] [事例] パシフィックリーグマーケティング株式会社

[セールス] [事例] アサヒビール株式会社

[セールス] [事例] 東京電力パワーグリッド株式会社

[セールス] [事例] 東宝株式会社

[キャンペーン] 《最長 2018 年 11 月まで》 SQL Server on Linux スペシャル キャンペーン開始

 

 

過去の毎月の最新情報はこちらをご参照ください。

▼ マイクロソフト最新情報

▼ 過去のニュースはこちらから

 

 

 

Azure Security Center でセキュリティ ポスチャと脅威に対する保護を強化

$
0
0

執筆者: Gilad Elyashar (Principal PM Manager, Azure Security Center)

このポストは、2018 9 26 日に投稿された Strengthen your security posture and protect against threats with Azure Security Center の翻訳です。

 

先日、お客様と話した際に、そのお客様が直面しているオンプレミスのセキュリティ課題をシェアしていただきました。具体的にどのような課題があるかというと、セキュリティ エキスパートをどのように雇用し維持するか、増え続ける脅威にどうすれば迅速に対処できるか、自社のコンプライアンス要件に合ったセキュリティ ポリシーを用意できるかなどです。

このような課題は、クラウドへ移行することで解決できます。Microsoft Azure は、インフラストラクチャやアプリケーションをホストするための安全な基盤を提供しています。また、組み込みのセキュリティ サービスや独自のインテリジェンスにより、ワークロードをすばやく保護したり、脅威を未然に防止したりできます。マイクロソフトのセキュリティ ツールは、ID、ネットワーク、データ、IoT など、幅広く脅威の対策やセキュリティ ポスチャの管理にお役立ていただけます。今回は、純正サービスとして統合されている Azure Security Center をご紹介します。

Security Center Azure プラットフォームに組み込まれており、わずか数ステップの簡単な操作を行うだけで大規模なワークロードを保護できます。エージェント ベースのアプローチを採用しているため、Azure 以外のクラウドやオンプレミスも含めた環境全体のセキュリティ状態の継続的な監視や評価が可能です。Icertis (英語) Stanley Healthcare (英語) などのお客様は、セキュリティ監視の強化や簡素化にこのサービスを活用しています。Azure Security Center は、問題を迅速に分析して柔軟に対応できる、マイクロソフトやサードパーティ製の統合型ソリューションを提供します。わずか数クリックの操作でサービスを有効化すれば、複雑なセキュリティ管理から解放されます。

このたび、ハイブリッド環境全体でのセキュリティ ポスチャと脅威に対する保護を強化するための機能を複数発表しました。

セキュリティ ポスチャの強化

Secure Score でセキュリティを総合的に強化: Secure Score を活用することで企業のセキュリティ ポスチャを明確化することができます。この機能は、サブスクリプションや管理グループ全体のすべての推奨事項に優先順位を付け、まずどの脆弱性から対応するべきかを示します。影響の大きい問題を迅速に修正することで Secure Score が大きく上がり、セキュリティ ポスチャがどれくらい改善されたかを把握できます。

Secure Score

新しいネットワーク トポロジ マップとの連携: 新しいネットワーク トポロジ マップを使用して仮想ネットワーク、サブネット、ノードのセキュリティ状態を明確に示すことができます。ネットワーク コンポーネントを確認する際に、表示される推奨事項に従ってネットワーク内で検出された問題に迅速に対応できます。また、Security Center でワークロードのネットワーク セキュリティ グループのルールを継続的に分析し、ワークロードでアクセス可能なすべての VM を含むグラフをネットワーク トポロジ マップ上に表示します。

Network map

組織レベルのセキュリティ ポリシー定義でコンプライアンス要件に準拠: セキュリティ ポリシーを企業レベルで設定し、すべてのサブスクリプションをコンプライアンス要件に準拠させることができます。さらに、企業内の管理グループでもセキュリティ ポリシーを設定できます。企業全体、各サブスクリプション、各管理グループのコンプライアンス スコアによってセキュリティ ポリシーが準拠しているかどうか簡単に確認できるため、問題点をすばやく把握して対応できます。

新しいコンプライアンス ダッシュボードで状況を監視して報告: コンプライアンス ダッシュボードは、クラウド環境のコンプライアンス状況を監視するための機能です。CISPCISOCISO などのコンプライアンス標準に準拠するための推奨事項を提示します。

Regulatory Compliance

ポリシーをカスタマイズして Azure のデータ リソースの情報を保護: 情報ポリシーをカスタマイズして、Azure データ リソース内の機密データの検出、分類、ラベル付け、保護などができるようになりました。このデータ保護機能は、コンプライアンス要件やプライバシー要件への準拠、および特に機密性が高い情報にアクセス可能なユーザーを制限する際に役立ちます。データ セキュリティの詳細については、こちらのドキュメント (英語) をご覧ください。

コンテナーと Docker ホストのセキュリティ評価: Linux 仮想マシンで実行されているコンテナーのセキュリティ状態を把握できます。ここでは、Docker で実行中の仮想マシンの分析結果や CIS 製の Docker 用ベンチマークに基づくセキュリティ評価が表示されます。

進化する脅威からの保護

Windows Defender Advanced Threat Protection サーバー (WDATP) との統合: Security Center は、インフラストラクチャを狙うさまざまな脅威を検出します。WDATP との統合により、Windows Server 用エンドポイント脅威検出機能 (Server EDR) を使用できるようになりました。マイクロソフトの豊富な脅威インテリジェンスに基づいて WDATP が攻撃ツールや手法を通知するため、管理者は脅威の詳細を把握して対処することができます。侵害に関する情報は、[Security Center] ブレードのインタラクティブな [Investigation Path] で確認できます。Azure Security Center に登録しているオンプレミスの Windows Server では、WDATP は自動的に有効化されています。

Linux での脅威検出: さまざまな Linux ディストリビューションで、Security Center の高度な脅威検出機能を使用できます。ワークロードが実行されているオペレーティング システムや場所にかかわらず、脅威への対応に必要な情報をすばやく取得できます。この機能では、不審なプロセス、ログイン試行、カーネル モジュール改ざんなどを検出します。

適応型ネットワーク制御: パブリック クラウド上のワークロードに対する攻撃では、パブリック インターネットとの接続部分が特に狙われやすくなります。Security Center は、Azure ワークロードのネットワーク接続パターンを学習し、ネットワーク セキュリティ グループにおけるネットワーク アクセス ポリシーの構成に関するさまざまな推奨事項を提示して、攻撃の可能性を抑制します。マイクロソフトの膨大な脅威インテリジェンス レポートに基づき、過去に効果の低かった措置はこの推奨事項から除外されます。

Azure Storage Blob および Azure Postgre SQL の脅威検出: Security Center では、仮想マシンだけでなく、Azure ストレージ アカウントや Azure PostgreSQL サーバーのデータを狙う脅威も検出できます。異常なアクセス試行やデータ侵害にすばやく対応し、問題を調査します。

また、Azure App Service に対する脅威を検出し、アプリケーションを保護するための推奨事項も提示します。

Fileless Attack Detection: Security Center では、幅広い高度なメモリ フォレンジック手法を使用して、これまで検出されなかったメモリに潜伏するマルウェアを特定します。リッチなコンテキスト情報に基づいて、アラートのトリアージ、関連付け、分析、パターン抽出を実行します。

適応型アプリケーション制御: 不正なアプリケーションを監査し、仮想マシンでの実行をブロックできる機能です。アプリケーションでの不審な動作や設定ポリシーからの逸脱に対応できるように、Security Center がホワイトリストのポリシー違反に関するアラートを生成します。また、[Not recommend] カテゴリに分類された仮想マシンのグループでこの機能を有効化すると、Azure Windows 仮想マシン上の全アプリケーションを確実にホワイトリストに適合させることができます。

Just-in-Time VM Access: 管理ポートをロックダウンし、一定の時間内のみ開くようにして、ブルート フォース攻撃を受けるリスクを軽減します。ポートへの接続方法やユーザー アクセス可能な時間などのルールを設定できます。また、Just-in-Time VM Access で設定したルールが、ネットワーク セキュリティ グループの既存構成に相反しないようにします。

ファイル整合性監視 (FIM): オペレーティング システムやアプリケーション ソフトウェアを攻撃から守るために、Windows のファイルとレジストリ、および Linux ファイルの動作を継続的に監視します。Windows ファイルの場合、再帰、ワイルドカード、環境変数, (英語) を使用して変更を検出できます。異常なファイル変更が行われた場合、または不審な動作が検出された場合、Security Center がアラートを生成するため、ファイルを常に管理できます。

Azure Security Center の新機能をご利用ください

一般提供中の機能: 企業レベルのセキュリティ ポリシー、適応型アプリケーション制御、特定のロールに対する Just-in-Time VM AccessJust-in-Time VM Access のネットワーク セキュリティ グループのルールの調整、ファイル整合性監視 (FIM)Linux 向けの脅威検出、Azure App Service での脅威検出、Fileless Attack Detection、アラートの Confidence ScoreWindows Defender Advanced Threat Protection (ATP) の統合

パブリック プレビュー中の機能: コンテナーのセキュリティ状態、ネットワーク トポロジ マップ、Azure SQL の情報の保護、Azure Storage Blob および Azure Postgre SQL の脅威検出、Secure Score

コンプライアンス ダッシュボード (英語) 適応型ネットワーク制御 (英語) などの機能は限定プレビューとして提供中です。お問い合わせのうえ、早期プレビューにご参加ください。

Azure Security Center の詳細

オーランドで開催される Ignite 2018 にご参加の方は、ぜひ Azure セキュリティ ブースにお立ち寄りください。9 26 () 午後 2 15 分~ 3 (米国東部夏時間) (9 27 () 午前 4 15 分~ 5 (日本時間)) に開催される Azure Security Center のセッションへのご参加もお待ちしております。会場でお会いできることを楽しみにしています。

Security Center の機能を実装する方法は、こちらのドキュメントをご覧ください。

 


製造業向けの IoT ソリューション: 構築するか、購入するか?

$
0
0

執筆者: Diego Tamburini (Principal Manufacturing Industry Lead - Azure Industry Experiences Team)

このポストは、2018 年 10 月 2 日に投稿された IoT solutions for manufacturing: build or buy? の翻訳です。

 

製造業を営む企業のお客様が IoT の導入を検討する際によく戸惑われているのが、IoT ベンダーやプラットフォームの数があまりに多いことです。IoT はまだ新しい分野で、流通するパーツや製品の多くが発展途上です。そして、何から手を付けてよいのかわからないと考えている企業は御社だけではありません。この記事では、製造業を営むお客様とのやり取りをベースに、IoT 導入の概要とその手順についてご説明したいと思います。

IoT ソリューションの構成要素

IoT ソリューションを構築すべきか購入すべきかを判断するには、まずどのようなソリューションが必要かを正確に理解することが重要です。IoT ソリューション スタックの主な構成要素を図にまとめました (図 1)。下の層から順に説明します。

図 1: IoT ソリューションの構成要素

  1. クラウド プラットフォーム: 開発者がクラウド ベースのソリュ-ションの開発に使用する汎用 PaaS サービスです。ここには、メッセージング、ストレージ、コンピューティング、セキュリティなどが含まれます。Microsoft Azure などのクラウド プラットフォームには、分析サービスIoT サービスも含まれます。
  2. IoT プラットフォーム: IoT ソリューションの開発を支援する IoT 専用の PaaS/SaaS サービスや開発ツールです。これらは汎用クラウド プラットフォーム上に構築されることが多く、スケーラビリティ、信頼性、パフォーマンス、セキュリティが考慮されています。製造業の知識が豊富な企業が開発した IoT プラットフォームは、汎用クラウド プラットフォームにはない付加価値を備えています。そのため、IoT 導入の価値を短期間で実現することができます。
  3. IoT ソリューション: デバイスへの物理接続からデータの取得、保存、変換、分析、ユーザー インターフェイスまでを担う、エンドツーエンドのソフトウェア システムです。
  4. IoT アプリケーション: IoT ソリューションの中でユーザーが直接操作する部分です。IoT データを視覚化および処理して抽出したインサイトを基に、意思決定や対応を実行します。通常、1 つの IoT ソリューションには、特定のユーザーや使用方法を想定した複数の IoT アプリケーションが含まれています。IoT アプリケーションにはさまざまな種類や形式があります。

下の図 2 は、顧客が保有するすべての航空機のエンジンの正常性を示すブラウザー ベースのダッシュボードです。アラートが発生すると強調表示され、そのエンジンの状態を詳しく見ることができます。

図 2

図 3 は、機械部品の耐用年数を予測して表示するモバイル アプリです。

図 3

図 4 は、メンテナンス作業の場所の情報を現実世界と重ねて表示できる拡張現実アプリです。

図 4

(IoT アプリケーションの例は Rolls Royce (英語)Sandvik Coromant (英語)Thyssenkrupp Elevator (英語) 各社にご提供いただきました。)

構築と購入の比較

企業が IoT ソリューションを開発する際には、2 つのオプションがあります。

  1. IoT プラットフォームを購入する: ベンダーからプラットフォームを購入し、ソリューションを開発する
  2. ソリューションを構築する: クラウド プラットフォームに備わっている IoT サービスや分析サービスを使用して、直接プラットフォーム上にソリューションを構築する

いずれの場合においても、企業で独自の IoT ソリューションを開発するか、コンサルティング サービスやシステム インテグレーターのサポートを受けるかを選択することができます。

ここでは、IoT ソリューション自体を購入するというオプションは含めていません。完全な初期状態のままで使用できるソリューションをソフトウェア ベンダーから購入するのは、現実的ではないためです。要件、工場の環境、使用方法は企業によってさまざまであるため、ほとんどの場合、自社用のソリューションを構築するか、IoT プラットフォームのソリューション アクセラレータやテンプレートを拡張する必要があります。

また、クラウド プラットフォームから独自に構築するというオプションも含めていません。マイクロソフトなどのクラウド ベンダーが提供する既存のクラウド プラットフォームを使用するのが一般的で、クラウド プラットフォームをゼロから構築するのは現実的ではないためです。

この 2 つのケースで、IoT ソリューションを効率的に開発するためのオプションと、そのメリットとデメリットを表にまとめました。

オプション メリット デメリット
ベンダーから IoT プラットフォームを購入する  ・価値実現までの期間が短い  ・比較的高価

 ・基盤クラウド プラットフォームに制限がある、または選択不可

クラウド プラットフォーム上に構築  ・柔軟性が高い

 ・制御性が高い

 ・比較的安価

 ・既存のクラウド サブスクリプションを利用できる場合がある

 ・クラウド開発スキルが必要

表 1: IoT ソリューションの構築と購入に関するメリットとデメリット

まとめ

IoT ソリューションを構築するか購入するかを判断する際には、これ以外にもさまざまことを考慮する必要があります。その判断材料として、ソリューション ガイド、ポッドキャスト、Web セミナー、パートナーやお客様の事例などを提供していますので、ぜひ製造業のための Azure ページをご覧ください。

 

コマンドによるバックアップの過去の世代の削除手順 1/2

$
0
0

こんにちは、Windows プラットフォーム サポートの加藤です。

Windows Server バックアップを利用する環境では、ディスク容量確保のために、シャドウ コピーの削除が必要となる場合があります。

バックアップの世代管理にはシャドウ コピーが使われているため、標準ではバックアップ取得先にシャドウ コピーが作成されます。シャドウ コピーのデータ量はボリュームの変更量に依存するため、場合によっては、バックアップ取得先のディスク使用量を逼迫させる要因になります。

今回は、コマンドによる、Windows Server バックアップの世代管理に用いられるシャドウ コピーの削除手順についてご紹介いたします。

※ ただし、シャドウ コピーは 1 世代ごとに差分データを管理しているため、ディスク容量確保のためには。最も古い世代から削除対象の世代までのデータを削除する必要がございます。
 

Windows Server バックアップのシャドウ コピーとは

Windows Server バックアップでは、常にバックアップ先に最新のバックアップ データが上書き保存されていくため、古いバージョンのバックアップをシャドウ コピーによって管理しています。
シャドウ コピーには、用途に応じていくつかの種類があり、Windows Server バックアップ実行時 (wbadmin コマンドを用いたバックアップ実行時) に、バックアップ先に自動で作成されるシャドウ コピーは、DataVolumeRollback 属性です。

この属性は、共有フォルダーのシャドウ コピーを削除する際に用いる vssadmin delete shadows では削除できないシャドウ コピーであり、diskshadow コマンドや wbadmin delete backup コマンドを用いて削除する必要があります。シャドウ コピー自体は vssadmin list shadows コマンドから確認することができます。
 


[タイトル] vssadmin コマンドでシャドウ コピーが削除できない場合の対処方法について
[URL] https://blogs.technet.microsoft.com/askcorejp/2013/11/28/vssadmin-2096/

[タイトル] Windows Server バックアップにおける容量と世代管理について
[URL] https://blogs.technet.microsoft.com/askcorejp/2016/05/27/windows_server_backup_space_management/


 

Windows Server バックアップのシャドウ コピーの削除方法

上記の通り、バックアップのシャドウ コピーは、diskshadow コマンドや wbadmin delete backup コマンドを用いて削除を行います。
 

■ それぞれのコマンドによる削除の特徴

diskshadow コマンドと wbadmin delete backup コマンドの特徴、および、メリット・デメリットを、下記にまとめます。
 

diskshadow コマンド
[特徴] シャドウ コピーの種類にかかわらず削除を行うことができる
[メリット] シャドウ コピーの一括削除を行う際には便利
[デメリット] バックアップのリストアを行う際のカタログ データは削除されないため、
リストアできる世代の一覧に削除した世代が残り続ける。
(削除した世代は、リストアに失敗する)
 

wbadmin delete backup コマンド
[特徴] バックアップの世代を削除することができる
[メリット] シャドウ コピーとカタログ データの両方を削除することができる
[デメリット] Windows Server 2012 以降の OS から使用することができる
既知の不具合がある。
 

なお、各 OS 上で各コマンドを実行した際の動作について、下記にまとめます。

OS diskshadow コマンド wbadmin delete backup コマンド
Windows Server 2008 R2
  • カタログは消えない
    → 削除した世代はリストアできない
  • シャドウ コピーは消える
  • コマンドがない
Windows Server 2012 /
Windows Server 2012 R2
  • カタログは消えない
    → 削除した世代はリストアできない
  • シャドウ コピーは消える
  • カタログは消える
  • シャドウ コピーは消える
Windows Server 2016
  • カタログは消えない
    → 削除した世代はリストアできない
  • シャドウ コピーは消える
  • カタログは消える
  • シャドウ コピーは消える

 

■ diskshadow コマンドによる削除について

diskshadow ユーティリティはシャドウコピーを作成するボリューム シャドウ コピー サービス (VSS) によって提供されている機能をコマンドラインから操作するためのツールです。

diskshadow ユーティリティの delete shadows コマンドでは、共有フォルダーのシャドウ コピーや DataVolumeRollback 属性のシャドウ コピーを含めた、属性に関係なくすべてのシャドウ コピーを削除することが可能です。
具体的には、保管しているすべてのシャドウ コピーを削除したり、最も古い世代のシャドウ コピーのみを削除したり、特定の世代を指定して削除を行うことができます。

ただし、このコマンドによって DataVolumeRollback 属性のシャドウ コピーの削除を行った場合、Windows Server バックアップにて作成されるバックアップのカタログからは削除されず、"回復" を行うバックアップのバージョン一覧に表示された状態となります。
これにより、すでに存在しないシャドウ コピーのバックアップが選択可能となってしまい、リストアを行おうとした場合は失敗します。

また、最も古い世代のシャドウ コピー以外を削除した場合に関しては、削除した世代以前のシャドウ コピーからのデータのリストアに、削除対象のシャドウ コピーのデータが必要となるため、実データは残った状態となりますが、削除処理を行ったシャドウ コピーに関する情報と実データの紐づきは削除されるため、リストアはできません。
そのため、空き容量確保の目的で最も古いシャドウコピー以外を削除することは、有用ではございませんのでご注意ください。
 

------------------------------------------------
1. 管理者権限にてコマンド プロンプトを起動します。
2. diskshadow と入力し diskshadow ユーティリティを起動します。
3. delete shadows SET コマンドを利用します。

実行例) すべてのシャドウ コピーを削除
delete shadows all

実行例) <セット ID> パラメーターで指定したシャドウ コピー セット内のシャドウ コピーを削除
delete shadows set <セット ID>

実行例) <シャドウ ID> パラメーターで指定したシャドウ コピーを削除
delete shadows id <シャドウ ID>

Delete shadow /? にてオプションの確認が可能です。
<セット ID> や <シャドウ ID> に指定する値は list shadows all コマンドにて確認できます。
------------------------------------------------
 


[タイトル] diskshadow
[URL] https://docs.microsoft.com/en-us/windows-server/administration/windows-commands/diskshadow

[タイトル] delete shadows
[URL] https://docs.microsoft.com/en-us/windows-server/administration/windows-commands/delete-shadows


 

■ wbadmin コマンドによる削除について

wbadmin delete backup コマンドは、1 つ以上の Wondows Server バックアップを削除するために利用するコマンドです。
Windows Server 2012 から wbadmin コマンドに delete backup コマンドが追加され、バックアップの世代管理用のシャドウ コピーと、Windows Server バックアップのカタログ情報を同時に削除することが可能になりました。


[タイトル] wbadmin
[URL] https://docs.microsoft.com/en-us/windows-server/administration/windows-commands/wbadmin
 

Windows Server 2016 のバックアップを取得する際に、wbadmin delete backup
コマンドを用いることで、世代管理を行うことが可能でございます。
弊社検証環境でも世代管理が行えることを確認いたしました。
 

------------------------------------------------
該当コマンド: wbadmin delete backup -<オプション>

実行例) 新しいものから 3 つのバックアップを保持して残りを削除
wbadmin delete backup -keepVersions:3

実行例) 指定したバージョンのバックアップを削除
wbadmin delete backup -version:03/31/2006-10:00

実行例) F ドライブの最も古いバックアップを削除
wbadmin delete backup -backupTarget:f: -deleteOldest
------------------------------------------------
 

ただし、このコマンドの実行において、コマンドの後に指定するオプションの 組み合わせによって、既知の不具合が発生することが報告されています。
 

■ wbadmin delete backup コマンド実行時の注意事項

wbadmin delete backup コマンド実行時に、オプション keepversions:1 と -backupTarget を指定してコマンドを実行する場合、最新世代のバックアップ以外の 古い世代のバックアップをすべて削除することが可能ですが、これにより、 バックアップデータを格納しているフォルダー自体が消失するという既知の不具合があります。

加えて、最新世代のバックアップのデータを保持しているシャドウ コピーが何らかの原因で削除されてしまった場合、すべてのバックアップのデータが消失し、障害時にリストアができなくなる可能性があります。

後述いたしますが、シャドウ コピーは差分を1世代ごとに管理しているため、特定のタイミングに復元する場合、復元したいタイミングのシャドウコピーに至る前のすべてのシャドウ コピーが必要になります。
そのため、ディスク上の最新世代のシャドウ コピーのデータが削除されてしまうと、それ以前のシャドウ コピーの復元が不可能になります。

この不具合に対する対処方法としては、オプション -keepversions と -backupTarget を指定してコマンドを実行する場合、-keepversions の値を 2 以上に設定する必要があります。

詳細な情報に関しましては、下記の公開情報をご参照ください。
 


[タイトル] wbadmin delete backup コマンドでバックアップ フォルダーが消える
[URL] https://blogs.technet.microsoft.com/askcorejp/2016/10/26/wbadmin-delete-backup-%e3%82%b3%e3%83%9e%e3%83%b3%e3%83%89%e3%81%a7%e3%83%90%e3%83%83%e3%82%af%e3%82%a2%e3%83%83%e3%83%97-%e3%83%95%e3%82%a9%e3%83%ab%e3%83%80%e3%83%bc%e3%81%8c%e6%b6%88%e3%81%88/
[内容] wbadmin delete backup コマンド実行に関する既知の不具合について
 

なお、Windows Server 2008 R2 および Windows Server 2012 以降の OS における、それぞれのコマンド実行時の挙動に関しては、弊社環境にて検証を行った結果を次回のブログにてご紹介いたします。
[続編] コマンドによるバックアップの過去の世代の削除手順 2/2

いかがでしたでしょうか。
本ブログが少しでも皆様のお役に立てば幸いです。

コマンドによるバックアップの過去の世代の削除手順 2/2

$
0
0

こんにちは、Windows プラットフォーム サポートの加藤です。

前回、コマンドによる Windows Server バックアップの世代管理に用いられるシャドウ コピーの削除手順についてご紹介いたしました。
今回は、弊社環境にて検証を行った、Windows Server 2008 R2 および Windows Server 2012 以降の OS における、それぞれのコマンド実行時の挙動についてご紹介いたします。

なお、前回のブログは、下記よりご参照いただけます。
[前編] コマンドによるバックアップの過去の世代の削除手順 1/2
 

[参考] 検証

■ 検証事項

  • バックアップを 3 世代分取得し、diskshadow コマンドにて、2 世代目のバックアップのシャドウ コピーを削除
    → "回復" のカタログの内容とリストアが可能かどうかを確認する
  • バックアップを 3 世代分取得し、wbadmin delete backup コマンドにて、2 世代目のバックアップを削除
    → "回復" のカタログの内容を確認する

 

■ Windows Server 2008 R2

diskshadow コマンド
→ シャドウコピーを消してもカタログは残り続ける

(1) 3 世代分の Windows Server バックアップ取得後、以下のように正常にバックアップが取得できていることを確認します。

(2) diskshadow コマンドにて、上記の 3 世代のバックアップのうち、2 世代目のシャドウ コピーを削除します。
※ シャドウ コピーはバックアップ完了後に取得されるため、バックアップ完了時刻よりも後の時間に作成されます。

(3) Windows Server バックアップの [回復] より、リストア可能な世代 (カタログ) を確認します。
以下の画像より、(2) で削除した世代もリストア可能な世代として表示されていることが確認できます。

(4) Windows Server バックアップの [回復] より、(2) で削除した世代のリストアを試みると、下記のようなメッセージが表示され、リストアに失敗します。

これより、diskshadow コマンドによるバックアップのシャドウ コピーが削除を行った場合は、バックアップのリストアを行う際のカタログ データは削除されていないことが確認できます。
 

wbadmin delete backup コマンド

前回のブログでご紹介した通り、Windows Server 2008 R2 では、wbadmin delete backup コマンドを使用することができません。

 

■ Windows Server 2012 以降 (2012 / 2012R2 / 2016)

diskshadow コマンド

(1) 3 世代分の Windows Server バックアップ取得後、以下のように正常にバックアップが取得できていることを確認します。

(2) diskshadow コマンドにて、上記の 3 世代のバックアップのうち、2 世代目のシャドウ コピーを削除します。

(3) Windows Server バックアップの [回復] より、リストア可能な世代 (カタログ) を確認します。
以下の画像より、(2) で削除した世代もリストア可能な世代として表示されていることが確認できます。

(4) Windows Server バックアップの [回復] より、(2) で削除した世代のリストアを試みると、下記のようなメッセージが表示され、リストアに失敗します。




 

wbadmin delete backup コマンド

(1) 3 世代分の Windows Server バックアップ取得後、以下のように正常にバックアップが取得できていることを確認します。

(2) wbadmin delete backup コマンドにて、上記の 3 世代のバックアップのうち、2 世代目のシャドウ コピーを削除します。

(3) Windows Server バックアップの [回復] より、リストア可能な世代 (カタログ) を確認します。
以下の画像より、(2) で削除した世代は、カタログからも削除されていることが確認できます。

 

いかがでしたでしょうか。
本ブログが少しでも皆様のお役に立てば幸いです。

Excel帳票作成ツール for Dynamics 365 CE

$
0
0

[提供: 株式会社ソースリンク]

 

Excel帳票作成ツール for Dynamics 365 CEのご紹介です。

Dynamics 365 Customer Engagement向けのExcelでの帳票作成ツールです。

 

Excel帳票作成ツール for Dynamics 365 CEの概要

Excelシートを帳票として利用し、データはDynamics 365 Customer Engagementと接続し、Excelシートを帳票として利用でき、ユーザーがデータマッピングの設定を行えるExcelでの帳票作成ツール

 

■解決される課題

Dynamics 365 CEの導入の際に、マイクロソフト社の標準的なレポートライタであるSSRSでは、細かな指定ができない、色が出ないなどの制限があります。また、プログラミング作業が必要となり、業者に依頼せざるを得ません。
Excel帳票作成ツールでは、業者に作業を依頼せずとも、自社内で設定ファイルを作成することにより帳票作成が可能となりました。また、元々使っていたExcel帳票をそのまま使え、自由にレイアウトの編集ができるようになりました。

 

■特長

本ソリューションでは、Windows版と、Azure版があり、Azure版では、Windows以外のMacOS, iOS, Androidの端末においても、Excel帳票のダウンロードが可能です。

 

■利用料金(税抜)

16,000円/ユーザー(3ユーザーから)、年間メンテナンス費 2,000円/ユーザー・年

 

 

 

Seizing the AI opportunity today

$
0
0

Seizing the AI opportunity today

By Joe Macri, VP of Commercial Partner, Microsoft UK

Artificial Intelligence (AI) is here. It is swiftly becoming a part of our everyday lives - through everything from email spam filters to voice assistant technologies - but there is still much uncertainty within the enterprise community regarding how that power can be harnessed to improve business outcomes.

That’s why today at Future Decoded, we are launching our 2018 report ‘Maximising the AI Opportunity – How to harness AI’s potential effectively and ethically’. With input from more than 1,000 business leaders and 4,000 employees, as well as those already embracing AI within their own organisations, it is an in-depth look at the challenges and opportunities presented for both UK businesses and the nation as a whole.

The report reveals that we are at a pivotal moment in AI adoption: 41% of leaders believe their business model will cease to exist in five years’ time, with technology - and AI specifically - driving this, and yet 51% do not currently have an AI strategy in place.

This is perhaps not surprising. With AI offering so much potential, many are reluctant to commit to a strategy, selecting which areas to focus on and which technologies to adopt. And yet for those that have a strategy in place, the benefits are already being felt; higher productivity and performance, leading to better business outcomes, is ultimately boosting bottom lines by a significant 5%. Here, our partners will have a key role to play in helping customers unlock these gains, guiding on where – and how to start – when it comes to AI.

Partners will also be a trusted ally for customers when it comes to navigating the challenges relating to AI adoption. Technologies such as big data, advanced algorithms and scalable cloud solutions are now readily available, but understandably, clarity is still needed by many regarding how to best use these in specific business cases. If customers can get it right, though, the potential is enormous; employees can be relieved of repetitive and time-consuming tasks, customers can be better understood, and both products and processes can be optimised to serve everyone more effectively. The guiding principle should be to augment existing jobs, rather than eliminate them. And those organisations that are already taking a principled approach to AI, establishing underlying ethics and values, are currently outperforming those that aren’t by 9%.

This is why, at this relatively early stage of digital transformation, we believe it is crucial to set out what an ethical AI strategy looks like, ensuring that it benefits employees, customers and society at large. We invite you to sign our Partner Pledge, committing to diversity, workforce upskilling and the responsible and ethical use of AI in your business, to help the UK thrive in this exciting new future.

As valued Microsoft partners and customers, we are committed to ensuring that you can make the most of the opportunities available, which is why we’d like to invite you to join our first monthly AI Community Call on the 14th November. On it, we will be discussing AI opportunities and the technologies available to drive your business forward, giving you the tools you need to develop an AI strategy for your business.

Join us and take the very first step in this exciting AI journey.

Azure Security Center – Short Notes

$
0
0

 

Pricing:

Azure Security Center is offered in two tiers: Free and Standard. The Standard tier is free for the first 60 days. Any usage beyond 60 days will be automatically charged as per the pricing scheme below.

Pricing Details: https://azure.microsoft.com/en-us/pricing/details/security-center/

 

Benefits & Reference

All About ASC, PDF: Link

 

Benefits

Features

  • Understand security state across on-premises and cloud workloads

    Get a unified view of security across all of your on-premises and cloud workloads. Automatically discover and onboard new Azure resources, and apply security policies across your hybrid cloud workloads to ensure compliance with security standards. Collect, search, and analyze security data from a variety of sources, including firewalls and other partner solutions.

     

    • Find vulnerabilities and remediate quickly

      Continuously monitor the security of your machines, networks, and Azure services using hundreds of built-in security assessments or create your own. Use actionable security recommendations to remediate issues before they can be exploited.

     

    • Limit your exposure to threats

      Enable adaptive threat protections to reduce exposure to attacks. Block malware and other unwanted code by applying application controls adapted to your specific workloads and powered by machine learning. Enable just-in-time, controlled access to management ports on Azure VMs to drastically reduce surface area exposed to brute force and other network attacks.

     

    • Detect and respond swiftly to attacks

      Use advanced analytics and the Microsoft Intelligent Security Graph to get an edge over evolving cyber-attacks. Leverage built-in behavioral analytics and machine learning to identify attacks and zero-day exploits. Monitor networks, machines, and cloud services for incoming attacks and post-breach activity. Streamline investigation with interactive tools and contextual threat intelligence.

  • Centralized policy management – Ensure compliance with company or regulatory security requirements by centrally managing security policies across all your hybrid cloud workloads.
  • Continuous security assessment – Monitor the security posture of machines, networks, storage and data services, and applications to discover potential security issues.
  • Actionable recommendations – Remediate security vulnerabilities before they can be exploited by attackers with prioritized and actionable security recommendations.
  • Prioritized alerts and incidents - Focus on the most critical threats first with prioritized security alerts and incidents.
  • Advanced cloud defenses – Reduce threats with just in time access to management ports and adaptive application controls running on your VMs.
  • Integrated security solutions - Collect, search, and analyze security data from a variety of sources, including connected partner solutions.
   

Built-in intelligence and advanced analytics

 

Respond Quickly To Threats

Automate and orchestrate common security workflows

Create playbooks with integration of Azure Logic Apps

Trigger workflows from any alert to enable conditional actions

Common workflows

  • Route alerts to a ticketing system
  • Gather additional information
  • Apply additional security controls
  • Ask a user to validate an action
  • Block a suspicious user account
  • Restrict traffic from an IP address

 

Architecture

Features Overview

Understand security state across hybrid workloads

Built-in Azure, no setup required

Automatically discover
and monitor security of
Azure resources

Gain insights for hybrid resources

Easily onboard resources running in other clouds
and on-premises

 

Ensure compliance with policy management

Central policy management

Define a security policy for each subscription in Security Center

Apply across multiple subscriptions using Azure Management Groups

 

Gain deeper insights with integrated log analytics

Quickly identify list of notable events that require your attention

Out of the box notable events in dashboard or create custom queries

Search and analyze security data using a flexible query language

Use built-in or custom queries with Log Analytics search

 

Identify and remediate vulnerabilities quickly

Continuous assessment of machines, networks, and
Azure services

Hundreds of built-in security assessments, or create your own

Fix vulnerabilities quickly

Prioritized, actionable security recommendations

 

Limit exposure to brute- force attacks

Lock down ports on virtual machines

Enable just-in-time access
to virtual machines

Access automatically granted
for limited time

 

Block malware and other unwanted applications

Allow safe applications only

Adaptive whitelisting learns application patterns

Simplified management with recommended whitelists

 

Focus on the most critical threats

Get prioritized security alerts

Details about detected threats
and recommendations

Detect threats across the kill chain

Alerts that conform to kill
chain patterns are fused into
a single incident

 

Gain valuable insights about attackers

Visualize source of attacks with interactive map

Analyzes data from your computers and firewalls logs


Gain insights through threat reports

Attacker's known objectives, tactics, and techniques

 

Simplify security operations and investigation

Quickly assess the scope and impact of an attack

Interactive experience to explore links across alerts, computers and users

Use predefined or ad hoc queries for deeper examination

 

Graph Tidbit – Announcing “30 Days of Microsoft Graph” Blog Series

$
0
0

Hello All,

Another fantastic tidbit that came flying thru my inbox and I wanted to send it out to everyone, If any of you are looking to ramp up on Microsoft Graph development several of my co-workers are publishing 30 straight days of blog posts starting Nov 1st.  The announcement blog post went live this morning #30DaysMSGraph

30 Days of Microsoft Graph

https://aka.ms/30DaysMSGraph

Pax


(Cloud) Tip of the Day: Azure CycleCloud – the simplest way to execute HPC on Azure

$
0
0

Today's tip...

We are excited to announce the general availability of Azure CycleCloud, a tool for creating, managing, operating, and optimizing HPC clusters of any scale in Azure.

With Azure CycleCloud, we are making it even easier for everyone to deploy, use, and optimize HPC burst, hybrid, or cloud-only clusters. For users running traditional HPC clusters, using schedulers including SLURM, PBS Pro, Grid Engine, LSF, HPC Pack, or HTCondor, this will be the easiest way to get clusters up and running in the cloud, and manage the compute/data workflows, user access, and costs for their HPC workloads over time.

With a few clicks, HPC IT administrators can deploy high-performance clusters of compute, storage, filesystem, and application capability in Azure. Azure CycleCloud’s role-based policies and governance features make it easy for their organizations to deliver the hybrid compute power where needed while avoiding runaway costs. Users can rely on Azure CycleCloud to orchestrate their job and data workflows across these clusters.

固定 データ ドライブが BitLocker ドライブ暗号化画面にてリムーバブル データ ドライブとして認識される

$
0
0

こんにちは、Windows プラットフォーム サポートの徳永です。
本記事では、BitLocker ドライブ暗号化画面で、確認されております動作についてご紹介いたします。

更新履歴
2018/10/31

事象

コントロールパネル内、BitLocker ドライブ暗号化の画面で、固定データ ドライブが、リムーバブル データ ドライブとして表示されることがございます。

発生条件

内臓ハードディスクに関する情報が、リムーバブル メディア、またはポータブル デバイスのいずれかを示していた場合に発生いたします。

回避策

本来固定データドライブとして認識するデバイスがリムーバブル メディアとして認識する場合は、下記公開情報の Resolution を実施することで、事象を回避できる可能性がございます。お試しいただきますよう、お願いいたします。

Internal SATA Drives show up as removeable media
https://support.microsoft.com/en-us/help/3083627/internal-sata-drives-show-up-as-removeable-media

Avoid Messaging Overload with the New Marketing Calendar

$
0
0

As you create and go live with more and more customer journeys in Dynamics 365 for Marketing the risc of recipients being overloaded with messages increases.

To help you spot and avoid overloaded time frames we've added a new marketing calendar to Dynamics 365 for Marketing.

To see all your customer journeys in a calender view simply add the Marketing Calendar control to the Customer Journey entity - see how here.

Once you've added the Marketing Calendar control to the Customer Journey entity list view, you can toggle between the Read Only Grid view and the Marketing Calendar view using the Show As button

Enjoy

Exchange Online – Planejando Mailbox Moves para Mailboxes com +100GB

$
0
0

By: Caio Ribeiro César

Agradecimentos especiais ao time de suporte da Microsoft – Joao Nascimento, Sergio Duarte & Fabio Baleizao.

Aproveitando que irei sair de férias agora no dia 02 de Novembro, irei deixar um post de lembrança para meus amigos do suporte, consultoria e parceiros.

Alguns clientes abrem chamados com problemas para migrar mailboxes para a nuvem, com o erro abaixo:

Error: MigrationPermanentException: Mailbox size 160.96GB (165,457,177,916 bytes) exceeds target quota 100GB (107,374,182,400 bytes).

Em outras palavras, a mailbox source (OnPremises) possui uma database maior do que a quota da mailbox de destino (OnCloud). O problema pode ser simples de ser resolvido, porém o recomendado é sempre planejar antes de executar.

Vamos iniciar com o entendimento do ambiente local.

Possuir mailboxes com um quota superior a 100GB seria um best practice?

Pode depender do ambiente. O Exchange 2019 possui um warn limit de mailboxes para 2TB – o que não significa que devemos utilizá-lo desta maneira.

Existe um excelente artigo escrito  pelo time de produto sobre este tema, em que a conclusão seria entre 2.5k a 5k mensagens em cada folder e que o que importa realmente seriam os números de emails e não o tamanho em si. Com o tempo, a tecnologia se adapta e inovamos soluções – pessoalmente recomendo seguir a mesma métrica do ambiente online (100GB).

Matematicamente falando: um usuário comum pode utilizar um quota de 100GB sem problemas. Tendo uma compreensão que este usuário recebe aprox. 150 emails por dia, com aproximadamente 100KB para cada mensagem teríamos 15MB de dados por dia (5.47GB por ano). Para acomodar 100GB de dados, precisaríamos de ~18 anos (e até lá espero que o custo de disk irá diminuir e o quota aumentar). Consequentemente, os tamanhos de emails seriam maiores – seria uma discussão para outro post.

Isto significa que caso o seu usuário alcance o volume de 100GB, existe uma grande chance deste volume ser anormal ; gerado por notificações automáticas de monitoramento ou anti-virus, internal SPAM entre outros.

Possuir mailboxes com um archive quota superior a 100GB seria um best practice?

O mesmo estudo acima segue para quota de archive. A questão seria comparar a utilização. O archive deve ser utilizado para um conteúdo “antigo”, sendo este utilizado apenas pelo usuário dono da mailbox.

Conforme explicado no artigo abaixo, especificamente para Exchange Online -

O uso de journaling, regras de transporte ou regras de encaminhamento automático para copiar mensagens para uma caixa de correio do Exchange Online com a finalidade de arquivamento não é permitido. A caixa de correio de arquivo morto de um usuário destina-se somente a esse usuário. A Microsoft reserva o direito de negar o arquivamento ilimitado em situações onde a caixa de correio de arquivo morto do usuário é usada para armazenar dados de arquivo morto de outros usuários.

https://docs.microsoft.com/en-us/office365/servicedescriptions/exchange-online-service-description/exchange-online-limits

Logicamente, para ambientes OnPremises, o quota é customizado pelo administrador que pode optar pelo valor. Seguindo a regra anterior, seria uma boa idéia possuir 50GB de quota para archive (+9 anos de conteúdo).

Para coletar informações de sizing, basta executar os comandos:

Get-MailboxStatistics mailbox | ft DisplayName, TotalItemSize, ItemCount 
Get-MailboxStatistics -archive mailbox | ft DisplayName, TotalItemSize, ItemCount

O que acontece na migração?

Uma mailbox com utilização maior que a quota de serviços do Exchange Online irá falhar na migração, com o erro de “size exceeds target quota”. Isto serve também para a utilização de quota de Recoverable Items e para procedimentos de MailboxRestoreRequest (target mailbox vs. source mailbox size & quota).

A quota de Recoverable Items é “separada” da quota da mailbox. Ela é utilizada não apenas por conteúdo recoverable como por exemplo, conteúdo de mailbox audit:

 

Storage quota for Recoverable Items folder in primary mailbox (not on hold) 30 GB

 

 

Storage quota for Recoverable Items folder in primary mailbox (on hold) 100 GB

 

 

Caso o administrador precise aumentar esta quota no ambiente de Exchange Online, disponibilizamos um artigo que explica passo a passo como efetuar esta tarefa.

Como migrar uma mailbox com utilização superior a 100GB?

  • Limpeza. Mitigar problemas de tecnologia também significa entender que “technology is not a panacea”. Ações de sysadmin consistem em ensinar usuários como gerenciar os dados de suas mailboxes – criando rules ou tags para remover conteúdo não utilizado.
  • Caso esta mailbox não possua Archive, a recomendação seria habilitar a funcionalidade do ambiente OnPremises e mover items antigos para o Archive antes da migração. Posteriormente, basta migrar a mailbox + archive.
  • Caso esta mailbox possua archive já com uma utilização próxima ou superior a 50GB, a recomendação seria:
  1. Separar o archive mais “antigo” e aguardar a migração completar para dados da mailbox e do initial archive de 50GB.
  2. Iniciar a migração de dados de archive remanescentes assim que o auto-expand archive habilite “shards” de escpaço para a mailbox da nuvem (lembrando que esta tarefa pode demorar diversos dias). Lembrando também que o auto-expand deve estar habilitado para a Mailbox Online.

Azure is Pleasure

$
0
0

Logbucheintrag 181031:

Die Deutsche Partnerkonferenz 2018 in Leipzig war wieder einmal ein Event der Superlative. Die DPK ist nicht nur die zweitgrößte Partnerkonferenz weltweit – hinter der global ausgerichteten Ignite-Show. Die DPK18 war mit 2500 Besuchern wieder einmal größer als die Vorgänger-Konferenz letztes Jahr. Und erstmals haben wir dabei Vertreter unserer Kunden eingeladen, sich als Partner unter Partner zu mischen, um den Gedankenaustausch noch weiter zu intensivieren. Denn mit ihrem Engagement bei Microsoft Azure werden immer mehr Kunden zu Partnern, die eigene Produktentwicklung auf unserer Cloud-Plattform aufbauen.
Von unseren Kunden hören wir vor allem eines: Guidance to the Cloud! „Unsere IT ist überlastet mit Projekten“, möchte ich einen unserer Kunden aus dem Microsoft Business User Forum zitieren: „Wir erwarten, dass uns unsere Partner stärker in Richtung Azure unterstützen.“ Und ein anderer ergänzt: „Insbesondere im Hinblick der Komplexität, Geschwindigkeit und Quantität, um die digitale Transformation erfolgreich zu landen“, werde die Betreuung und Beratung von Microsoft und Partnern erwartet.
Diese Bedarfslage kann nicht überraschen angesichts sensationeller Wachstumsraten. 66 Prozent der Unternehmen in Deutschland setzen bereits auf die Cloud. Dabei erwarten die Analysten Gartner und IDC, dass allein der Markt für Infrastructure as a Service bis 2020 um 30 Prozent pro Jahr zunimmt. Denn der Markt ist praktisch vollständig von der Bedeutung einer Cloud-basierten Infrastruktur überzeugt: 91 Prozent der Entscheider wollen langfristig auf Hybrid-Strategien setzen, in denen die bestehende OnPrem-Strategie durch Cloud-Services ergänzt und erweitert wird.
Dabei können wir in unserem Auftragsvolumen klar feststellen, dass das Engagement der Kunden in der Cloud exponentiell zunimmt – und damit anders als im klassischen Lizenzmodell mehr Dynamik entwickelt. Dabei starten viele mit kleinsten und kleinen Anfängen – etwa mit dezidierten Cloud-Services, Virtual Machines, einem IoT Hub oder Diensten wie Multi-Factor-Authentification, ehe sie mehr und mehr Last auf die Cloud legen und so allmählich den Schwerpunkt von OnPremises nach Azure verlagern. Und an dieser Lastverschiebung verdienen unsere Partner mit: Mit jedem Dollar, den Microsoft in der Cloud an Umsatz generiert, verdienen Partner annähernd das Zehnfache. Eine bessere Leistungs-Gleichung wie im Microsoft-Ökosystem ist in anderen Cloud-basierten Geschäftsmodellen kaum zu finden!
Wir können diese Leistungs-Gleichung aber nur aufrechterhalten, wenn wir bei immer weiter steigendem Engagement auch immer weiter gestiegene Leistung und Qualität erbringen. Es ist nun mal ein Unterschied, ob wir einem Azure-Einsteiger mit ersten Services zur Hybridisierung der IT-Infrastruktur helfen, oder ob wir in einer IaaS-Strategie Aktivitäten zur digitalen Transformation unterbreiten – zum Beispiel mit einer ausgefeilte Edge-Strategie für das Internet der Dinge oder durch den Ausbau von Azure als strategische Plattform für eigene Produkt-Services des Kunden – so wie das inzwischen im Automobil-Bereich, im Banken-Sektor oder bei den Energieversorgern der Fall ist.
Dazu bedarf es einer ständigen Bereitschaft, die eigenen Qualifikationen weiterzuentwickeln. Lernbereitschaft ist möglicherweise die wichtigste „softe“ Ressource, die unsere Kunden von unseren Partnern erwarten. Dabei muss die Lernkurve vom IT-Support zur Cloud-Partnerschaft reichen. Wir haben deshalb mit der Customer´s Success Unit eine Unterstützungseinheit geschaffen, die sich vor allem auf Kunden mit hohem Digitalpotenzial konzentriert. Unser Ziel muss es sein, die Kunden und die Partner gemeinschaftlich weiter voranzubringen – qualitativ und quantitativ. Beratung, Verkauf, Betrieb und Strategie müssen Hand in Hand gehen.
Dabei geht es immer und nur darum, unsere Kunden angesichts des digitalen Wandels in die Lage zu versetzen, mit der Entwicklung Schritt zu halten und wenn möglich, ihr vorauszueilen. Wir erreichen das, indem wir unsere Mitarbeitern qualifizieren, unsere Kunden motivieren, Prozesse optimieren und schließlich die Produkte des Kunden transformieren in die Welt der Digitalwirtschaft. Es geht nicht – oder zumindest nicht allein – um Technik. Es geht um Geschäftsprozesse und Geschäftsmodelle, die wir verstehen und weiterentwickeln müssen – oder sogar disruptiv verändern.
Gerade eben wurde Microsoft 35 Jahre alt. Doch so jung und innovativ war die Company nie. Und mit ihr unsere Kunden und Partner. – So macht Azure Spaß.

Viewing all 36188 articles
Browse latest View live


<script src="https://jsc.adskeeper.com/r/s/rssing.com.1596347.js" async> </script>