Quantcast
Channel: TechNet Blogs
Viewing all 36188 articles
Browse latest View live

new year


クラスター環境における仮想マシンの自動開始アクションについて

$
0
0

こんにちは、Windows プラットフォーム サポートの大川です。
今回は Hyper-V の仮想マシンに設定する "自動開始アクション" についてのお話になります。

[概要]
"自動開始アクション" の設定は 3 つのオプションから一つを選択することができますが、
クラスターのリソースとして稼働させている仮想マシンは、この設定に依存せず、
クラスターにて状態が管理されるため、"1. 何もしない" が自動的に設定されます。

[詳細]
Hyper-V の仮想マシン設定に "自動開始アクション" という設定があります。これは、
物理マシンの起動時に、仮想マシンの状態をどのようにするかを設定するものになります。
具体的には、以下の 3 つのオプションから一つ選択することが可能です。

1. 何もしない
2. サービスが停止したときに実行されていた場合は自動的に起動する
3. 常にこの仮想マシンを自動的に起動する

"1. 何もしない" を設定した場合は、物理マシンを起動しても仮想マシンは停止したままの状態で、
手動で仮想マシンを起動する必要があります。

"2. サービスが停止したときに実行されていた場合は自動的に起動する" を設定した場合は、
物理マシン停止時の仮想マシンの状態によって動作が変わります。もし、物理マシン停止時に
仮想マシンが起動していた場合には、自動的に起動しますが、仮想マシンが停止していた場合
には、仮想マシンは自動的に起動しません。

"3. 常にこの仮想マシンを自動的に起動する" を設定した場合は、物理マシンが起動した際には、
常に仮想マシンが自動的に起動されます。

仮想マシンをクラスターのリソースとして稼働させていない場合は、既定値は
"2. サービスが停止したときに実行されていた場合は自動的に起動する" になっていますが、
クラスターのリソースとして稼働させた環境においては、この値が "1. 何もしない" になります。
これは、仮想マシンの状態を物理マシンの起動に依存させるのではなく、クラスターのリソース
として管理するためです。

この値の変更は仮想マシンをクラスターのリソースとして登録したり、ライブマイグレーションを
行ったりすると、自動的に変更されます。弊社としてはクラスター上で稼働させる仮想マシンは
"1. 何もしない" を推奨としておりますので、変更せずにそのままご利用いただければと思います。

※注
フェールオーバー クラスター マネージャーの画面から"自動開始アクション" の設定変更が可能であり、
画面上からも変更されたように見えますが、実際に仮想マシンが動作する内容としては、
"1. 何もしない" になります。

なお、クラスター上の仮想マシンはクラスターリソースとして扱われます。また、クラスターサービス停止時に
実行されていたクラスターリソースは、次回クラスターサービス起動時に自動的に起動されます。そのため
"1. 何もしない" が設定されていても、クラスターサービス停止時に起動していた仮想マシンは、次回クラスター
サービス起動時に自動的に起動されますので、ご安心いただければと存じます。

本ブログが少しでも皆様のお役に立てますと幸いです。

Microsoft 365 ブログまとめ (2018 年 12月)【1/9 更新】

$
0
0

Microsoft 365 は、Office 365、Windows 10、Enterprise Mobility + Security を組み合わせたインテリジェントなソリューションです。 安全に仕事できる環境を作り、働く人すべての力となります。

Office ブログはMicrosoft 365 ブログに進化しました。英語版の Microsoft 365 ブログ (英語)、一部が翻訳された日本語版 Microsoft 365 ブログとともに、元の Office Blogs  もしばらく運用されていきます。製品の更新情報は今後、主に Microsoft 365 ブログに投稿されます。ぜひブックマークして定期的にご参照ください!

 

≪最近の更新≫

 

Microsoft 365 は、Office 365 のアプリとサービスを含み、Enterprise Mobility + Security および Windows 10 Pro を備えた総合的かつインテリジェントなソリューションです。Microsoft 365 の各製品については、Office 365 | Windows 10 | Enterprise Mobility + Security を参照してください。Office 365 サブスクリプションをお持ちの方を対象とした今月の新機能の詳細については、Windows デスクトップ版 Office の新機能 | Office for Mac の新機能 | Office Mobile for Windows の新機能 | Office for iPhone および Office for iPad の新機能 | Office for Android の新機能を参照してください。月次チャネルと半期チャネルの法人契約の皆様は、対象指定リリース (クライアントサービス) を通じて完全にサポートされたビルドを早期に利用できます。今回ご紹介した機能の入手時期の詳細については、「Office の最新機能を入手できる時期」を参照してください。

最近は、月末にその月の主な新機能のまとめが出ていますので、簡単に概要を把握するのに便利です。

 

また、英語になりますが、更新に関するビデオドキュメントが出ていますので、こちらもご覧ください。(米国時間毎月8日頃にアップデートされます)

 

過去のまとめを見るには、Office Blogs タグを参照してください。

製品についての最新情報まとめを見るには最新アップデートタグを参照してください。

 

 

New experience for alerts generated by monitors in SCOM 2019

$
0
0

The existing alert closure experience for the alerts generated by monitors has been revamped to be more meaningful and provide better value.

If the alert was generated by a monitor, as a best practice, you should allow the monitor to auto-resolve the alert when the health state returns to healthy or close the alert manually when the health state returns to healthy (if auto-resolve is set to false).

If you close the alert while the object is in a warning, critical or unhealthy state, the problem remains unresolved, and no further alerts are generated, unless the health state for the monitor has also been reset (If the monitor is not reset, the same condition that generated an alert can occur again but no alert will be generated because the health state has not changed.)

This behaviour, which often led to a scenario where there is no active alert in the system while an underlying problem is not resolved. Closure of alerts generated by monitors without resolving the underlying problem is fixed with SCOM 2019. An alert which has been generated by a monitor cannot be closed unless the health state of the corresponding monitor is healthy.

Behavior in operations console

If you close an alert generated by a monitor (from the Operations Console "Active alerts" view) which is in a unhealthy state then the following message will be displayed and the alert will not be closed:

"Alert(s) in the current selection cannot be closed as the monitor(s) which generated these alerts are still unhealthy. For more details on the alerts which could not be closed, view the "Alert Closure Failure" dashboard in the Operations Manager Web Console"

    To close this alert the health state of the monitor has to be reset, if "auto-resolve" for this monitor is set to true then the alert will be auto closed with the health state reset else the alert has to be manually closed after the health state reset.

    Behaviour in Web console

    If you close an alert generated by a monitor (from the "Alert Alerts Dashboard" or any dashboard or the alerts drill down page of the web console) which is in a unhealthy state then the following message will be displayed and the alert will not be closed:

    Active alerts dashboard (closing 1 alert generated by monitor which is in a unhealthy state, by using the "Set resolution state" action)

    Alerts drill down page (closing the alert generated by monitor which is in a unhealthy state, by changing the "Resolution State")

    To forcefully close these kind of alerts, reset the health state of the monitor from the task available in the alerts drill down page:

    Or

    Navigate to the new "Alert Closure Failure" dashboard available in the monitoring tree of the web console, this dashboard lists all the active alerts in SCOM which were unable to close because the monitor which generated these respective alert is still unhealthy. You can select the alert which you want to forcefully close and reset the corresponding monitor by using the "Reset Health" action.

    Note: This dashboards displays all the active alerts which were unable to close, irrespective of the tool from where the alert closure has been triggered.

    If an alert closure has been triggered from the third party tools/systems (incident management/ticketing systems...) and if the alert was unable to close as the corresponding monitor is still unhealthy then we will be passing an exception with the alert details which can be leveraged by third party tools/systems.

    The following 2 APIs have been enhanced to enable this new behaviour (more detailed documentation on the changes to the below APIs will be published soon):

    A view of Connect() from the UK Azure Users Group

    $
    0
    0

    By Richard Conway, Microsoft Regional Director, MVP and Co-founder of the UK Azure User Group

    Microsoft UK kindly sponsored us to watch the keynote stream of Connect() last month. Traditionally we do this every year with Build, so it was nice to get the community together for an evening - a few beers and pizzas with friends break up the week nicely.

    Overall, I was very happy with the announcements and it created a great forum for discussion. This conference took us back to what it’s like to be a developer; In an age where every other announcement is about AI it was nice to take a step back to developer tooling and what Microsoft are doing to help developers get more productive.

    The UK Azure Community jointly put on many Microsoft-sponsored hacks with Data Science London from 2012 onwards, so I think cloud has democratised data for everyone. But we do all feel smothered by the promise of AI at the moment, so I really did see Connect() as a little respite.

    There was a lot of focus on Visual Studio Code and Visual Studio. Running around between several communities, it’s great to see so many people who are traditionally non-Microsoft people use Visual Studio Code as their default editor. I saw the Intellicode announcement and immediately installed the extension.

    When Live Share was released, I loved it. Now it has become our new standard. We, as developers, demand this sort of instant collaboration with all of our tools. Intellicode is another tool that I’ve used since it was released - it's something we take for granted these days and I think Intellicode will shortly become the new standard. Like so much of our modern stack, machine learning has provided new enablement. Intellicode is the perfect example of this; it knows what I want to code and proves pretty easily that I am a very predictable developer! Anyway, I’ve been using it for weeks now and haven’t uninstalled it, so it’s looking good.

    My company, Elastacloud, was privileged to be part of the Connect() keynote for the release of Azure Machine Learning into GA. It was a very fulfilling experience which entailed strong collaboration with the product team. AMLv2 is a different beast from v1, which wasn’t really for developers, but more for the data science aficionados and noobs. It didn’t really scale so well either, though it did look pretty. Time has taught me function over form is always a better bet, so it's nice to see Microsoft making the right updates in v2.

    These are the key features which make it work nicely out-of-the-box:

    • Ability to version control models
    • Reuse of Python and Python machine libraries
    • Being able to turn trained models into web service endpoints for scoring services
    • Easily pluggable into a Continuous Deployment scenario
    • Full API and CLI support
    • Scalable through one-click deploys to Kubernetes clusters
    • Integration with Jupyter notebooks
    • Concept of jobs and logging
    • Full visibility of results and history of machine learning experiment in Azure portal

    There I go again, talking about AI! In this instance though, and as evidenced through our customer case study in the keynote, AMLv2 is a developer’s tool which allows many skills in the team to build deployable production services in Azure which can scale using common container-based technologies.

    Speaking of containers, there were a great many welcome additions to Connect() which really set aside Microsoft in the container space. I think the container space has been awash with orchestration tools for a few years now, so it’s nice to see Microsoft taking a leading role in defining standards. Do I use Kubernetes, Mesosphere, Swarm etc. when I need to manage and scale container instances? There are some hard and fast rules to each of these, and if you want to have the best of it you need to be an expert. In this way it was great that Microsoft has stepped into this space and removed the need for us to manage infrastructure.

    The term “serverless” is an instant boon for all of us that want to ensure that we focus on writing code and building systems. I think this is a great strategy for Microsoft, really taking a lead in a space which is awash with a lack of clarity for most engineers. Of my favourite announcements at the event, this one topped it - the new Azure Kubernetes Service (AKS) public preview for Virtual Kubelets, a technology that Microsoft open-sourced last year. AKS is a great service and is a big step up over Azure Container Service (ACS) but you still have to do a lot more work here to manage and administer the service. With the new preview you don’t have to do very much, containers are elastically provisioned in seconds so we can finally welcome the serverless revolution! Whilst there were no updated announcements for Service Fabric Mesh, Microsoft raised the bar with this service and now I feel that you can easily choose between a serverless Service Fabric or a serverless Azure Kubernetes service.

    I’ve been to so many customers over the years that have struggled with devops and think they’re doing a marvellous job. It’s not their fault, because when they started their Azure journey the tooling was very different. We see combinations of TeamCity and Octopus Deploy all over the place, and it’s become fairly evident that they spend 70% of their time messing around with how to get things into production. Azure Pipelines / Devops and GitHub Workflow bring this home now. Any business using tools which expend 70% of their dev’s team time on deployment should sack their CTO! This is a complete waste of company money, and for companies to move at an accelerated pace of development, they should drop all allusions of this being difficult now. Microsoft has a beautiful, integrated and extensible approach to devops now, and it should be a part of every developer’s arsenal. Devops shouldn’t be a fight with tooling, it should be seamless and that is what Microsoft has provided with the advent of Azure Pipelines.

    There were a great many more announcements, such as those around CosmosDB, Azure Search, open sourcing .NET (WPF etc.), .NET Core 3.0 and Visual Studio 2019. However, I wanted to capture what I thought the spirit of this Connect() event was to me, and it's that this event was all about developers, Microsoft’s core bread and butter.

    2019 年 1 月 8 日の更新プログラムを適用すると、ファイル サーバーへの通信が不可能となることがある

    $
    0
    0

    こんにちは。Windows プラットフォーム サポートです。

    2019 年 1 8 日の更新プログラムをファイル サーバーへ適用すると、そのファイル サーバーへのアクセスに失敗することがあるという問題が判明しましたので、本ブログで問題の内容と回避策をご案内します。

     

    [問題の概要]

    2019 年 1 8 日公開の以下の更新プログラムのいずれかをファイル サーバーに適用後、そのファイル サーバー (共有フォルダーを保持するコンピューター) に対して Administrators グループに所属しているローカル ユーザーを用いてアクセスすると、接続に失敗するという事象が発生します。

    これにより、共有フォルダーへのアクセスや、ネットワーク プリンターに接続できなくなるといった問題が発生する可能性があります。

     

    // Windows 7 SP1/Windows Server 2008 R2 SP1 向けの更新プログラム

    January 8, 2019—KB4480970 (Monthly Rollup)

    https://support.microsoft.com/en-us/help/4480970

     

    January 8, 2019—KB4480960 (Security-only update)

    https://support.microsoft.com/en-us/help/4480960

     

    // Windows Server 2008 SP2 向けの更新プログラム

    January 8, 2019—KB4480968 (Monthly Rollup)

    https://support.microsoft.com/en-us/help/4480968

     

    January 8, 2019—KB4480957 (Security-only update)

    https://support.microsoft.com/en-us/help/4480957

     

    本事象はあくまでもファイル サーバー上のローカルの Administrators グループに所属するローカル アカウントを用いてアクセスした場合に発生し、ファイル サーバー上のローカルの Administrators グループに所属しないローカル アカウントでアクセスした場合や、ドメイン アカウントを用いてアクセスした場合には、この事象は発生しません。

     

    [対象 OS]

    Windows 7 SP1

    Windows Server 2008 R2 SP1

    Windows Server 2008 SP2

     

    ** Windows 8/Windows Server 2012 以降の OS では本問題は発生しません。

     

    [原因]

    ファイル サーバーにアクセスする際の SMB 通信における、NTLM 認証の問題が原因となり本事象が発生することが判明しています。

     

    [回避策]

    ファイル サーバーにアクセスする際に、Administrators グループに所属しないローカル アカウントを用いるか、ドメイン アカウントを用います。

     

    [更新履歴]

    2019/01/10: 本ブログの公開

     

    [補足]

    本情報の内容 (添付文書、リンク先などを含む) は、作成日時点でのものであり、予告なく変更される場合があります。

    Configuration Manager Advanced Dashboards – Rich view of your Configuration Manager environment

    $
    0
    0

     

    Introduction

     

    As a Premier Field Engineer (PFE) at Microsoft, I get asked by a lot of customers about custom dashboards and reports that are available or can be created for monitoring the SCCM environment , checking the status on client activity, client health, deployments or content status to provide to support teams, SCCM administrators and managers.

    So yes there are tons of native built in reports to get that data but putting it all together to get an overall view of the environment is the challenge.…

    Solution

     

    The Configuration Manager Advanced Dashboards (CMAD) have been created within Microsoft by a few PFE’s along with myself who form part of the development team with Lead Stephane Serero@StephSlol.

    The Configuration Manager Advanced Dashboards (CMAD) are designed to offer:

    • At a glance a view of the Configuration Manager environment
    • Immediately pinpoint specific issues
    • Monitor the undergoing activities

    The CMAD solution (Configuration Manager Advanced Dashboards) delivers a data-driven reporting overview of the System Center Configuration Manager environment.

    This solution consists of a rich set of dashboards designed to deliver real-time reporting of ongoing activity in your Configuration Manager environment.

    Native Configuration Manager Reports are not replaced with this solution, the CMAD solution amplifies the data they show by providing additional data insights.

    The dashboards in this solution were created based on field experience and on customers’ needs to provide an overall view of various Configuration Manager functionality. The embedded charts and graphics provide details across the entire infrastructure.

     

    Dashboard – Software Updates

    image

    Dashboard – ConfigMgr Servers Health

    image

    Dashboard – Client Health Statistics

    image

    Dashboard – Security Audit

    clip_image002[7]

    Key Features and Benefits

    The CMAD solution consists of 180+ dashboards/reports covering the following Configuration Manager topics:

    • Asset Inventory
    • Software Update Management
    • Application Deployment
    • Compliance Settings
    • Infrastructure Monitoring:
    • Site Replica
    • Content replication
    • Software Distribution
    • Clients Health
    • Servers Health
    • SCEP Technical Highlights

    The CMAD is supported on Configuration Manager 2012 and later releases (including Current Branch versions). The CMAD is supported on Reporting Services 2008 R2 and later releases.

     

    Some might ask – but SSRS is so last yearNyah-Nyah

    That's why the team has also created a PowerBI versionSmile which comes with the offering “System Center Configuration Manager and Intune PowerBI Dashboard Integration”.

    So now you can harness all the capabilities of PowerBI to enhance the reporting experience.

    clip_image002

     

    Conclusion

     

    The Introduction of this solution has allowed SCCM Administrators to get a better view of the state of there SCCM environments.

    So you ask how do we get these Dashboards??Sarcastic smile

    If you are a Microsoft Premier customer you can reach out to your TAMs for delivery questions!!

    Amplify your Data & AI practice with deep learning

    $
    0
    0

    Are you looking to deliver advanced business intelligence to your customers? Attend these new technical webinar events to optimize your Data & AI technical knowledge. In attending these technical webinar events listed below, you can expand your technical knowledge of Azure services with direction from Microsoft experts.

    Technical Deep Dive on Data Platform Modernization to Azure (L 300) Discover how SQL Server combined with Azure Data Services for your Data Platform, provides your customers with the reliability and advanced business intelligence they’re looking for. During this technical webinar you’ll learn how you can leverage SQL Server in Azure to modernize your Data Platform. ​

    Explore the full suite of technical webinars and consultations available for the Data and AI technical journey at aka.ms/DataAITechJourney.


    Article 1

    $
    0
    0

    PRODUCTS INVOLVED

    • Microsoft Identity Manager 2016 Service Pack 1
      • Microsoft SQL Server 2012 Native Client Service Pack 1 (11.1.3000.0)
      • Forefront Identity Manager Synchronization Service
      • Forefront Identity Manager Service
    •  Microsoft SQL Server 2016
    NOTE This specific issue can occur on any of the Identity Manager products and/or components because the issue relates to SQL Server connectivity. I just mention the products above because that was the information specific to the support case worked.

    PROBLEM SCENARIO DESCRIPTION

    • The backend SQL Server 2016 server hosting the FIMSynchronizationService database was rebooted.
      • After this reboot, we were not able to launch the Synchronization Service Manager GUI (miisclient.exe).
      • After this reboot, we were not able to start the Forefront Identity Manager Synchronization Service through the Services MMC.
      • After this reboot, we were not able to start the Forefront Identity Manager Synchronization Service through the Services MMC.
    NOTE There is an exception regarding the ability to connect to SQL Server that is produced and dumped into the Application Event Log.   I did not capture that for my notes, so reviewing the Application Event Log, would be a really good idea.

    SOME TROUBLESHOOTING STEPS FOR TESTING CONNECTIVITY TO SQL

    1. Review the Application Event Log - in this specific case we focused on items associated with the FIM Synchronization Service
    2. You can confirm SQL Connectivity to be the issue by utilizing a UDL file to test connectivity.
    Verify / Validate Connectivity to the backend SQL Server Database using a UDL File
    A Universal Data Link (UDL) file is a way to test the connectivity to the backend SQL Server. Please find below the outline of steps to create a UDL file and test the connectivity to the backend SQL Server.
    NOTE It is important to note, that for troubleshooting connectivity to the backend SQL Server, we need to utilize the correct account that is associated with issue for which we are troubleshooting. The reason is that FIM/MIM utilizes Windows NT Authentication and not SQL Server Authentication.
    Account Examples
    • Installation Account: Account that is executing the installation of the product and/or the hotfix update
    • Synchronization Service Account: Account that talks to SQL Server via the Forefront Identity Manager Synchronization Service
    • FIM MA Account: Account that is utilized in the FIM Service Management Agent
    • Service Account: Account that talks to SQL Server via the Forefront Identity Manager Service

    One can test this via:

    1. Logging into the Synchronization Service machine as the Synchronization Service account and launching the UDL file
    2. Launching a command-prompt by running as a different user.
      1. Right mouse click on the Command Prompt icon and select Run as a different user
      2. Navigate to the Path where the UDL file is located.  (For ease of navigation, the recommendation is normally to use something like C:Temp)
    1. Create a new text file on the Desktop and call it TestSQL.TXT (*NOTE: The filename is not important. I utilize this for the purpose of this documentation.)
    2. Rename the file extension from TXT to UDL.
    3. Double click on the TestSQL.UDL file to launch the GUI
    4. On the Provider Tab, ensure that Microsoft OLE DB Provider for SQL Server is selected
    5. Click the Next Button
    6. On the Connection Tab,
    7. Enter the server name for the SQL Server that is hosting the backend database(s)
    8. Use Windows NT Integrated Security
    9. Click the Test Connection Button
    10. If this works, SQL Connectivity using OLEDB is valid

     

    1. Validate that TLS 1.0 is enabled and/or that the cumulative update is installed on the machine hosting the Forefront Identity Manager Synchronization Service and/or Forefront Identity Manager Service.
    Steps to check TLS
    1. Open the Windows Registry (Start > Run and type: regedit.exe)
    2. Navigate to: HKLM SYSTEMCurrentControlSetControlSecurityProvidersSCHANNELProtocols
    3. Under Protocols, you may or may not have keys for TLS 1.0, TLS 1.1 and/or TLS 1.2
    4. Under each TLS item are 2 keys (Client and Server)
    5. Once selected on Client or Server, DWORD values may exist
    Enabled
    0 Disabled
    1 Enabled
    DisabledByDefault
    0 Disabled
    1 Enabled

     

     

    NOTE Many companies are moving to more secure environments! In doing so, TLS 1.0 is being disabled.   Companies that disable TLS 1.0 may run into SQL Server connectivity issues for many reasons.
    1. Disabling TLS 1.0 occurred this year and previous versions of SQL Server were not configured to work with TLS 1.2, so disabling TLS 1.0 breaks SQL Server connectivity.
      1. If SQL Server connectivity is broken then the Forefront Identity Manager Synchronization Service and the Forefront Identity Manager Service will not start.
      2. If SQL Server connectivity is broken then the Synchronization Service Manager GUI will not launch

    CAUSE

    • TLS v1.0 was disabled
    • By default, the Forefront Identity Manager Synchronization Service and Forefront Identity Manager Service utilize TLS v1.0, so if TLS v1.0 is disabled, then it will prevent the handshake from occurring via SQL Server.

     

    NOTE One can validate TLS v1.0 by checking the following registry key:

    HKLM SYSTEMCurrentControlSetControlSecurityProvidersSCHANNELProtocols

     

    1. Under this registry key, are the keys for TLS 1.0, TLS 1.1 and TLS 1.2.
    2. Under each of the TLS branches are Client and Server
    3. Within each of those, you will find DWORD values
      1. Enabled ( 0 = False // 1 = True )

     

    There is more information on TLS within this Microsoft Documentation.

     

     

    RESOLUTION

    • To resolve the issue, we needed to install SQL Server 2012 Native Client SP3 and the Cumulative Update for SQL Server 2012 SP3.
    RESOLUTION STEPS
      • Identify if SQL Server 2012 Native Client SP3 is installed or not installed on the machine(s) hosting either the Forefront Identity Manager Synchronization Service and/or the Forefront Identity Manager Service.
    NOTE To confirm that SQL Server 2012 Native Client SP3 is installed:
    1. In Control Panel, open Programs and Features to list the applications installed on the machine.
    2. Locate the SQL Server 2012 Native Client
    3. Review the version of the Native Client, which should be the last column
    4. Review this blog with build numbers: https://sqlserverbuilds.blogspot.com/

    For SQL Server 2012 a high level breakout is:

    1. 11.0 = SQL Server 2012 RTM (No Service Pack)
    2. 11.1 = SQL Server 2012 SP1
    3. 11.2 = SQL Server 2012 SP2
    4. 11.3 = SQL Server 2012 SP3

    In the case that it is a different version of SQL Server, the following Microsoft Knowledge Base Article provides information around this topic along with a table identifying each of the Cumulative updates to download based on the version.  https://support.microsoft.com/en-us/help/3135244/tls-1-2-support-for-microsoft-sql-server

    ADDITIONAL INFORMATION / RESOURCES

    Please find our Support Team Blog here: https://blogs.technet.microsoft.com/iamsupport.

    • Some keywords to assist in locating the blog quickly through searches are: iamsupport

    MIM 2016 SP1 (4.4.1749.0): https://blogs.technet.microsoft.com/iamsupport/2017/11/30/support-release-mim2016-microsoft-identity-manager-2016-sp1-hotfix-4-4-1749-0-released/

    TLS INFORMATION:

    Table / Blog on the SQL Server cumulative updates for the TLS issue: .  https://support.microsoft.com/en-us/help/3135244/tls-1-2-support-for-microsoft-sql-server

    LayerX と日本マイクロソフトがブロックチェーン分野で協業【1/11更新】

    $
    0
    0

    LayerX と日本マイクロソフトは、ブロックチェーン分野において協業を開始します。両社は、企業へのブロックチェーン導入コンサルティング、開発支援等のサポートなどを行います。日本マイクロソフトは、Microsoft Azure ベースのブロックチェーンプラットフォームの提供に加え、エンタープライズ市場におけるブロックチェーン導入企業の開拓を行い、LayerX は、ブロックチェーン技術を導入するためのコンサルティングや設計、開発などの技術的なサポートを行います。さらに、両社でブロックチェーン技術の普及に向けた施策を検討、実施していきます。

    今回の協業により、ブロックチェーン技術の導入意向を持つ企業に対して、顧客ごとの事業領域やサービスに対してどのような領域がブロックチェーンに向いているかなどのコンサルティングから、Azure 上の BaaS を活用した開発の技術支援まで、導入プロセスをトータルで支援します。今後両社は、様々な業種でのブロックチェーン技術の実装を推進することで、人々の生活や働き方のトランスフォーメーション実現に向けて取り組みます。

    続きはこちら

     

     

     

     

     

     

     

    MS クラウド ニュースまとめ – GitHub Enterprise の販売を開始 他 (2019 年 1 月 9 日)

    $
    0
    0

    執筆者: Cloud Platform Team

    このポストは、2019 1 9 日に投稿されCloud Platform Release Announcements for January 9, 2018 の翻訳です。
     

    GitHub Enterprise の販売を開始

    2019 年 1 8 日より、マイクロソフトのお客様は Enterprise Agreements (EAEAS) から GitHub Enterprise (英語) を購入できるようになりました。GitHub を開発環境で利用できる GitHub Enterprise では、柔軟なデプロイメント オプションや数百種類もの統合機能が提供されます。アクセス許可も一元管理され、機能に関して妥協することなく GitHub のメリットを活用できます。

    詳細については GitHub Enterprise のページ (英語) をご覧ください。

    Azure Database Migration Service | PostgreSQL Azure Database for PostgreSQL へのオンライン移行のサポートを開始

    Azure Database Migration Service では、オンプレミス、仮想マシン、または Amazon RDS for PostgreSQL でホストされている PostgreSQL データベースを Azure Database for PostgreSQL に移行できるほか、移行中は移行元データベースをオンラインに保持することができます。

    Azure Database Migration Service を使用して最小限のダウンタイムでオンライン移行を実行する方法については、こちらのチュートリアルをご覧ください。

    Azure Database Migration Service | MySQL Azure Database for MySQL へのオンライン移行のサポートを開始

    Azure Database Migration Service では、オンプレミス、仮想マシン、または Amazon RDS for MySQL でホストされている MySQL データベースを Azure Database for MySQL に移行できるほか、移行中は移行元データベースをオンラインに保持することができます。

    Azure Database Migration Service を使用して最小限のダウンタイムでオンライン移行を実行する方法については、こちらのチュートリアルをご覧ください。

    Azure Data Box Disk の一般提供と Azure Data Box Blob Storage のプレビューを開始

    SSD ベースの Azure へのオフライン データ転送ソリューションである Azure Data Box Disk の一般提供を開始しました。米国、ヨーロッパ、カナダ、オーストラリアでご利用いただけます。その他のリージョンにも今後提供範囲を拡大する予定です。

    また、こちらのブログ記事 (英語) で紹介しているとおり、Azure Data Box Blob Storage をプレビューとしてリリースしました。有効化すると、Blob サービス REST API を使用してデータを Data Box Blob Storage にコピーできます。

    詳細については、記事の全文 (英語)Azure Data Box のページをご覧ください。

    ぜひ今すぐ Data Box Disk をご利用ください。

    Azure Database Migration Service | SQL Server Azure SQL Database へのオンライン移行のサポートを開始

    Azure Database Migration Service を使用すると、SQL Server データベースを Azure SQL Database に最小限のダウンタイムで移行できます。

    Azure Database Migration Service を使用してオンプレミスまたは仮想マシンの SQL Server Azure SQL Database に最小限のダウンタイムで移行する方法については、こちらのチュートリアルをご覧ください。

    Azure SQL Database | 仮想コア ベースの Azure SQL Databases Elastic Pool にさらに上位のコンピューティング性能を追加

    仮想コア ベース Elastic Pool Single Database で利用できるコンピューティング リソースの範囲が、General PurposeBusiness CriticalHyperscale の各サービス レベルで拡大されました。これにより柔軟性が向上し、DTU ベースのデプロイメントから切り替えて、クラウドに適切なサイズのワークロードを選択できるようになります。

    新しいオプションの詳細や、予約容量のお得な料金と Azure ハイブリッド特典を併用して毎月の支払額を抑える方法については、価格ページをご覧ください。

     

    クラウドへの移行を促進する Azure Migrate と Azure Site Recovery の新機能

    $
    0
    0

    執筆者: Sneha Agrawal (Senior Program Manager, Microsoft Azure)

    このポストは、2019 1 8 日に投稿されNew Azure Migrate and Azure Site Recovery enhancements for cloud migration の翻訳です。
     

    マイクロソフトは、お客様のクラウドへの移行とデジタル トランスフォーメーションを支援するために継続的にサービス強化を行っています。こうしたサービス強化については、「Windows Server と SQL Server のお客様に Azure が選ばれる 3 つの理由」でも紹介していますので、そちらもぜひご覧ください。今回の記事では、Azure への移行支援を目的として追加された Microsoft Azure Migrate Azure Site Recovery の新機能をご紹介します。

    Azure Migrate

    Azure Migrate では、オンプレミス環境を検出し、Azure への移行プランを作成することができます。今回は特に多かったご要望に沿って、Azure Government とヨーロッパの 2 つの地域で Azure Migrate をご利用いただけるようにしました。他の Azure の地域についても、今後サポートを予定しています。

    各地域で検出および評価に関するメタデータは、以下の Azure リージョンに保存されます。

    地域 メタデータが保存されるリージョン
    米国 米国中西部、米国東部
    ヨーロッパ 北ヨーロッパ、西ヨーロッパ
    Azure Government 米国政府バージニア

    Azure Portal で移行プロジェクトを作成すると、メタデータの保存先のリージョンは無作為に選択されます。たとえば米国でプロジェクトを作成する場合、保存先のリージョンには米国中西部か米国東部が自動的に選択されます。各地域の特定のリージョンにメタデータを保存したい場合は、REST API (英語) を使用して移行プロジェクトを作成し、API 要求でリージョンを指定します。

    なお、選択した地域によって移行先の Azure リージョンが制限されることはありません。Azure Migrate では、30 以上の Azure リージョンへの移行計画を作成できます。詳細についてはドキュメント「評価のカスタマイズ」をご覧ください。

    Azure Site Recovery

    Azure Site Recovery (ASR) は、オンプレミスの仮想マシン (VM) Azure IaaS VM に移行するリフトアンドシフトの移行を支援します。皆様からいただいたフィードバックに基づいて、今回 ASR の強化を行い、クラウドへの移行をさらにスムーズにしました。ASR の強化点は以下のとおりです。

    • ブート タイプが UEFI の物理サーバーをサポート: Azure ではこれまで、ブート タイプが UEFI VM はサポートされていませんでした。しかし、ASR ではこのようなオンプレミスの Windows Server のブート タイプを移行時に BIOS に変更し、Azure に移行することができます。従来、ASR でブート タイプを変更できるのは VM のみでしたが、今回の機能強化によってブート タイプが UEFI の物理サーバーの移行もサポートされるようになりました。ただし、サポート対象は Windows マシンのみ (Windows Server 2012 R2 またはそれ以降) となりますのでご注意ください。
    • Linux ディスクのサポート: これまで ASR には Linux マシンのディレクトリに関する制限があり、/ (ルート ディレクトリ)/boot/usr などのディレクトリが VM の同一 OS ディスクに存在する場合のみ移行が可能でした。また、/boot ディレクトリがディスク パーティション上ではなく LVM ボリューム上に存在する場合には対応していませんでした。しかし最新版 ASR では、異なるディスクにディレクトリが存在する場合や LVM ボリュームに /boot ディレクトリが存在する場合にも対応しました。これにより、LVM OS とデータ ディスクを管理する Linux VM の場合やディレクトリが複数のディスクにまたがって存在する場合にも、ASR で移行できるようになりました。詳細については、ドキュメント「VMware VM および物理サーバーの Azure へのディザスター リカバリーのサポート一覧」を参照してください。
    • どこからでも移行可能: ASR では、サーバーがプライベート クラウドやパブリック クラウドなど、どこで実行されているかにかかわらず Azure に移行できます。今回 AWS VM のゲスト OS の対応範囲が拡大され、ASR で以下のオペレーティング システムの AWS VM Azure に移行できるようになりました。
    移行元 OS バージョン
    AWS ● RHEL 6.5+ New

    ● RHEL 7.0+ New

    ● CentOS 6.5+ New

    ● CentOS 7.0+ New

    ● Windows Server 2016

    ● Windows Server 2012 R2

    ● Windows Server 2012

    ● 64 ビット版 Windows Server 2008 R2 SP1 またはそれ以降

    AWS から Azure への移行の詳細については、ドキュメント「Amazon Web Services (AWS) VM を Azure に移行する」を参照してください。

    VMware と物理サーバー サポート対象の OS バージョンの詳細については、ドキュメント「VMware VM および物理サーバーの Azure へのディザスター リカバリーのサポート一覧」を参照してください。
    Hyper-V ゲスト OS の制限はなし

     
    マイクロソフトは引き続き皆様からのご意見に耳を傾けながら、サービスの向上に努めてまいります。フィードバックやアイデアがありましたら、Azure Migrate (英語)ASR (英語) UserVoice フォーラムまでお気軽にお寄せください。

    これらのツールを使用されたことがない方は、まず Azure Migration Center をご利用ください。また、マイクロソフトは Azure Migration のコースの評価と計画を無料で実施しています (英語)。最適な移行を行うためにぜひご利用ください。

     

    システムドライブ (C:) 以外 や ページングファイル が非設定ドライブに、サードパーティー製 の Windows サービス の実行ファイルやDLLが存在する場合に、アプリケーションエラーが発生するシナリオについて

    $
    0
    0

    Windowsプラットフォームサポートの平井です。

    本記事では次の条件がすべて当てはまった場合に、サードパーティー製のWindowsサービスがc0000005(STATUS_ACCESS_VIOLATION)やc0000006(STATUS_IN_PAGE_ERROR)のアプリケーションエラーで異常終了するシナリオについて解説します。尚、この事象はPCのシャットダウン後の次回起動時に発生します。

    条件は次の通りです。

    条件1:高速スタートアップが有効な場合
    条件2:対象のサードパーティー製Windowsサービスの実行ファイルやDLLがデータボリューム(C:以外)に存在する場合
    条件3:対象のボリュームにページングファイルが非設定である場合
    条件4:対象のドライブにBitLockerの構成がデバイス暗号がオン、保護状態がオフの状態の場合

    本事象が発生する理由は次の通りです。

    高速スタートアップが有効の場合にPCをシャットダウンした場合、Windowsサービスのプロセスはメモリ上に残った状態で休止状態となります。

    この際、BitLockerの構成がデバイス暗号がオン・保護状態がオフの状態である場合、次回起動時にデータボリュームのデータを暗号化するためのキーを初期化する処理が発生し、BitLockerの仕様上ボリュームのディスマウントが必要となります。

    ボリュームのディスマウントが発生した結果、メモリ上にマッピングされたWindowsサービスのプロセスの実行ファイルやDLLの情報に不整合が発生し、c0000005(STATUS_ACCESS_VIOLATION)やc0000006(STATUS_IN_PAGE_ERROR)等のアプリケーションエラーで異常終了する状況が発生します。

    もし、上述の条件がすべて合致する環境にて、同様の問題を検出された場合、次の対応が必要となります。

    対応1:サードパーティー製Windowsサービスの実行ファイルやDLLをシステムドライブ(C:)配下にインストールする

    Windowsでは既定で、ページングファイルはシステムドライブ配下に保持されます。Windowsはページングファイルが存在するボリュームに対してディスマウントは発行しないため、本事象は発生しません。

    対応2:高速スタートアップを無効化する

    高速スタートアップが無効の場合にPCをシャットダウンした場合、Windowsサービスのプロセスは完全に停止し、メモリ上にプロセスに紐づく情報は残りません。

    対応3:BitLockerをデバイス暗号化/保護状態が共にオンに構成する

    BitLockerの設定がデバイス暗号化/保護状態が共にオンの場合、データボリュームの暗号化キーを初期化する処理が発生いたしません。このため、ボリュームのディスマウント処理が発生しないため、本事象は発生いたしません。

    対応4:ページングファイルをデーターボリュームにも配置する

    Windowsはページングが有効になったボリュームに対してディスマウント処理を発行しないため、、本事象は発生いたしません。

    1.コントロールパネルシステムとセキュリティシステムから、[システムの詳細設定]を開きます。
    2.[システムのプロパティ]>[詳細設定]タブを開き、[パフォーマンス]セクション配下の[設定]を選択します。
    3.[仮想メモリ]セクション 配下の、[変更]を選択します。
    4.[すべてのドライブのページングファイルのサイズを自動的に管理する]のチェックボックスが有効の場合は、外します。
    5.D:ドライブを選択し、[システム管理サイズ]>[設定]を選択し、[OK]を選択します。
    6.システムを再起動し、設定を適用します。

    Script to Clear Credman

    $
    0
    0

    With my customer facing role, there are lot of demonstrations to enterprise customers.  Manually reverting machines back to the initial starting point for the next demo can be time consuming and error prone.

    One example of this is clearing out the contents on Window's Credential Manager.  There is no option to do a block select to delete multiple entries at once.  Worse still is that Modern Authentication will create multiple entries inside Credential Manager.  An example is shown below for an Windows 7 test machine.  The same premise applies to Windows 10.

    Credential Manager - Multiple Entries Created by Modern Authentication

    In order to remove the entry, the Remove From Vault option must be clicked.  This is per entry which is a lot of overhead.

    Credential Manager - Remove From Vault

    Thankfully, there are some options...

    CmdKey To the Rescue

    Windows has the cmdkey.exe utility which can be used to manage the contents of Credential Manager.

    While we will look at the deletion option in this post, the documentation can be consulted for all of the other available options.

    cmdkey.exe /delete will remove the specified credential

    Cmdkey Syntax

     

    Cmdkey Command

    The base cmdkey commands can be automated using some old skool batch commands.

    FOR can be used to loop through the credentials and then pass them to the delete command.

    The below is a sample command which can be executed in a cmd prompt.

    For /F "tokens=1,2 delims= " %G in ('cmdkey /list ^| findstr Target') do  cmdkey /delete %H

     

     

    Cmdkey Batch File Automation

    Now that we have some tool which can be used to manipulate the saved credentials, it can be easily automated.

    The below is a sample command which can be executed in a batch file.

    Note that the syntax is changed slightly from the previous command

    For /F "tokens=1,2 delims= " %%G in ('cmdkey /list ^| findstr Target') do  cmdkey /delete %%H

    Command Explanation

    In case you are wondering about the pipe to findstr, this is due to the output returned by cmdkey.  There are multiple lines per credential, and we want to select the correct line for manipulation.

    Cmdkey /List - Note the Multiple Output Lines per Credential

    I'll let you figure out the % and %% differences.  Those who wrote batch files in the last century should remember the difference…..

    The same can be said for the circumflex character.

     

    Cheers,

    Rhoderick

    MyAnalytics, el monitor de estado físico del trabajo, ahora tiene una disponibilidad más amplia

    $
    0
    0

    Por: Natalie McCullough, gerente general de analítica en el lugar de trabajo y MyAnalytics.

    MyAnalytics, el monitor de estado físico del trabajo, ahora está disponible para todas las personas que utilizan Office 365 y las suites Microsoft 365 Enterprise y Business que incluyen Exchange Online. Antes, MyAnalytics sólo estaba disponible con un plan Enterprise E5 o como un complemento en los planes E1 y E3.

    A través de un tablero personal, un complemento de Outlook, y correos semanales, MyAnalytics hace un resumen de cómo pasan su tiempo en el trabajo, luego sugiere maneras para trabajar de manera más inteligente, desde recortar tiempo poco productivo de reuniones a reducir el tiempo que trabajan fuera de horario. Incluso utiliza Inteligencia Artificial (IA) para ayudarles a estar al tanto de sus pendientes al detectar compromisos que hayan hecho en un email.

    Tablero de MyAnalytics.

    Nueva información de valor ofrece un panorama completo de cómo pasan su tiempo en el trabajo

    Conforme seguimos con la evolución del producto, ahora también hacemos más integral la información de valor de MyAnalytics. En la actualidad, MyAnalytics brinda información basado en el tiempo que pasan en correos de Outlook y reuniones, y en llamadas y chats de Skype for Business. Ahora, agregamos nueva información basada en sus llamadas y chats de Microsoft Teams, así como en señales de documentos en los que trabajan que se encuentran guardados en OneDrive y SharePoint. Con 329 mil organizaciones y 87 de las Fortune 100 que utilizan Teams, esto nos lleva un paso más cerca de brindarles una imagen más completa de cómo pasan el tiempo en el trabajo.

    Complemento de Outlook de MyAnalytics y correo semanal.

    Un estudio reciente de Gallup encontró que dos tercios de los empleados de tiempo completo dicen que experimentan agotamiento en el trabajo. Diferentes factores contribuyen a este agotamiento, como el incremento en el ritmo del trabajo, un aumento en el trabajo colaborativo como chats, emails, y reuniones, y la continua tendencia de la tecnología que difumina las líneas entre el trabajo y la vida. Nuestros clientes nos dicen que buscan maneras para enfrentar estos retos al ayudar a sus empleados a encontrar tiempo para concentrarse, mejorar el balance entre el trabajo y la vida personal, construir mejores hábitos de reuniones, y crear conexiones más profundas con sus colegas. Con la ampliación de la disponibilidad de las características de MyAnalytics para nuestros millones de clientes, es nuestra meta hacer de los días de trabajo en todo el mundo más balanceados y gratificantes.

    Disponibilidad: La información de MyAnalytics proveniente de Microsoft Teams y de los documentos guardados en OneDrive y SharePoint comenzará a entregarse a clientes actuales con MyAnalytics en enero de 2019. Las características de MyAnalytics comenzarán a entregarse a las nuevas suites en los siguientes meses. Con estas actualizaciones, las características de MyAnalytics están ahora disponibles para las suites de Office 365 y Microsoft 365: Business Essentials, Business Premium E1, E3, y planes E5.


    Kalenderwoche 2/2019 für IT-Experten im Rückblick: Azure Data Box Disk, Microsoft 365, Azure SQL Database und mehr

    $
    0
    0

    Field Notes: The case of a crashing Hyper-V VM – Integration Services Out of Date

    $
    0
    0

    Background

    I recently had an opportunity to offer assistance on a case relating to stop errors (blues screens) experienced in a Virtual Machine (VM) running on a Hyper-V Failover Cluster.  I was advised that two attempts to increase memory on the VM did not provide positive results (I’ll explain later on why the amount of memory assigned to the VM was suspect).  The only thing I could initially get my hands on was a memory dump file, and I would like to take you through how one command in WinDbg can give you clues on what the cause of the issue was and how it was resolved.

    Quick Memory Dump Analysis

    So I started to take a look at the Kernel Memory Dump that was generated during the most recent crash using the Debugging Tools for Windows (WinDbg).  WinDbg can be downloaded at https://docs.microsoft.com/en-us/windows-hardware/drivers/debugger/debugger-download-tools.  I’m not a regular debugger but I immediately made interesting discoveries when I opened the dump file.

    The following are noticeable from the image above:

    • User address space may not be available as this is a kernel dump
    • Symbols and other information that may be useful such as product build
    • Bugcheck analysis (in case of a crash) with some good guidance on next steps

    Let us get the issue of assigned memory out of the way before we look at other data.  I used the !mem command from the MEX Debugging Extension for WinDbg (https://www.microsoft.com/en-us/download/details.aspx?id=53304) to dump memory information.  As it can be seen on the image below, available memory is definitely low, which explains the reason for increasing assigned memory (which was later dropped as it did not help in this case).

    image

    The !vm command provides similar output if you don’t use the MEX extension.

    I ran !analyze –v to get detailed debugging information as WinDbg suggests.

    image

    The output above shows that this was a Bug Check 0x7A: KERNEL_DATA_INPAGE_ERROR (https://docs.microsoft.com/en-us/windows-hardware/drivers/debugger/bug-check-0x7a--kernel-data-inpage-error).  More information can also be found in the WinDbg help file if you are unable to access the Internet.  Additional debug text states that the Windows Memory Manager detected corruption of a pagefile page while performing an in-page operation.  The data read from storage does not match the original data written.  This indicates the data was corrupted by the storage stack, or device hardware.  Just be careful since this is a VM and does not have direct access to hardware!

    This explanation is inline with what I picked up in the stack:

    image

    How to determine the appropriate page file size for 64-bit versions of Windows provides a nice summary and guidance on paging files.

    Let’s take a brief look at the !analyze window above (Bugcheck Analysis).  Here it can be seen that the BIOS date is 05/23/2012.  This is concerning as system BIOS should be kept up to date.  This also gave me a clue that we could be dealing with outdated Integration Services, which was the case.

    Hyper-V Integration Services allow a virtual machine to communicate with the Hyper-V host.  Many of these services are conveniences, such as guest file copy, while others are important to the virtual machine's ability to function correctly.

     

    What’s the cause of this unexpected behavior?

    You’ve guessed it! Outdated Integration Services.   Here’s what happened:

    • The VM was configured with a startup RAM of 4 GB
    • Guest physical memory dropped when the VM did not need it (memory was reclaimed by Hyper-V)
    • An attempt by the VM to reclaim this RAM later when it was required failed as it (the VM) had difficulties communicating with the host through the Dynamic Memory Integration Service

     

    Our Solution

    Upgrading Integration Services resolved the issue.  After monitoring for some time, the VM was stable and there was no more memory pressure – it was able to reclaim memory as it needed it.  Here is an example of what it looked like in Process Explorer’s System Information View.

    clip_image001

    This document also states that Integration Services must be upgraded to the latest version and that the guest operating system (VM) must supports Dynamic Memory in order for this feature to function properly.

    Summary

    I demonstrated how one command in WinDbg (!analyze –v) can help you with some clues when dealing with system crashes.  In this case, it was outdated Integration Services (BIOS date was the clue).  I would also like to highlight the importance of monitoring.  There is a lot of information on the Internet on ensuring smooth and reliable operation of Hyper-V hosts and VMs.

    If WinDbg and a memory dump was all you had, this would be one of the ways to go.  Grab a free copy and have it ready on your workstation if you don’t already have it installed : )

    Till next time…

    【はじめてシリーズ】はじめての Azure Cognitive Services 【1/12更新】

    $
    0
    0

    はじめてシリーズ」動画はマイクロソフトの製品や機能、テクノロジーを分かりやすく簡潔に解説するショート動画です。わずかな時間でタイトルの製品や機能がどういったものか理解できる内容です。この「はじめての Azure Cognitive Services」では、Azure Cognitive Services について解説します。ちょっと時間が空いた時に、短時間で知識を身に付けましょう。


    関連おすすめ動画 

     

     

     

     

     

     

    Top Contributors Awards! SQL Server and SSIS : Installation on Ubuntu and many more!

    $
    0
    0

    Welcome back for another analysis of contributions to TechNet Wiki over the last week.

    First up, the weekly leader board snapshot...

    As always, here are the results of another weekly crawl over the updated articles feed.

     

    Ninja Award Most Revisions Award
    Who has made the most individual revisions

     

    #1 Peter Geelen with 111 revisions.

     

    #2 Dave Rendón with 57 revisions.

     

    #3 George Chrysovaladis Grammatikos with 51 revisions.

     

    Just behind the winners but also worth a mention are:

     

    #4 Nonki Takahashi with 28 revisions.

     

    #5 Av111 with 19 revisions.

     

    #6 Arleta Wanat with 13 revisions.

     

    #7 Stephan Bren with 6 revisions.

     

    #8 H Shakir with 6 revisions.

     

    #9 Cian Allner with 6 revisions.

     

    #10 RajeeshMenoth with 6 revisions.

     

    Ninja Award Most Articles Updated Award
    Who has updated the most articles

     

    #1 Peter Geelen with 66 articles.

     

    #2 Nonki Takahashi with 16 articles.

     

    #3 George Chrysovaladis Grammatikos with 14 articles.

     

    Just behind the winners but also worth a mention are:

     

    #4 Dave Rendón with 13 articles.

     

    #5 RajeeshMenoth with 5 articles.

     

    #6 Av111 with 4 articles.

     

    #7 Arleta Wanat with 4 articles.

     

    #8 Stephan Bren with 2 articles.

     

    #9 H Shakir with 2 articles.

     

    #10 Cian Allner with 2 articles.

     

    Ninja Award Most Updated Article Award
    Largest amount of updated content in a single article

     

    The article to have the most change this week was Exchange 2019: Change the URL's with PowerShell, by Edward van Biljon

    This week's reviser was Peter Geelen

     

    Ninja Award Longest Article Award
    Biggest article updated this week

     

    This week's largest document to get some attention is SQL Server and SSIS : Installation on Ubuntu, by Av111

    This week's reviser was Av111

     

    Ninja Award Most Revised Article Award
    Article with the most revisions in a week

     

    This week's most fiddled with article is Azure IoT: Survival Guide, by Dave Rendón. It was revised 31 times last week.

    This week's reviser was Dave Rendón

     

    Ninja Award Most Popular Article Award
    Collaboration is the name of the game!

     

    The article to be updated by the most people this week is Azure Development Community Blog: Authoring Schedule, by Ed Price - MSFT

    This week's revisers were stephane eyskens, Pete Laker, Gaurav Aroraa, Andreas Helland, Sjoukje Zaal & Ed Price - MSFT

     

    Ninja Award Ninja Edit Award
    A ninja needs lightning fast reactions!

     

    Below is a list of this week's fastest ninja edits. That's an edit to an article after another person

     

    Ninja Award Winner Summary
    Let's celebrate our winners!

     

    Below are a few statistics on this week's award winners.

    Most Revisions Award Winner
    The reviser is the winner of this category.

    Peter Geelen

    Peter Geelen has been interviewed on TechNet Wiki!

    Peter Geelen has featured articles on TechNet Wiki!

    Peter Geelen has won 267 previous Top Contributor Awards. Most recent five shown below:

    Peter Geelen has TechNet Guru medals, for the following articles:

    Peter Geelen's profile page

    Most Articles Award Winner
    The reviser is the winner of this category.

    Peter Geelen

    Peter Geelen is mentioned above.

    Most Updated Article Award Winner
    The author is the winner, as it is their article that has had the changes.

    Edward van Biljon

    Ed (DareDevil57) has been interviewed on TechNet Wiki!

    Ed (DareDevil57) has won 65 previous Top Contributor Awards. Most recent five shown below:

    Ed (DareDevil57) has TechNet Guru medals, for the following articles:

    Ed (DareDevil57) has not yet had any featured articles (see below)

    Ed (DareDevil57)'s profile page

    Longest Article Award Winner
    The author is the winner, as it is their article that is so long!

    Av111

    Av111 has won 8 previous Top Contributor Awards. Most recent five shown below:

    Av111 has TechNet Guru medals, for the following articles:

    Av111 has not yet had any interviews or featured articles (see below)

    Av111's profile page

    Most Revised Article Winner
    The author is the winner, as it is their article that has ben changed the most

    Dave Rendón

    Dave Rendón has been interviewed on TechNet Wiki!

    Dave Rendón has won 90 previous Top Contributor Awards. Most recent five shown below:

    Dave Rendón has TechNet Guru medals, for the following articles:

    Dave Rendón has not yet had any featured articles (see below)

    Dave Rendón's profile page

    Most Popular Article Winner
    The author is the winner, as it is their article that has had the most attention.

    Ed Price - MSFT

    Ed Price - MSFT has been interviewed on TechNet Wiki!

    Ed Price - MSFT has featured articles on TechNet Wiki!

    Ed Price - MSFT has won 152 previous Top Contributor Awards. Most recent five shown below:

    Ed Price - MSFT has TechNet Guru medals, for the following articles:

    Ed Price - MSFT's profile page

    Ninja Edit Award Winner
    The author is the reviser, for it is their hand that is quickest!

    Andreas Helland

    This is the first Top Contributors award for Andreas Helland on TechNet Wiki! Congratulations Andreas Helland!

    Andreas Helland has not yet had any interviews, featured articles or TechNet Guru medals (see below)

    Andreas Helland's profile page

     Says: Another great week from all in our community! Thank you all for so much great literature for us to read this week!

    Please keep reading and contributing, because Sharing is caring..!!

     

    Best regards,

     

    【お客様事例】ビル設備の動作不具合を検知、室内環境を快適に保つための AI システム開発秘話【1/13更新】

    $
    0
    0

    いっときのトレンドではなく、継続して成長し続ける企業となるためには、既存事業にイノベーションを起こしていくことが欠かせません。ビル内設備の監視と管理、制御を総合的に行う BAS (Building Automation System) や、BAS をもってエネルギーを最適化する BEMS (Building Energy Management System) の世界的大手であるジョンソンコントロールズは、まさに連々たる革新によって業界内での高いプレゼンスを堅持している一社です。

    かつては専用コンピュータで稼働していた BAS と BEMS を 1990 年に汎用 PC ベースにするなど、同社は兼ねてより、テクノロジーの革新を進めてきました。そして現在は、先進技術である AI のサービス実装をスタートさせています。Microsoft Azure Machine Learning で構築した独自の AI モデルを FDD (Fault detection & diagnosis) と呼ばれる不具合検知サービスに実装することで、建物内の快適性をより一層高めているのです。

    続きはこちら

     

     

     

     

     

     

    Viewing all 36188 articles
    Browse latest View live


    <script src="https://jsc.adskeeper.com/r/s/rssing.com.1596347.js" async> </script>