Quantcast
Channel: TechNet Blogs
Viewing all 36188 articles
Browse latest View live

November 2018 Non-Security Office Update Release

$
0
0

Listed below are the non-security updates we released on the Download Center and Microsoft Update today. See the linked KB articles for more information.

Office 2010

Update for Microsoft Office 2010 (KB4461522)
Update for Microsoft Office 2010 (KB2863821)

Office 2013

Update for Microsoft Office 2013 (KB4461482)
Update for Microsoft Office 2013 (KB3178640)

Office 2016

Update for Microsoft Office 2016 Language Interface Pack (KB4461475)
Update for Microsoft Office 2016 (KB4461505)
Update for Microsoft Office 2016 (KB4461438)
Update for Microsoft Office 2016 (KB4461474)
Update for Microsoft PowerPoint 2016 (KB4461502)
Update for Microsoft Visio 2016 (KB4461472)


Friends don’t let friends compromise security: Extending cybersecurity to supply chains

$
0
0

Network attacks are on the rise, and as with all things security, it’s always best to get ahead.

This summer, the Wall Street Journal ran a story about Russian hackers infiltrating “air-gapped” networks of US utility companies with “relative ease” as just one part of a tale that’s becoming all too common. The NY Times described another scenario where a security researcher with Cyber Security firm UpGuard found tens of thousands of sensitive documents from major auto manufacturers planted on the open internet, including engineering plans, factory schematics, contracts, and non-disclosure agreements. And though they’re not cyber attacks per se, we also saw serious data privacy breaches with Facebook via Cambridge Analytica and Google via the Google+ API bug.

What remains consistent throughout these incidents and the countless others like them? Each one resulted from the exploitation of weak security by third parties like partners, suppliers, and customers. Whether intentional acts by bad actors, or through insufficient data controls, these incidents are always a possibility.

As the NYT article lays out:

“Many of the worst recent data breaches began with a vendor’s mistake. In 2013, thieves infiltrated Target’s payment terminals and stole credit and debit card information from 40 million customers. The attackers got in by hacking one of Target’s heating and ventilation contractors, then using information stolen from that business to gain access to Target’s systems.”

A November 2017 study of CISOs from Ponemon Institute found that only 22% of organizations hold their business partners, vendors, and other third parties to high security standards. Even more astonishing is that this comes in spite of the fact that over half the companies surveyed had suffered a breach as a result of a vendor’s lax security posture. In life-critical areas of our economy, such as the utilities sector, regulators are recognizing exactly how big of a risk this is. Just this week, the Federal Energy Regulatory Commission (FERC) approved new cybersecurity standards for supply chain risk management inclusive of documented management plans, electronic security perimeters, where vendors operate, and configuration change management and vulnerability assessments.

As Microsoft partners, many of you are directly involved in assessing, mitigating, and implementing security solutions for our mutual customers. Microsoft now has over 100 Co-Sell Ready third-party security solution offerings from our partner community, including Cloud Security Assessments, Advanced Threat Analytics onboarding, Secure Score implementations, real-time spear phishing and cyber fraud defense, EMS Managed Services, MFA deployment, training, and many others. However, how often do you expand the security work you do with our customers through their extended supply chain? How often do our customers even consider this at all?

Selling on fear isn’t always the best approach, yet sometimes, we notice complacency with our customers who have yet to experience the agony of a serious data breach loss. Customer obsession can sometimes make for uncomfortable conversations about the risk our customers are opening themselves up to. By not taking the appropriate protective action for their environments, all the way through to a partner’s IT environments, there is a legitimate risk factor that our customers need to know about. But what if establishing a strong defense beyond the customer’s IT estate is impractical or impossible? How should our customers respond then?

Matt Soseman, one of our security-focused Cloud Solution Architects posted an excellent summary back in July of our client security services: Preventing a data breach, avoiding the news, and keeping your job. In it, he details the importance of treating Identity as the new perimeter. It doesn’t just matter how tightly you’ve locked down your network and data, if your identity is compromised, that protection is meaningless. I absolutely suggest taking a closer look at this piece.

Our recommendation to partners involved in a security conversation with our customers, whether it is fundamentally a security engagement or as a consideration of a larger project, is to follow these three steps:

  1. Offer cyberattack simulations for your customer’s vendors on behalf of your customer. Office 365 Attack Simulator is a great example of a tool we use internally at Microsoft as well.
  2. Require Multi-Factor Authentication for any third-party organization that touches your customer’s systems/data. Azure Multi-Factor Authentication is a great solution for Office 365 and thousands of other cloud SaaS offerings.
  3. Enable Conditional Access via Azure Active Directory and combine with a robust policy for vendor access to privileged customer data.

These techniques and many more are detailed in Matt Soseman’s blog as well as through our Modern Workplace Webcast series, which you can register for here.

Scott Emigh is the Chief Technology Officer for Microsoft’s US One Commercial Partner (OCP) organization. With an extensive background in tech and solution sales, Scott leads a national team of Solution Architects, Evangelists, and Strategists all focused on developing and enabling our US partner ecosystem – ISVs, System Integrators, Managed Hosters, and Volume Channel. Our mission at Microsoft remains steadfast – to empower every organization on the planet to achieve more. Our partner ecosystem is at the forefront of bringing this powerful mission to life. OCP will work to transform our partner ecosystem and simplify the programs and investment structure for our partners to drive growth and profitability. We will provide the programs, tools, and resources you need to build and sustain a profitable, successful cloud business.

On the Move

$
0
0

Just a quick note that I am moving my blog over to Medium. I have migrated my TechNet posts from the past year to Medium and will only be posting new content on Medium going forward. This blog on TechNet will remain available as an archive for older content and posts.

I also regularly share news, insights, and articles on LinkedIn and Twitter as well if you want to follow me there.

Thanks for reading!

Surface タイプカバーロゴプリント無料キャンペーン【11/6更新】

$
0
0

Surface ProまたはSurface Goを2台以上ご購入いただいたお客様を対象に、タイプカバーキーボードのロゴプリント料が無料になるキャンペーンを実施中です!

* タイプカバーキーボードを2台以上ご購入のお客様が対象です。

詳細はこちら

 

 

 

Finally Deploy and Audit LAPS with Project VAST, Part 2 of 2

$
0
0

Hi folks – and welcome to the second in a two-part series about the Visual Auditing Security Tool (VAST) and the Local Administrator Password Solution (LAPS) tool. In the first part of this series, we discussed credential theft vectors, examined how LAPS can effectively slow down attackers (and thereby raise the cost of attacking your organization), and discussed how VAST can help you quickly and effectively deploy LAPS.

In this entry, we’ll turn our attention away from deploying LAPS and toward the thornier issue of auditing LAPS. We’ll discuss why you should audit LAPS, look at some of the difficulties with effectively auditing LAPS, and closely examine how VAST can help empower your organization.

Why You Need LAPS Auditing (Hint: Because it allows you to use LAPS)

Here’s a scenario: A company, call it TailSpin Toys, has been carefully following the Security Privileged Access roadmap (https://aka.ms/privsec) for some time now. They’ve made good progress, carefully deploying LAPS, partitioning their credentials according to the tiered model, and implementing Privileged Access Workstations (PAWs).

In this new administrative model, highly privileged accounts (for Tier 0) become Domain Controller Admin accounts (rather than Domain Admin-style accounts). TailSpin Toys’ server administrators are thoughtfully segregated according to task, necessity, and role. And Tier 2, or Workstation Admins, are still…well…they’re still Workstation Admins. Helpdesk and deskside support techs authenticate to workstations using accounts with broad entitlements throughout the enterprise; these accounts often enjoy administrative access to wide swaths of machines in particular regions, or (in extreme cases) to machines across the entire enterprise.

See the problem? LAPS has dramatically reduced the attack surface of the built-in Administrator account on workstations. Privileged Access Workstations and credential partitioning has reduced the risk of credential seepage onto assume compromised machines that sit on the Interwebs. However (you knew it was coming, right?  😊), TailSpin Toys has inadvertently left behind a major attack vector. As an attacker, I can no longer go after the built-in Admin account, but I can win wide latitude for lateral account movement by simply stealing a helpdesk or deskside Admin (Tier 2) account. This is particularly easy to do, as Tier 2 admins typically don’t operate on PAWs, meaning their machines (and by extension, their credentials) are accessible to remote attackers. So an attacker potentially only has to compromise one (or a handful) of machines in order to win access to every machine that the Tier 2 administrators have access to.

So what exactly constitutes an easy, low-cost, low-disruption solution to this quandary? Embracing the use of LAPS-managed local admin accounts in place of domain-based ones for support calls, of course. This effectively solves the problem described, but presents a new challenge of its own. If Bob and Alice both have access to the store of LAPS passwords (granted by ACLs in AD), how can an organization practice trust but verify of who has done what with the local accounts? Now consider that many organizations wish to grant arbitrary access to an entire helpdesk organization (which could be dozens of people). You see the challenge?

Lucky for us, LAPS writes a nice audit trail each and every time a password is retrieved from AD. Unlucky for us, it can be challenging to use effectively.

The Challenge(s) of LAPS Auditing

To be fully transparent, this section should really be called “the three challenge(s) of LAPS auditing.” To understand each of these challenges, let’s first examine how exactly LAPS implements (or more accurately leverages) auditing in AD.

Assuming that auditing and System Access Control Lists (SACLs) are appropriately configured, each time an attribute value is read, AD writes a 4662 Event: An operation was performed on an object. To be more specific, it writes multiple 4662 events. Herein lies our first challenge.

In my lab, I performed a simple LAPS lookup with an account called DA-SA1 and successfully retrieved the LAPS password. Then I popped over to the Event Viewer to have a look at the audit trail. Right away, I discovered a problem you might have suspected all along: 4662 is a very chatty Event ID.

Right away, there’s a lot to sift through. In this case, I have the advantage of knowing the general time for the retrieval I wish to audit. Because this was a test, I know that I performed the retrieval during the 3:00 PM hour. Narrowing the audit log, I see five 4662s in the log during that time:

Our second challenge is that AD writes multiple 4662s for each LAPS retrieval. How can we tell which is the one we care about? Well, scrolling through the entries, I can play the game which of these is not like the others? And we have a winner.

Four of the 4662 entries are for the expected Read Property access. And one is for Control Access. Recall that MSMCSADMPWD is protected by its status as a confidential attribute. And recall that confidential attributes require not just Read access, but also Control access to retrieve.

We’re making progress – and there’s just one final hurdle to clear. When I’m working with organizations that have implemented LAPS, we almost always see applications, products or accounts making inefficient LDAP queries. An inefficient query is where an entity pulls back all of the attributes for an object or set of objects and then parses them in memory or in its own data store. As the name suggests, it’s inefficient and can also be very taxing on the LDAP server (in this case, AD). It’s bad practice, but it’s also very widespread. In this type of reality, the third challenge becomes clear. How do I know that the 4662 Control access is actually for MSMCSADMPWD? We know because the log tells us so long as we know where to look.

Directly underneath the Access Mask (0x100 for Control Access), we see a listing of Properties. These are objectGUIDs for the confidential attributes that have been accessed. One of these signifies our MSMCSADMPWD attribute. But which one?

I need to do some detective work. For this, we’ll use PowerShell to dump out the objectGUID for the MSMCSADMPWD attribute. Note that this is unique for each Forest.

So I know that this objectGUID (starting with 1dab and ending with ef26 is what we’re after. And we see it in the 4662 Control log:

We have successfully audited my example LAPS password retrieval.

Scaling the Solution

Unless you are the rare IT professional with time on his or her hands(!), it’s not realistic to go through this process to meaningfully audit each and every LAPS password retrieval. And unless your organization is willing to introduce shared passwords without audit-ability (which it should absolutely not do), we need to make this process repeatable. Data aggregation tools like Log Analytics (now part of Azure Monitor) can help us get started.

Because I know the AccessMask I need (0x100 for Control) and the objectGUID (which I retrieved earlier – the one that started with “1dab”), I could certainly craft a query off of those parameters:

This will go a long way toward making LAPS truly auditable. Yet, I’m still in the business of sifting through a lot of log files. It’s do-able, just not very efficient.

In Project VAST, we take this a step further – and control all of the queries and filtering in the background. Let’s have a look at the LAPS Audit tab.

Starting in the upper left-hand spot, we can view all of the accounts that have retrieved passwords in this data set (briandel, JJWatt and TomBrady). Clicking on one of them filters the dataset like so:

From the data at the bottom, a story begins to emerge. We see that account briandel was used to retrieve the password for the computer JONSH386VM. This is important for verification purposes: was there a change or problem ticket opened? Does this account belong to a person whose role it is to access this type of machine? Was the account owner of briandel at work during these hours? Is this typical behavior for this account? We can see the data and begin to make important decisions at a glance.

Further, we can start to baseline the expected behavior for each account.

I see this account was used to perform a total of 168 password retrievals. This is a deceptively important insight. Over time, an organization can and should baseline account behaviors. If briandel is used for retrievals in the ballpark of 170 times a week, then that should be what we come to expect. We can measure derivation and take appropriate action. If we notice that briandel has gone from around 170 retrievals down to only a few, we’ll need to ensure the account is being used appropriately and that another, more privileged one is not being used in its place. If it goes from around 170 to 270 or 1700, we know we may have an early indicator of compromise: the account may be being used to raid the AD store of LAPS passwords.

By visualizing data in the way we do with Project VAST, we can also utilize it in a more typical forensic fashion. Let’s say that we are concerned that something potentially injurious was done on a machine; maybe data was exfiltrated or configuration changes were made. We can filter by computer name and date/time.

Let’s say that the event in question happened at 2:30AM on October 31. By filtering to the computer in question and simply sorting the logs by retrieval time and date, I can see what happened:

I see that user JJWatt retrieved the password at 2:15AM; the owner of the account (indeed anyone with access to its credentials) must be part of my investigation.

By carefully filtering, sorting, and querying the 4662 data coming from AD, we can turn a potential liability into an easily audited solution.

That wraps it up for LAPS auditing and Project VAST. Stay tuned next month when we’ll discuss another security capability of visualizing security Big Data with Project VAST.

I invite you to follow me on Twitter @securitypfe. And until then, happy auditing.

- Jon

配信の最適化について #3 効果測定篇

$
0
0

みなさま、こんにちは。WSUS サポート チームです。

今回は「概要篇」、「グループポリシー篇」に引き続き第 3 回は「効果測定篇」として、実際に配信の最適化でどの程度ピアからファイルを取得出来ているか、確認を行う手順について紹介をしていきます。

Windows 10 もバージョン アップが重ねられ、配信の最適化の機能も効果を確認することが出来る、以下の「アクティビティ モニター」の機能がバージョン 1709 から追加されています。

[スタート]  ボタン > [設定]  > [更新とセキュリティ]  > [詳細オプション] > [配信の最適化] > [アクティビティ モニター]

上記のアクティビティ モニターを利用することで、配信の最適化の効果もかなり簡単に確認が出来るようになったため、その手順について今回の記事では紹介していきます。

 

検証環境の構成および設定


今回の検証では、以下のシンプルな構成でバージョン 1803 のクライアントを 2 台用意し検証を行います。

実際の検証を行う場合には、本番環境に可能な限り近い構成で検証していただくことをオススメします。特にクライアントの台数は多いほど効果が得られ易いので、可能であれば多くのクライアント (例えば 10 台以上) を用意して検証をしてください。

また、今回は配信の最適化の機能について、効果を得られやすくするために、以下グループ ポリシーの設定を行います。これらのグループ ポリシーはいずれも「グループポリシー篇」で紹介しておりますので、詳細についてはそちらの記事をご参照ください。

  • ダウンロード モード : "グループ (2)"
  • グループ ID : 共通したグループ ID
  • 最小ピア キャッシュ コンテンツ ファイル サイズ (MB) : 1 MB
  • 最大キャッシュ時間 (秒) : 0 秒 (無制限)
  • http からのバックグラウンド ダウンロードを延期 (秒) : 3600 秒
  • http からのフォアグラウンド ダウンロードを延期 (秒) : 60 秒

 

検証手順


それでは実際の検証手順について紹介をしていきます。

 

事前準備

検証のために新しく OS をインストールした場合には、特に問題とはならないのですが、以前より環境を利用していた場合には、アクティビティ モニターのカウンターが一部カウント アップされてしまっていることがあります。

この場合には、各端末で以下のコマンドを管理者権限で実行し、Delivery Optimization サービスを一度停止した後に値を保持しているレジストリ キーを削除することで、カウンター値を全てクリアします。

net stop dosvc
reg delete HKEY_LOCAL_MACHINESOFTWAREMicrosoftWindowsCurrentVersionDeliveryOptimizationUsage /f
net start dosvc

 

1 台目のクライアントでの Windows Update の実施

1 台目のクライアントで Windows Update を実施し、配信の最適化のキャッシュが保存されるようにします。

  1. このブログの手順等に沿って、Windows Update を実行し、更新プログラムのダウンロードを完了させます。
    ※ 特にインストールまでしていただく必要はありません。
  2. Powershell で以下のコマンドを実行し、"Status" が "Caching" となっており、キャッシュの準備が完了しているものが存在するか確認を行います。
    << 実行コマンド >>
    Get-DeliveryOptimizationStatus

    << 実行例 (キャッシュの準備が完了出来ている場合) >>

    Get-DeliveryOptimizationStatus
    
    FileId : 8b46fea9c0a4ca53a93248c279b86cbc678b0216
    FileSize : 21734025
    TotalBytesDownloaded : 21734025
    PercentPeerCaching : 0
    BytesFromPeers : 0
    BytesFromHttp : 21734025
    Status : Caching
    Priority : Background
    BytesFromLanPeers : 0
    BytesFromGroupPeers : 0
    BytesFromInternetPeers : 0
    BytesToLanPeers : 0
    BytesToGroupPeers : 0
    BytesToInternetPeers : 0
    DownloadDuration : 00:00:03.0780000
    HttpConnectionCount : 2
    LanConnectionCount : 0
    GroupConnectionCount : 0
    InternetConnectionCount : 0
    DownloadMode : 2
    SourceURL : http://7.au.download.windowsupdate.com/c/msdownload/update/software/updt/2018/10/windows10.0-
    kb4462930-x64_8b46fea9c0a4ca53a93248c279b86cbc678b0216.cab
    
    (以下略)

    ※ 注意 : キャッシュの準備が 1 つも出来ていない場合には、Delivery Optimization のクラウド サービスへ接続出来ていない可能があります。このブログで紹介しているポート要件が満たされているか、またこちらこちらのブログで紹介している通り、プロキシの設定が正しく行われているか改めて確認してください。

  3. 念のため、アクティビティ モニターを立ち上げて状況を確認します。1 台目のクライアントのために、通常は以下のように、ほとんどキャッシュからは取れていません。

 

2 台目以降のクライアントでの Windows Update の実行

続けて 2 台目以降のクライアントで、Windows Update を実行し、実際にキャッシュからどの程度情報を取ってこれるか確認を行います。

  1. 2 台目以降のクライアントでも Windows Update を実行します。ただし、今回は "http からのバックグラウンド ダウンロードを延期 (秒)" の設定によって、キャッシュが利用される確率を上げるため、以下のコマンドを実行してバックグラウンドでダウンロード処理を開始させます。
    usoclient StartScan
  2. Powershell で以下のコマンドを実行し、状況を確認します。"BytesFromPeers" がカウント アップされていれば、クライアント間での通信が行われているものと考えられます。
    << 実行コマンド >>
    Get-DeliveryOptimizationStatus

    << 実行例 (キャッシュからファイルのダウンロードが行われている場合) >>

    Get-DeliveryOptimizationStatus
    
    FileId : 1d4edb196dcd01bb090cceaa3e7633ea9e48d475
    FileSize : 132970352
    TotalBytesDownloaded : 132970352
    PercentPeerCaching : 100
    BytesFromPeers : 132970352
    BytesFromHttp : 0
    Status : Caching
    Priority : Background
    BytesFromLanPeers : 132970352
    BytesFromGroupPeers : 0
    BytesFromInternetPeers : 0
    BytesToLanPeers : 0
    BytesToGroupPeers : 0
    BytesToInternetPeers : 0
    DownloadDuration : 00:00:27.3590000
    HttpConnectionCount : 2
    LanConnectionCount : 1
    GroupConnectionCount : 0
    InternetConnectionCount : 0
    DownloadMode : 2
    SourceURL : http://11.au.download.windowsupdate.com/d/msdownload/update/software/defu/2018/10/am_base_1d4edb196dcd01bb090cceaa3e
    7633ea9e48d475.exe
    
    (以下略)

    ※ 注意 : キャッシュよりダウンロードが行われない場合には、公開情報に記載の通りこちらこちらの点をご確認ください。

  3. ダウンロードが完了したら、アクティビティ モニターを立ち上げ、キャシュからどの程度ファイルが取って来れたかを確認します。今回の検証では、かなりキャッシュから取って来易いよう設定したため、73.19 % をキャッシュから取ってこれていることが確認出来ます。
    ※ "http からのバックグラウンド ダウンロードを延期 (秒)" を利用している場合には、ダウンロードが完了するまでに長時間を要する可能性があるご留意ください。

    なお、以下の Powershell コマンドで同じ内容を出力することも可能なため、複数のクライアントで統計情報を収集する際にはお役立てください。
    << 実行コマンド >>
    Get-DeliveryOptimizationPerfSnapThisMonth

    << 実行例  >>

    Get-DeliveryOptimizationPerfSnapThisMonth
    
    MonthlyUploadLanBytes : 402,519,920
    MonthlyUploadInternetBytes : 0
    MonthlyDownloadHttpBytes : 155,175,324
    MonthlyDownloadLanBytes : 423,621,728
    MonthlyDownloadInternetBytes : 0
    MonthlyDownloadFgRateKbps : 0
    MonthlyDownloadBgRateKbps : 28,757
    MonthlyUploadLimitReached : No
    MonthStartDate : 11/1/2018
    

 

さてこれで配信の最適化に関する一連のシリーズは以上です。リリースされた当初は動きが分かりづらかったり、コントロールしにくい点が多かったかと思いますが、バージョンアップの度に機能が改善されていますので、今後の導入検討の参考となれば幸いです!

 

(免責事項)
本情報の内容
 (添付文書、リンク先などを含むは、作成日時点でのものであり、予告なく変更される場合があります。

System Center Configuration Manager ハードウェア インベントリが収集されない時のトラブルシュート

$
0
0

みなさま、こんにちは。

日本マイクロソフト System Center Configuration Manager サポートの金です。

本日は、System Center Configuration Manager Current Branch (以下、SCCM CB) にて、ハードウェア インベントリが収集されないといったお問い合わせを多々いただいております。

その際に、一度、お試しいただきたいトラブルシュート方法をご紹介いたしますので、お役立て頂けますと幸いでございます。

A. 強制でフルのポリシー、インベントリの収集を行う


ハードウェア インベントリが収集できない原因は複数あり対処方法もそれぞれ異なりますが、

フルのコンピューター ポリシーを強制的に受信させることで、事象が改善されることがございます。

そのため、事象を発覚しましたら、まずは、クライアントにて PowerShell を管理者権限で開き、以下のコマンドの実行をお試しください。

 

gwmi -Namespace rootccmpolicymachinerequestedconfig -Class CCM_Policy_AuthorityData2 | rwmi

gwmi -Namespace rootccmpolicymachinerequestedconfig -Class CCM_Policy_ServerCookieData | rwmi

((New-Object -comobject cpapplet.cpappletmgr).GetClientActions() | Where-Object {$_.Name -eq 'Request & Evaluate Machine Policy'}).PerformAction();

Start-Sleep 120

$trigger = "{00000000-0000-0000-0000-000000000022}"

Invoke-WmiMethod -Namespace rootccm -Class sms_client -Name TriggerSchedule $trigger

 

 

上記のコマンドで、コンピューターポリシーが受信されたら、続いて、以下のコマンドでフルのハードウェアインベントリを強制的に収集します。

 

gwmi -Namespace rootccminvagt -Class InventoryActionStatus -Filter "InventoryActionID='{00000000-0000-0000-0000-000000000001}'" | rwmi

((New-Object -comobject cpapplet.cpappletmgr).GetClientActions() | Where-Object {$_.Name -eq 'Hardware Inventory Collection Cycle'}).PerformAction();

 

B. サイト サーバーの BADMIFS フォルダを確認する


上記のコマンドを実行いただいても、事象が改善されない場合は、クライアントから送られたハードウェアインベントリのレポートファイル (MIF ファイル) に問題がある可能性がございますので、SCCM サイト サーバーの以下のフォルダを確認します。

<SCCM インストール パス>Inboxesauthdataldr.boxBADMIFS

既定では、C:Program FilesMicrosoft Configuration Managerinboxesauthdataldr.boxBADMIFS となります。

 

クライアントから受信した MIF ファイルは、サイト サーバーのdataldr.boxに格納され、処理されます。

しかし、MIF ファイルに問題があり処理できなかった場合は、上記の BADMIFS の配下のフォルダに格納されます。

BADMIF フォルダの配下には、複数のフォルダが存在しており、フォルダごとに、MIF ファイルが格納される条件や対処方法が異なります。

通常、BADMIF フォルダの配下に格納される MIF ファイルは、既定の保存期間の 14 日が経過すると、自然と BADMIF フォルダから消えますが、

同じ端末からの MIF ファイルが継続格納される場合は、何らかの障害があると考えられますので、対処が必要となります。

BADMIF の配下で主に見かけられるフォルダは以下とおりであり、各フォルダに格納される条件や対策についても、以下に合わせてご説明させていただきます。

(1) DeltaMismatch

- 格納条件

差分インベントリ データの連番が合わなかった場合(いずれかの古い差分データが未到着)

- 対処方法

次回のスキャン時に、新たにフル ハードウェア インベントリが収集されるため、時間の経過とともに事象が解決されます。

もしくは、クライアントでフルのハードウェアインベントリをスクリプトで強制送信させることで、事象が解決されます。

(2) InvalidMachine

- 格納条件

MIF ファイルに含まれる GUID に合致するレコードが見つからない場合

- 対処方法

GUID 重複が発生していない場合は、クライアントで探索データが送信された後、ハードウェア インベントリが収集されることで、時間の経過とともに事象が解決されます。

ただちに対処する場合は、探索データを送信した後、フルのハードウェアインベントリをスクリプトで強制送信させることで、事象が解決されます。

ただし、GUID 重複が発生している場合は、SCCM の情報を完全に削除して、SCCM クライアントを再インストールするなどの対処が必要となります。

(3) MajorMismatch

- 格納条件

フル インベントリ データがないところに差分インベントリ データが到着した場合

- 対処方法

次回のスキャン時に、新たにフル ハードウェア インベントリが収集されるため、時間の経過とともに事象が解決されます。

もしくは、クライアントでフルのハードウェアインベントリをスクリプトで強制送信させることで、事象が解決されます。

(4) MissingSystemClass

- 格納条件

MIF ファイルの中の最上位のグループ定義が存在しなかった場合

- 対処方法

対象端末のインベントリが更新されていれば、特に対処は必要ありません。

更新されていない場合は、クライアントでフルのハードウェアインベントリをスクリプトで強制送信させることで、事象が解決されます。

(5) NonExistentRow

- 格納条件

存在しないレコードを更新しようとした場合(いずれかの古い差分データが未到着)

- 対処方法

クライアントで探索データが送信された後、ハードウェア インベントリが収集されることで、時間の経過とともに事象が解決されます。

ただちに対処する場合は、探索データを送信した後、フルのハードウェアインベントリをスクリプトで強制送信させることで、事象が解決されます。

(6) Outdated

- 格納条件

クライアントから送信された MIF ファイルのレポート バージョンが、SCCM のサーバー上に保存されているバージョンより古く、期限切れであった場合

- 対処方法

サーバー上で、一度クライアントを削除します。その後、クライアントから探索データが送信されて、新たにフル ハードウェア インベントリが送信されることに伴い、レポート バージョンも更新され、事象が解消されます。

(7) ExceedSizeLimit

- 格納条件

MIF ファイルのサイズが、以下で設定しているサイズ制限値を超過した場合 (既定値 : 5MB) "HKLMSOFTWAREMicrosoftSMSComponentsSMS_INVENTORY_DATA_LOADERMax MIF Size"

- 対処方法

上記のレジストリ キーの値を、適切な値に変更します。もしくは、収集対象とするインベントリのクラスを減らし、サイズ制限値を超えないようにします。

(8) ErrorCode_%d

- 格納条件

MIF ファイルが、上記記載の原因以外の原因で格納された場合、"%d" にはエラーコードが記載される。

- 対処方法

エラーコードにより、対処方法が異なります。

 

以上となります。

MPNパートナー向けMonthly Webinarのご案内 2018年11月【11/7更新】

$
0
0

マイクロソフトでは、パートナー様を対象としてさまざまな製品やキャンペーン、プログラムなどの最新情報を日々発信しております。
本Webinarでは特にパートナー様に押さえておいてほしいトピックについて、毎月、約 1 時間で完結する内容で解説いたします。

11月度の開催日程は2018 年 11月 20日 13:30 ~ 14:30 となります。

※本Webinarでお伝えする内容は、予告なく変更する場合やアジェンダにより時間が短くなる場合があります。
あらかじめご了承ください。

■アジェンダ(予定)
・MPN 特典: クラウド ビジネス相談センターの紹介

etc

▼ご登録はこちらから (イベント終了後は録画をご覧いただけます)

過去の月例ウェビナーの内容は「月例ウェビナー (MPN Monthly Webinar)」タグでご覧いただけます。


MPNパートナー向けMonthly Webinarのご案内 2018年10月【10/9更新】

$
0
0

マイクロソフトでは、パートナー様を対象としてさまざまな製品やキャンペーン、プログラムなどの最新情報を日々発信しております。
本Webinarでは特にパートナー様に押さえておいてほしいトピックについて、毎月、約 1 時間で完結する内容で解説いたします。

11月度の開催日程は2018 年 11月 20 日 13:30 ~ 14:30 となります。

※本Webinarでお伝えする内容は、予告なく変更する場合やアジェンダにより時間が短くなる場合があります。
あらかじめご了承ください。

■アジェンダ(予定)
・MPN 特典: クラウド ビジネス相談センターの紹介
etc.

▼ご登録はこちらから (イベント終了後は録画をご覧いただけます)

 

過去の月例ウェビナーの内容は「月例ウェビナー (MPN Monthly Webinar)」タグでご覧いただけます。

 

 

 

(Cloud) Tip of the Day: Immutable storage for Azure Storage Blobs now generally available

$
0
0

Today's tip...

Financial Services organizations regulated by the Securities and Exchange Commission (SEC), Commodity Futures Trading Commission (CFTC), Financial Industry Regulatory Authority (FINRA), Investment Industry Regulatory Organization of Canada (IIROC), Financial Conduct Authority (FCA), and more are required to retain business-related communications in a Write-Once-Read-Many (WORM) or immutable state that ensures they are non-erasable and non-modifiable for a specific retention interval. The immutable storage requirement is not limited to financial organizations but also applies to industries such as healthcare, insurance, media, public safety, and legal services.

We are excited to reveal the general availability of immutable storage for Azure Storage Blobs to address this requirement. The feature is available in all Azure public regions. Through configurable policies, users can keep Azure Blob storage data in an immutable state where Blobs can be created and read, but not modified or deleted.

Friends don’t let friends compromise security: Extending cybersecurity to supply chains

$
0
0

Network attacks are on the rise, and as with all things security, it’s always best to get ahead.

This summer, the Wall Street Journal ran a story about Russian hackers infiltrating “air-gapped” networks of US utility companies with “relative ease” as just one part of a tale that’s becoming all too common. The NY Times described another scenario where a security researcher with Cyber Security firm UpGuard found tens of thousands of sensitive documents from major auto manufacturers planted on the open internet, including engineering plans, factory schematics, contracts, and non-disclosure agreements. And though they’re not cyber attacks per se, we also saw serious data privacy breaches with Facebook via Cambridge Analytica and Google via the Google+ API bug.

What remains consistent throughout these incidents and the countless others like them? Each one resulted from the exploitation of weak security by third parties like partners, suppliers, and customers. Whether intentional acts by bad actors, or through insufficient data controls, these incidents are always a possibility.

As the NYT article lays out:

“Many of the worst recent data breaches began with a vendor’s mistake. In 2013, thieves infiltrated Target’s payment terminals and stole credit and debit card information from 40 million customers. The attackers got in by hacking one of Target’s heating and ventilation contractors, then using information stolen from that business to gain access to Target’s systems.”

A November 2017 study of CISOs from Ponemon Institute found that only 22% of organizations hold their business partners, vendors, and other third parties to high security standards. Even more astonishing is that this comes in spite of the fact that over half the companies surveyed had suffered a breach as a result of a vendor’s lax security posture. In life-critical areas of our economy, such as the utilities sector, regulators are recognizing exactly how big of a risk this is. Just this week, the Federal Energy Regulatory Commission (FERC) approved new cybersecurity standards for supply chain risk management inclusive of documented management plans, electronic security perimeters, where vendors operate, and configuration change management and vulnerability assessments.

As Microsoft partners, many of you are directly involved in assessing, mitigating, and implementing security solutions for our mutual customers. Microsoft now has over 100 Co-Sell Ready third-party security solution offerings from our partner community, including Cloud Security Assessments, Advanced Threat Analytics onboarding, Secure Score implementations, real-time spear phishing and cyber fraud defense, EMS Managed Services, MFA deployment, training, and many others. However, how often do you expand the security work you do with our customers through their extended supply chain? How often do our customers even consider this at all?

Selling on fear isn’t always the best approach, yet sometimes, we notice complacency with our customers who have yet to experience the agony of a serious data breach loss. Customer obsession can sometimes make for uncomfortable conversations about the risk our customers are opening themselves up to. By not taking the appropriate protective action for their environments, all the way through to a partner’s IT environments, there is a legitimate risk factor that our customers need to know about. But what if establishing a strong defense beyond the customer’s IT estate is impractical or impossible? How should our customers respond then?

Matt Soseman, one of our security-focused Cloud Solution Architects posted an excellent summary back in July of our client security services: Preventing a data breach, avoiding the news, and keeping your job. In it, he details the importance of treating Identity as the new perimeter. It doesn’t just matter how tightly you’ve locked down your network and data, if your identity is compromised, that protection is meaningless. I absolutely suggest taking a closer look at this piece.

Our recommendation to partners involved in a security conversation with our customers, whether it is fundamentally a security engagement or as a consideration of a larger project, is to follow these three steps:

  1. Offer cyberattack simulations for your customer’s vendors on behalf of your customer. Office 365 Attack Simulator is a great example of a tool we use internally at Microsoft as well.
  2. Require Multi-Factor Authentication for any third-party organization that touches your customer’s systems/data. Azure Multi-Factor Authentication is a great solution for Office 365 and thousands of other cloud SaaS offerings.
  3. Enable Conditional Access via Azure Active Directory and combine with a robust policy for vendor access to privileged customer data.

These techniques and many more are detailed in Matt Soseman’s blog as well as through our Modern Workplace Webcast series, which you can register for here.

Scott Emigh is the Chief Technology Officer for Microsoft’s US One Commercial Partner (OCP) organization. With an extensive background in tech and solution sales, Scott leads a national team of Solution Architects, Evangelists, and Strategists all focused on developing and enabling our US partner ecosystem – ISVs, System Integrators, Managed Hosters, and Volume Channel. Our mission at Microsoft remains steadfast – to empower every organization on the planet to achieve more. Our partner ecosystem is at the forefront of bringing this powerful mission to life. OCP will work to transform our partner ecosystem and simplify the programs and investment structure for our partners to drive growth and profitability. We will provide the programs, tools, and resources you need to build and sustain a profitable, successful cloud business.

DPM にて VTL をご利用いただく際の注意点について

$
0
0

こんにちは。日本マイクロソフト System Center Support Team の益戸です。
今回は、SC DPM にてテープ装置をご利用いただく際の注意点についてお伝えいたします。

昨今では、今までの物理テープライブラリの他、VTL を採用いただくお客様も増えてまいりました。
比較的、物理テープ装置より構成に自由度があり、冗長化や MPIO などにも対応している機器も増えております。

しかしながら、DPM では、あくまで OS がデバイスマネージャーにて認識した構成を元に動作いたします為、以下の構成等の場合には、想定通り動作しない場合があります。

<デバイスマネージャー上に複数のライブラリとして登録される事例>
VTL からは、1 台のテープライブラリを DPM サーバーへ見せる構成となりますが、デバイスマネージャー上からは、以下のように複数のテープライブラリと認識される場合があります。

具体的には、LAAgentCurr.errlog (※) に以下の通り、すでにテープドライブが構成済みである [Tape drive found at drive bay X is already configured!!] がメッセージが表示され、動作としては、テープドライブが認識したり、しなかったりと不安定な動作となります。
デバイスマネージャーに対して、どのように認識させるかという点については、テープライブラリの仕様に依存しますが、DPM としては、常に 1 台のライブラリに対しては、デバイスマネージャー上からは 1 台のみが表示される構成でご利用ください。

※ LAAgentCurr.errlog は、DPM がテープライブラリに関する情報が出力されるログファイルです。
DPM ログ記録の設定 : https://docs.microsoft.com/ja-jp/system-center/dpm/set-up-dpm-logging?view=sc-dpm-2016

===========
2F4C      2FC0      09/07     08:09:17.868       30           cfgclass.cpp(176)              [000001C36DB68FE8]      1CB8319C-6113-4441-B859-226E074848ED            NORMAL             Initializing Device with path \?scsi#sequential&ven_hp&prod_ultrium_vt#5&3459bf6&0&000600#{53f5630b-b6bf-11d0-94f2-00a0c91efb8b}
2F4C      2FC0      09/07     08:09:17.868       30           system.cpp(1183)                            1CB8319C-6113-4441-B859-226E074848ED   WARNING           Failed: Hr: = [0x80070002] Failed to initialize IOCTL timeout from registry. Initializing with default timeout [900000 ms].
2F4C      2FC0      09/07     08:09:17.868       30           system.cpp(1168)                            1CB8319C-6113-4441-B859-226E074848ED   WARNING           Failed: Hr: = [0x80070002] : Encountered Failure: : lVal : r.GetValue(L"LibraryIoctlTimeout", &s_dwIoctlTimeoutInMs)
2F4C      2FC0      09/07     08:09:17.868       30           cfgclass.cpp(176)              [000001C36DB693F8]      1CB8319C-6113-4441-B859-226E074848ED            NORMAL             Initializing Device with path \?scsi#sequential&ven_hp&prod_ultrium_vt#5&3a80e81a&0&000600#{53f5630b-b6bf-11d0-94f2-00a0c91efb8b}
2F4C      2FC0      09/07     08:09:17.868       30           cfgclass.cpp(176)              [000001C36DB69808]      1CB8319C-6113-4441-B859-226E074848ED            NORMAL             Initializing Device with path \?scsi#sequential&ven_hp&prod_ultrium_vt#5&3459bf6&0&000800#{53f5630b-b6bf-11d0-94f2-00a0c91efb8b}
2F4C      2FC0      09/07     08:09:17.868       30           cfgclass.cpp(176)              [000001C36DB69C18]      1CB8319C-6113-4441-B859-226E074848ED            NORMAL             Initializing Device with path \?scsi#sequential&ven_hp&prod_ultrium_vt#5&3a80e81a&0&000800#{53f5630b-b6bf-11d0-94f2-00a0c91efb8b}
2F4C      2FC0      09/07     08:09:17.868       30           cfgclass.cpp(1104)           [000001C36CCBE690]      1CB8319C-6113-4441-B859-226E074848ED            NORMAL             We got 4  devices for class 1
2F4C      2FC0      09/07     08:09:17.868       30           cfgclass.cpp(176)              [000001C36DB6C688]      1CB8319C-6113-4441-B859-226E074848ED            NORMAL             Initializing Device with path \?scsi#changer&ven_hp&prod_d2dbs#5&3459bf6&0&000900#{53f56310-b6bf-11d0-94f2-00a0c91efb8b}
2F4C      2FC0      09/07     08:09:17.868       30           cfgclass.cpp(176)              [000001C36DB6CA98]     1CB8319C-6113-4441-B859-226E074848ED            NORMAL             Initializing Device with path \?scsi#changer&ven_hp&prod_d2dbs#5&3459bf6&0&000500#{53f56310-b6bf-11d0-94f2-00a0c91efb8b}
2F4C      2FC0      09/07     08:09:17.868       30           cfgclass.cpp(176)              [000001C36DB6CEA8]     1CB8319C-6113-4441-B859-226E074848ED            NORMAL             Initializing Device with path \?scsi#changer&ven_hp&prod_d2dbs#5&3a80e81a&0&000900#{53f56310-b6bf-11d0-94f2-00a0c91efb8b}
2F4C      2FC0      09/07     08:09:17.868       30           cfgclass.cpp(176)              [000001C36DB6D2B8]     1CB8319C-6113-4441-B859-226E074848ED            NORMAL             Initializing Device with path \?scsi#changer&ven_hp&prod_d2dbs#5&3a80e81a&0&000500#{53f56310-b6bf-11d0-94f2-00a0c91efb8b}
2F4C      2FC0      09/07     08:09:17.868       30           cfgnudev.cpp(185)          [000001C36D91D1B0]     1CB8319C-6113-4441-B859-226E074848ED            NORMAL             Number of changers 4
2F4C      2FC0      09/07     08:09:17.883       30           lacommonlib.cpp(157)                   1CB8319C-6113-4441-B859-226E074848ED   NORMAL             Element 0 is not accessible
2F4C      2FC0      09/07     08:09:17.883       30           cfgnudev.cpp(741)          [000001C36D91D1B0]     1CB8319C-6113-4441-B859-226E074848ED            NORMAL             Tape drive found at drive bay 0 is already configured!!
2F4C      2FC0      09/07     08:09:17.883       30           cfgnudev.cpp(741)          [000001C36D91D1B0]     1CB8319C-6113-4441-B859-226E074848ED            NORMAL             Tape drive found at drive bay 1 is already configured!!
2F4C      2FC0      09/07     08:09:17.883       30           cfgnudev.cpp(741)          [000001C36D91D1B0]     1CB8319C-6113-4441-B859-226E074848ED            NORMAL             Tape drive found at drive bay 2 is already configured!!
2F4C      2FC0      09/07     08:09:17.883       30           cfgnudev.cpp(741)          [000001C36D91D1B0]     1CB8319C-6113-4441-B859-226E074848ED            NORMAL             Tape drive found at drive bay 3 is already configured!!
2F4C      2FC0      09/07     08:09:17.899       30           lacommonlib.cpp(157)                   1CB8319C-6113-4441-B859-226E074848ED   NORMAL             Element 0 is not accessible
2F4C      2FC0      09/07     08:09:17.899       30           cfgnudev.cpp(741)          [000001C36D91D1B0]     1CB8319C-6113-4441-B859-226E074848ED            NORMAL             Tape drive found at drive bay 0 is already configured!!
2F4C      2FC0      09/07     08:09:17.899       30           cfgnudev.cpp(741)          [000001C36D91D1B0]     1CB8319C-6113-4441-B859-226E074848ED            NORMAL             Tape drive found at drive bay 1 is already configured!!
2F4C      2FC0      09/07     08:09:17.899       30           cfgnudev.cpp(741)          [000001C36D91D1B0]     1CB8319C-6113-4441-B859-226E074848ED            NORMAL             Tape drive found at drive bay 2 is already configured!!
2F4C      2FC0      09/07     08:09:17.899       30           cfgnudev.cpp(741)          [000001C36D91D1B0]     1CB8319C-6113-4441-B859-226E074848ED            NORMAL             Tape drive found at drive bay 3 is already configured!!
2F4C      2FC0      09/07     08:09:17.899       30           lacommonlib.cpp(157)                   1CB8319C-6113-4441-B859-226E074848ED   NORMAL             Element 0 is not accessible
2F4C      2FC0      09/07     08:09:17.899       30           cfgnudev.cpp(741)          [000001C36D91D1B0]     1CB8319C-6113-4441-B859-226E074848ED            NORMAL             Tape drive found at drive bay 0 is already configured!!
2F4C      2FC0      09/07     08:09:17.899       30           cfgnudev.cpp(741)          [000001C36D91D1B0]     1CB8319C-6113-4441-B859-226E074848ED            NORMAL             Tape drive found at drive bay 1 is already configured!!
2F4C      2FC0      09/07     08:09:17.899       30           cfgnudev.cpp(741)          [000001C36D91D1B0]     1CB8319C-6113-4441-B859-226E074848ED            NORMAL             Tape drive found at drive bay 2 is already configured!!
2F4C      2FC0      09/07     08:09:17.899       30           cfgnudev.cpp(741)          [000001C36D91D1B0]     1CB8319C-6113-4441-B859-226E074848ED            NORMAL             Tape drive found at drive bay 3 is already configured!!
2F4C      2FC0      09/07     08:09:17.899       30           lacommonlib.cpp(157)                   1CB8319C-6113-4441-B859-226E074848ED   NORMAL             Element 0 is not accessible
============

Announcing availability of a new step-by-step guide to help Microsoft partners develop and grow cloud opportunities

$
0
0

Whether your customers are at the exploration stages of their digital transformation journey or are already well down the path with established cloud services, it can be difficult to know exactly where to start or focus your conversation with your customers. This is why the One Commercial Partner team developed the Partner Play-in-a-Box (PiB), a toolkit that provides Microsoft partners with information, tools, and resources to help identify opportunities, build pipeline, and close deals for each solution area: Modern Workplace, Apps & Infrastructure, Data & AI, and Business Applications.

Unpacking the Play-in-a-Box

  • Each solution area has sales plays (sales scenarios) that provide a programmatic approach to monetize a specific solution capability
  • Each sales play contains a framework for building a pipeline:
    • Value proposition – the differentiators and selling points of a solution area or play
    • Criteria to be co-sell ready partners
    • Customer targeting scenarios specific to the play to help you identify the opportunity
    • Investments/Offers – funding options available for qualifying partners
    • Marketing assets for the sales play
    • Customer Reference – case studies on successful engagements with customers
    • Enablement - In-person, virtual or programmatic training available for partners
    • Target outcomes – key performance indicators to help you measure success

The Play-in-a-Box is the reference tool that will help you close deals and build valuable relationships with customers.

Since conversations can vary based on the size of a customer’s business, the PiBs are customized for small and mid-size businesses (SMB) and enterprise corporations.

For SMBs

The PiBs consist of a 6-point framework for building and executing sales plays for each of Microsoft’s four solution areas, and can be downloaded here:

  1. Modern Workplace
  2. Business Applications
  3. Applications & Infrastructure
  4. Data & AI

For Enterprise corporations

The PiBs consist of an 8-point framework for building and executing sales plays for each of Microsoft’s four solution areas, and can be downloaded here:

  1. Modern Workplace
  2. Business Applications
  3. Applications & Infrastructure
  4. Data & AI

Keep an eye out for additional info about Play-in-a-Box resources coming soon!

 

Interoperabilidad de libro digital a Nasdaq Financial Framework a través de Microsoft Azure Blockchain

$
0
0

Por: Matthew Kerner, gerente general de Microsoft Azure

Nasdaq revolucionó los mercados financieros en 1971 al abrirlos a millones de inversionistas individuales con el primer intercambio de acciones electrónico del mundo. desde entonces, el espíritu innovador de la compañía los ha mantenido al frente de la evolución tecnológica en los mercados de valores, a la vez que transforma a la marca en un proveedor central de tecnología.

Market Technology, el brazo de tecnología comercial de Nasdaq, impulsa infraestructura de misión crítica de mercados de valores en más de 100 bolsas, cámaras de compensación y depositarios centrales de valores a través de 50 países.

Para atender mejor a su clientela global, Nasdaq rediseñó sus ofertas empresariales y lanzó Nasdaq Financial Framework (NFF; por sus siglas en inglés) en 2016. El diseño modular de este Framework aprovecha un solo núcleo operativo que impulsa a un vasto portafolio de aplicaciones y servicios de negocio a través del ciclo de vida bursátil, lo que permite a los clientes de Nasdaq agregar, remover o modificar de manera sencilla, su grupo de tecnología de misión crítica sin el costo y la complejidad asociados con sistemas monolíticos de infraestructura.

NFF también fue diseñado para aprovechar los beneficios de las tecnologías emergentes para habilitar ventajas estratégicas clave para los clientes.

“Nuestra industria [de mercados de valores] evoluciona más rápido que nunca con la llegada y el progreso de la nube, blockchain, inteligencia automática y otras. Los jugadores clave en la industria buscan estas tecnologías para explorar cómo pueden volverse más efectivos y eficientes, mientras obtienen una ventaja competitiva”, comentó Magnus Haglind, vicepresidente y jefe de gestión de producto del negocio de tecnología de mercados en Nasdaq.

Para acelerar las capacidades de blockchain de Nasdaq alineadas con la creciente demanda en la industria, la compañía ha comenzado a integrar Nasdaq Financial Framework con Microsoft Azure Blockchain para construir una capacidad de blockchain agnóstico de libro mayor que soporte una estrategia de libros múltiples.

Azure entregará interoperación y comunicación con alta seguridad entre la infraestructura central de Nasdaq Financial Framework, el middleware de ecosistema y las tecnologías de clientes, a través de una innovadora suite de microservicios de blockchain para ejecutar transacciones y contratos.

Estas ofertas crean un sofisticado sistema de blockchain que permite a varias tecnologías trabajar en conjunto de una manera segura y escalable, y permite a Nasdaq satisfacer los requerimientos de sus clientes a través de múltiples proyectos.

Nasdaq ve una oportunidad inmediata para que blockchain gestione la entrega, pago y liquidación de transacciones que podrían residir en múltiples blockchain con diferentes mecanismos de pago. “Con múltiples blockchain en uso por varios participantes de la industria, creemos que la combinación de NFF y la tecnología blockchain de Microsoft se pueden remover algunas de las complejidades del proyecto que existen en este ámbito”, comentó Tom Fay, vicepresidente de arquitectura empresarial en Nasdaq. “Adicional a esto, conforme más industrias se mueven hacia la tecnología y estructuras de mercados de valores, podemos ver el potencial de blockchain para brindar valor en la equiparación instantánea y sin fricciones de vendedores y compradores”.

Estas capacidades también permitirán a las organizaciones de mercados de valores utilizar cualquier aplicación basada en NFF que incorpore tecnologías blockchain sin la necesidad de contar con habilidades o conocimientos específicos de libro mayor, lo cual es crítico ya que la industria persigue nuevos casos de uso para tecnología distribuida de libro mayor.

Fay continua, “Desde nuestra perspectiva, Azure desbloquea el poder de blockchain a la vez que remueve complejidades mayores. Nuestra integración de NFF con sus servicios de blockchain brinda una capa de abstracción, lo que hace a nuestra oferta segura, con una alta escalabilidad, y agnóstica del libro mayor, lo que al final nos ayuda a continuar con la exploración de un rango mucho más amplio de casos de uso de clientes para blockchain. Delegar a Microsoft, como socio con la más alta calidad empresarial y líder en el espacio de blockchain, el manejo de toda la semántica de la comunicación, seguridad, implementación y orquestación del libro mayor, nos permite enfocarnos en los retos de los clientes y soluciones a escala, en lugar de utilizar recursos en construir componentes que caen fuera de nuestro negocio central”.

En Microsoft, nos sentimos honrados de asociarnos con Nasdaq para evolucionar su innovadora tecnología para impulsar al mercado. Como una empresa líder en plataforma empresarial, nuestro compromiso fundamental es con el éxito de nuestros clientes. Estamos emocionados por trabajar con Nasdaq para aplicar tecnologías de nube y de blockchain a problemas de la industria que ellos entienden a profundidad, e impulsar su éxito continuo.

Windows Transport converges on two Congestion Providers: Cubic and LEDBAT

$
0
0

#LEDBAT @Win10Transports

Why don't we dive right  in?   What is a Congestion Provider and why do you (the reader) care?

  • What is it? A Congestion Provider is an algorithm that controls the flow of data from a Windows server to a Client.
  • Congestion Provider defined: Because Cubic is for humans and LEDBAT is for unattended bots.

How does that impact me?  In the heart of the Windows kernel there is a networking stack. At the heart of the networking stack there is a layer called Transport and Transport contains a suite of algorithms called Congestion Providers.  the data flow across the network/Internet.

Let’s take a look at the difference between the two. Cubic is optimized for throughput while LEDBAT is optimized for low-latency and non-interference. Now the picture is becoming clear. LEDBAT is for unattended bots (meaning that there is not a person actively waiting for the transaction to complete) because these bots should not interfere with human work and Cubic should be used when there is a person waiting for the transaction to complete.

Let’s take a deeper look at the difference between the two using a specific example. Suppose we have a person doing their work with a web browser and a software update that is being delivered by SCCM. The difference here is clear. The software update should be using LEDBAT so that it does not interfere with the person and the web browser should be using Cubic. With this arrangement the software update will do its work leveraging unused bandwidth and when the person with the web browser wants to use the network the software update will relinquish the network resources. This allows the software updates to proceed without interfering with the person. Use your good judgement. Applications that need to proceed without interfering with people that are working need LEDBAT. Applications that people are using to do work need Cubic.

Figure 1 -- Idealized Network Diagram

Let’s look at the idealized network diagram in the figure above. There is a TCP sender on the left and a TCP receiver on the right. The TCP sender sends packets into the network which is modeled by a single queue. Upon receiving a packet, the network devices immediately forward the packet towards its destination. If the device cannot forward the packet immediately (because it is busy forwarding a previously received packet) it will place the packet in a queue. In the figure there are four packets in the queue. If the TCP sender sends another packet at this time, then it will have to wait for the four packets in the queue to be sent. This is called queuing delay and it is what causes the  behavior that irritates people.

Figure 2 -- Cubic drives the queue to saturation

Cubic tries to optimize throughput by sending packets faster and faster until one of them is dropped then it slows down and repeats the behavior. Because the sender keeps increasing the sending rate eventually the queue will be full. If a packet arrives when the queue is full then that packet must be dropped. When a packet is dropped (besides retransmitting) Cubic slows the sending rate by half (draining the queue) and repeats the process. The queue repeatedly fills and drains from this process optimizing throughput.

Figure 3 -- LEDBAT controls the queuing delay

LEDBAT (shown in the Figure above) tries to optimize throughput just like Cubic by sending packets faster and faster. However, LEDBAT also keeps track of the queuing delay (lagginess ). When the lagginess increases too much LEDBAT slows down and drains the queue. This accomplishes two things. LEDBAT keeps the queuing delay lower and since Cubic drives the queue past LEDBAT’s delay threshold LEDBAT will always defer the network resources to Cubic. In other words, LEDBAT will use all of the network resources unless Cubic is using them.

This makes the perfect combination. Your background tasks such as software updates, backup, etc. can cruise along doing their work while the network is not in use and when a person hops on the network to do their work the LEDBAT tasks will get out of the way. Let’s use our person with their Edge web browser using Cubic and our software updates using LEDBAT as an example again to see how this works.

What makes this combination work so well is that humans and computers are opposite. The person using the web browser clicks on a few things and impatiently waits for the network to deliver them. This needs to be done as quickly as possible because even a few seconds can be painful and frustrating to a person. However, once the human has their content, they spend a great deal of time reading and looking at pictures. During this time, they are consuming their content and not really using the network at all.

This is what makes the combination awesome! Computers don’t get frustrated and they react very quickly. So, we have our software update proceeding nicely at full speed and then along comes a human who is in need of their information immediately, so they hit their Edge web browser clickity, clickity, clack, click, click, clack! The LEDBAT controller operating the software update download notices the increase in queuing delay (remember the figures?) and gets out of the way right away. The person gets their stuff immediately and happily begins consuming the information. While they are doing that the LEDBAT controller notices the unused network resources and downloads some more data. The person decides that they need more stuff and click away at their web browser and so on. The perfect team!

 

So, what are your action items here? If you are running a client just get the latest Windows 10 update and you will have Cubic by default. If you have Windows Server 2019 same thing. Cubic is already the default Congestion Provider. If you are running Windows Server 2016 Cubic is not default, but you can fix that by running Windows Update and this powershell:

This is what the default templates look like:

PS C:Usersdahavey> Get-NetTCPSetting | Select SettingName, CongestionProvider, AutomaticUseCustom
SettingName                    CongestionProvider        AutomaticUseCustom
-----------                    ------------------        ------------------
Automatic
InternetCustom.                CTCP                      Disabled
DatacenterCustom.              DCTCP                     Disabled
Compat                         NewReno                   Disabled
Datacenter                     DCTCP                     Disabled
Internet                       CTCP                      Disabled

We can only change the Custom templates, so we need to make the server use the custom templates. Changing AutomaticUseCustom to Enabled will do this for us:

PS C:Usersdahavey> Set-NetTCPSetting -SettingName InternetCustom -AutomaticUseCustom Enabled
PS C:Usersdahavey> Get-NetTCPSetting | Select SettingName, CongestionProvider, AutomaticUseCustom
SettingName                      CongestionProvider        AutomaticUseCustom
-----------                      ------------------        ------------------
Automatic
InternetCustom                   CTCP                      Enabled
DatacenterCustom                 DCTCP                     Enabled
Compat                           NewReno                   Enabled
Datacenter                       DCTCP                     Enabled
Internet                         CTCP                      Enabled

Hey, they all changed even though I only changed the InternetCustom template! Yes, AutomaticUseCustom is an all or nothing setting.

Now we need to change the templates Congestion Provider to Cubic!

SettingName                     CongestionProvider        AutomaticUseCustom
-----------                     ------------------        ------------------
Automatic
InternetCustom                  CUBIC                     Enabled
DatacenterCustom                CUBIC                     Enabled
Compat                          NewReno                   Enabled
Datacenter                      DCTCP                     Enabled
Internet                        CTCP                      Enabled

And now we are a Cubic server just like WS 2019!

If you want to use LEDBAT then see the instruction (“Try it out!” link) in my LEDBAT blog: Top 10 Networking Features in Windows Server 2019: #9 LEDBAT – Latency Optimized Background Transport

 

Thanks for reading!


Storage Migration Service Log Collector Available

$
0
0

Heya folks, Ned here again. We have put together a log collection script for the Storage Migration Service, if you ever need to troubleshoot or work with MS Support.

https://aka.ms/smslogs

It will grab the right logs then drop them into a zip file. Pretty straightforward, see the readme for instructions. It is an open source project with MIT license, feel free to tinker or fork for your own needs. I will eventually move it to its own github project, but for now it’s under me.

You will, of course, never need this. 😀

- Ned "get real" Pyle

 

Technical webinars for next week (11/12-11/16)

$
0
0

Check out the attached list of technical webinars next week, to help you build your technical depth. Through these live, instructor-led webinars, you will receive interactive training with real-time Q&A capabilities - all at no cost to Microsoft Partner Network members!

Technical-Webinars_11-12-thru-11-16

To find additional dates and times for the webinars and consultations above, as well as the full suite of webinars and consultations available, visit aka.ms/TechnicalJourney.

変わりゆく市場をリードする大阪/名古屋/福岡のパートナー様向け~Partner Digital Transformation Forum 2018 開催のご案内【11/8 更新】

$
0
0

米国本社最高経営責任者のサティア・ナデラも登壇した Microsoft Tech Summit 2018 が昨日で閉幕しました。9 月末に米国にて世界各国から 2 万人以上が参加したイベント Microsoft Ignite 2018 の内容も交えながら日本のお客様向けに東京にて有償イベントとして開催いたしました。

早速ですが、大阪、名古屋、福岡のパートナーの皆様向けに、短時間で最新情報の概要を把握できるイベント Microsoft Partner Digital Transformation Forum 2018 を開催いたします。本イベントは、変わりゆく市場をリードするすべてのパートナーの皆様を対象に、未来を創る最新テクノロジを体感頂くイベントです。

2020 年に向けて、「IT モダナイゼーション」「働き方改革」「インダストリー イノベーション」を推し進めるための変革ソリューションをご提案します。Microsoft Ignite 2018 の内容を中心に、最先端の情報をお届けします。併せてパートナー様との協業を加速する施策やご提案について共有します。

アジェンダ

  • マイクロソフト パートナー様向けビジネス アップデート
    パートナー様との協業をより加速するための今期の施策について共有します
  • 最新技術情報 ~Ignite イベントにて発表された最新情報を踏まえて~
    最新のマイクロソフトの情報を、Igniteから厳選してお届けします
  • 今期の重点施策とパートナー様向けご提案

登壇者 (大阪)

近藤 禎夫

日本マイクロソフト株式会社
業務執行役員
パートナー事業本部
パートナ―営業統括本部
統括本部長

山本 多絵子

日本マイクロソフト株式会社
業務執行役員
パートナー事業本部
パートナーマーケティング統括本部
統括本部長

佐藤 直樹

日本マイクロソフト株式会社
パートナー事業本部
パートナー技術統括本部
テクニカルエバンジェリズム本部
本部長

 

お申込みはお近くの会場をご選択ください

主 催 : 日本マイクロソフト株式会社
参加費 : 無料 (事前登録制)
対 象 : マイクロソフトのパートナー企業様、パートナーになることをご検討中の皆様 (アライアンス部門、ビジネス企画/開発部門、技術部門の皆様)

 

 

Hyper-V クラスター環境にて、クラスター対応更新 (CAU) のライブ マイグレーションがメモリ不足で失敗する

$
0
0

こんにちは。Windows プラットフォーム サポートの加藤です。

本日は、Hyper-V クラスター環境で、クラスター対応更新 (CAU) の実行中にライブ マイグレーションがメモリ不足で失敗し、クラスター対応更新が停止する事象についてご案内いたします。

クラスター対応更新では、更新プログラムの適用時に、役割のドレイン (他のノードに退避) やノードの再起動、再起動完了後のフェールバックを自動で実施しますが、Hyper-V クラスター環境では、このフェールバックのライブ マイグレーションがメモリ不足で失敗する場合がございます。
これは、クラスター対応更新の実施時に、ドレインとフェールバックのライブ マイグレーションが状況によっては、同時に実施される可能性があるためです。
ドレインでは、移動時に全ノードのメモリの空き容量を確認し、各ノードのメモリ使用率が均等になるように、各仮想マシンの移動先を決定するため、メモリ不足で失敗することはありませんが、フェールバックでは、ノードのメモリの空き容量は考慮せず、必ず元のノードに戻ろうとします。そのため、フェールバック先のノードのメモリがドレインで移動してきた仮想マシンによって全て使われてしまうと、フェールバックのライブ マイグレーションがメモリ不足で失敗します。

以下に、この時のシナリオを記載します。
-----------------
1. ノード1が修正プログラムのインストールのために、ノード 1 の仮想マシンを他のノードに退避するためにドレインを開始します。ノード1上の仮想マシンはライブ マイグレーションにて、各ノードに分散されます。

2. ノード1の修正プログラム適用が完了し、再起動も完了すると、各ノードに分散していた仮想マシンは、ライブ マイグレーションにて、ノード1 へフェールバックを開始します。

3. 直後にノード2が修正プログラムのインストールのために、他のノードに退避するためにドレインを開始します。ノード 2 の仮想マシンはライブ マイグレーションにて、各ノードのメモリ使用状況を確認し、分散を開始します。

4. この時、ノード2のライブ マイグレーションのキューにはドレインによってノード 1 に移動する仮想マシンがいます。更にフェールバックでノード1 に移動する仮想マシンもライブ マイグレーションのキューに入ります。

5. ライブ マイグレーションのキューの処理順番は、ライブ マイグレーションが開始された順番とは関係ないため、場合によってはドレインの仮想マシンが先に移動され、フェールバックの仮想マシンは後に回されることがあります。

6. フェールバックは、移動先のメモリの空き容量は考慮せず、必ず元のノードに戻ろうとするため、ドレインで移動した仮想マシンでノード1のメモリが使われてしまうと、フェールバックの仮想マシンがメモリ不足でライブ マイグレーション失敗します。
-----------------

上記の事象は、一般的には、仮想マシンの数に対して、メモリの空き容量に余裕がない場合に発生します。
例えば、10 ノードクラスターの環境で、1 ノードを停止した際に、残りの 9 ノードのメモリをほぼ使い切ってしまう環境です。

上記事象は以下の 2 つの回避策があります。

1. クラスター対応更新でフェールバックを無効にする。
2. 指定時間 WAIT するスクリプトを作成し、クラスター対応更のPreUpdateScriptまたはPostUpdateScript に登録します。

1. フェールバックの無効化
===================
GUI で CAU を設定すると、フェールバックが有効となるため、フェールバックを無効にするためには、Set-CauClusterRole コマンドで設定する必要があります。

1) Get-CauClusterRole コマンドで現在の CAU の設定が確認できますので、まずは現在の設定を確認します。

2) Set-CauClusterRole のコマンドを 1) で確認した設定と -FailbackMode NoFailback を引数で指定して実行します。

Set-CauClusterRole -FailbackMode NoFailback -<他の設定の引数>

Set-CauClusterRole
https://docs.microsoft.com/ja-jp/previous-versions/windows/powershell-scripting/hh847234(v=wps.630)

--- 抜粋 ---
-FailbackMode

Specifies the method used to bring drained workloads back to the node, at the end of updating the node. Drained workloads are workloads that were previously running on the node, but were moved to another node.
The acceptable values for this parameter are: NoFailback, Immediate, and Policy. The default value is Immediate.
------

2. クラスター対応更のPreUpdateScriptまたはPostUpdateScript を使用する。
===================
クラスター対応更新の設定で、フェールバックとドレインの間にWAITを入れ、時間調整することでドレインとフェールバックの競合を避けます。
具体的には、PowerShellコマンドのStart-Sleepを使用して、指定時間 WAITするスクリプトを作成し、作成したスクリプトをCAUのオプションのPreUpdateScriptまたはPostUpdateScriptで設定します。

例:20分(1200秒)WAITする場合
テキストファイルに以下のコマンドを記載し、拡張し ps1 で保存します。

Start-Sleep -s 1200

作成したスクリプトを全ノードの同じパスに配置して、以下の PreUpdateScriptまたはPostUpdateScriptにてパスを指定します。

これにより、ノードの再起動完了から次のノードのドレインが開始されるまで、待ち時間を設定することができますので、ドレインとフェールバックのライブ マイグレーションが重なる状況を防げます。
必要なWAIT時間は環境によって異なりますが、ドレイン時に各ノードに 10 台ずつ分散される環境の場合には、10 台のライブ マイグレーションが完了する時間を計測して、その時間の 1.5倍で設定します。
足りない場合には、更に WAIT 時間を延長します。

このブログが皆様のお役に立てれば幸いです。

SPO Tidbit – Updates coming to Admin center

$
0
0
Hello All,
Very soon you could see some updates rolling in that update your Admin center but only if you have enabled ‘Targeted Release for Everyone’, so set that check box and let the great times roll….:)  Here is what you could see:
Make the new admin center your default admin center.
You now have the option to make the new SharePoint admin center your default experience while still being able to go back to the classic admin center if you need to.
Improved management experience for group-connected sites
We’re making it easier to administer group-connected sites by allowing SharePoint administrators to delete and restore sites, manage ownership, and change sharing settings.
Simplified hub site creation and association
In the SharePoint admin center, you can manage existing hub sites in addition to creating new hub sites.  With the these capabilities also extending  to multi-geo scenarios.
Quickly customize and control the site creation experience
New site creation options allow you to create sites on behalf of users and configure common settings such as language, time zone, and storage limit.
In addition to these site creation controls, you now can specify settings that apply to all site when they're created such as the time zone and site creation path.  For organizations who want to control the site creation experience, you can also enable or disable self-service site creation.
Improved site management experience
We have added more management controls across site management and storage, including a simplified view of your tenant-level storage usage and limit with the ability to switch to manual site storage management.  Additionally, we’ve now enabled the use of security groups as a site collection administrator in SharePoint Online.
Improved access control and policies options
New updates to the SharePoint admin center include a consolidated view of access control policies to help safeguard your information.   On the new access control page, you can configure policies for unmanaged or non-compliant devices, configure the idle-session sign-out experience for users, as well as configure location policies to restrict or allow access to SharePoint Online from known IP ranges.
Check out these resources for more information:

Pax

Viewing all 36188 articles
Browse latest View live


<script src="https://jsc.adskeeper.com/r/s/rssing.com.1596347.js" async> </script>