Quantcast
Channel: TechNet Blogs
Viewing all 36188 articles
Browse latest View live

Enable Lync 2010 Meeting Invite Template in Lync2013/SfB2015

$
0
0

The January 2017 client update for Lync 2013/SfB2015 includes a new registry key that allows Lync2013/SfB2015 Meeting Addin to create a meeting invite similar to the one in Lync 2010 client.

For reference we need to look how Dial in Conferencing Numbers are configured:

Get-CsDialInConferencingAccessNumber
https://technet.microsoft.com/en-us/library/gg413015.aspx

Now, before any change, we can see that a meeting invite for a user from the UK region will look like this:

After applying the January 2017 update KB3141468 for Lync2013/SfB2015 Client we can use the registry key EnableW14MeetingInvitationTemplate to have the template as Lync 2010 Meeting Add-in. We can simply add the registry key with Command Prompt or PowerShell:

Command Prompt:
reg add HKCUSoftwareMicrosoftOffice15.0LyncAddinPreference /v EnableW14MeetingInvitationTemplate /t REG_DWORD /d 1 /f

PowerShell:
Set-ItemProperty -Path 'HKCU:SoftwareMicrosoftOffice15.0LyncAddinPreference' -Name 'EnableW14MeetingInvitationTemplate' -Value '1' -Type DWord

lync2010meettemplate-03

Note: This registry key is only available on a User Level, we cannot add it under HKEY_Local_Machine.

Now we can create a meeting in Outlook and the invite will be similar to Lync 2010 Addin:

Please note that this registry key setting is only available for the Lync2013/SfB2015 (15.0.4893.1000 or later). The update list is available here:

Lync 2013/Skype for Business 2015 Client Update List
https://blogs.technet.microsoft.com/uclobby/2016/10/19/lync-2013-skype-for-business-2015-client-update-list/


Tip of the Day: WaaS – Simplified and Aligned

$
0
0

Today's Tip...

This blog post has great information on the Semi-Annual Channel and Long-Term Servicing Channel (replacing the Long-Term Servicing Branch (LTSB)), and even has a video!

 

References:

Neues von McKinsey zu Social Collaboration: Es gibt eine gute und eine schlechte Nachricht…

$
0
0

Es ist eine der spannendsten Fragen der modernen Wissensarbeit: Mit welchen Werkzeugen arbeiten erfolgreiche Teams zusammen? Wie hoch ist ihr Social Collaboration-Reifegrad? Klar ist, einfache Stand-Alone-Lösungen haben ausgedient. Ein Blick auf eine aktuelle McKinsey-Studie beweist das.

Die gute Nachricht natürlich immer zuerst: Immer mehr Unternehmen und Wissensarbeiter nutzen Social-Collaboration-Tools in ihrer täglichen Arbeit. Das bestätigt eine aktuelle McKinsey-Studie: 55 Prozent der Befragten gaben an, dass Anwendungen wie Microsoft Teams in ihrem Alltag mittlerweile eine bedeutende Rolle spielen – im Vorjahr waren es nur 33 Prozent. Doch es gibt auch eine schlechte Nachricht: Wir stehen noch ganz am Anfang dieser Entwicklung.

Fast Dreiviertel der Befragten setzen in ihrem Alltag noch immer primär auf Telefon und E-Mail. Das ist grundsätzlich kein Beinbruch, aber meiner Erfahrung nach jede Menge verschenktes Potenzial. Auch die neueste McKinsey Global Survery zeigt: In Unternehmen, die Social Collaboration-Tools einsetzen, ist der interdisziplinäre Austausch zwischen Teams und Business Units ausgeprägter und auch die Selbstorganisation der Teams besser als in Unternehmen, die noch „traditionelle“ Technologien einsetzen.

Bestimmen Inbox und Meetings unseren Tagesablauf?

Im Alltag bedeutet das allzu häufig, dass Inbox und Meetings unseren Tagesablauf bestimmen. Ping! Eine neue E-Mail – ich wechsle von der Präsentation oder dem Konzept, an dem ich gerade arbeite, nahezu automatisch zu Outlook. Es könnte ja wichtig sein. Meine Konzentration ist in jedem Fall gebrochen – doch nur manchmal ist die E-Mail tatsächlich wichtig. Solche Momente erleben so wie ich wohl die meisten Wissensarbeiter regelmäßig. Und ärgern sich – über die gestörte Konzentration und die E-Mail-Flut, die kleine und große Themen gleichermaßen in den Posteingang spült.

Ähnlich sieht das bei Meetings aus: Sie sind im Urteil von Wissensarbeitern ein wichtiger Bestandteil der Kommunikation mit Kunden und Kollegen. Aber sie sind oft auch einfach zeitraubend und Nerv tötend. Das U.S. Bureau of Labor Statistics hat ausgerechnet, dass der durchschnittliche Wissensarbeiter 31 Stunden pro Monat in Meetings verbringt. Davon ist derselben Quelle zufolge die Hälfte sinnlos. Aber die Teilnehmer „nutzen“ die Zeit anders: 91 Prozent hängen ihren Tagträumen nach, 39 Prozent verfallen konsequenterweise gleich in eine Art von Powernapping: sie schlafen ein. Immerhin 73 Prozent erledigt in Meetings dagegen andere Arbeiten. Klingt einigermaßen lustig, ist es aber nicht: Unternehmen allein in den USA verlieren so jedes Jahr 37 Milliarden US-Dollar.

Was Microsoft Teams anders und besser macht

Social Collaboration-Tools wie Microsoft Teams können hier entgegenwirken: Sie bündeln verschiedene Funktionen in einer Anwendung. Und vor allem verschiedene Kommunikationskanäle, die je nach Zweck und Thema genutzt werden können. Nach einem längeren Außer-Haus-Termin kann ich im Aktivitätsprotokoll nachlesen, was passiert ist – ohne mich durch 75 neue Mails kämpfen zu müssen. Das Protokoll ist aufgebaut wie der Feed gängiger Social Media-Plattformen, sodass Updates und die Absprachen im Team übersichtlich und leicht nachvollziehbar sind.

Und auch in Meetings kann Microsoft Teams punkten: Für kurze Fragen und Abstimmungen bietet es Instant Messaging, für längere Abstimmungen ist Skype for Business tief integriert und kann direkt aus der Anwendung heraus aufgerufen werden. Damit entfällt schon mal die zeitraubende Anreise zu Meetings selbst dann, wenn sie im eigenen Hause stattfinden. Auch für mobile Meetings sprechen die Zahlen eine deutliche Sprache: Schon 25 Prozent aller Meetings haben mindestens einen mobilen Teilnehmer, wie eine weitere Studie ermittelt hat. Virtuelle Meetings, Skype- und Videokonferenzen sind effizienter, weil sie Menschen in unterschiedlichen Zeitzonen und Örtlichkeiten völlig unaufgeregt zusammenbringen – ohne Zeitverzug und Reisekosten. Übrigens: Mit der Mobile App von Microsoft Teams – zu Hause auf allen gängigen Devices und Plattformen – kann man auch von unterwegs mit nur einem Finger-Klick an Meetings teilnehmen.

Stand-Alone-Lösungen haben ausgedient

Außerdem muss ich die Anwendung nicht verlassen – ich arbeite in Teams gemeinsam mit den Kollegen an einem Dokument, beantworte eine Chatanfrage oder stelle einen neuen Termin via Skype for Business ein – kein Hin- und Herwechseln zwischen Anwendungen, kein langwieriges Suchen von Dokumenten in alten E-Mail-Verläufen. Gerade diese tiefe Integration in Office 365, als Gegenentwurf zu Stand-Alone-Lösungen, hat beispielsweise auch die Medienmacher von funk, dem jungen Content-Angebot von ARD und ZDF überzeugt, gleiches gilt für die Event-Agentur planworx aus München, die Teamarbeit für sich neu erfunden hat.

Diese Beispiele zeigen, dass Unternehmen mit dem Einsatz von Social Collaboration-Tools einen neuen Weg beschreiten – hin zu mehr Flexibilität, stärkerem Wissenstransfer über Disziplinen hinweg, einfacherer Kommunikation. Schlicht einer besseren Zusammenarbeit.


Ein Beitrag von Jörg Petter
Business-Lead für
Microsoft 365 & Teams bei Microsoft Deutschland

Log Analytics log search REST API for C#

$
0
0

I want to search Log Analytics Log via C#. However, we can't find a good sample on the internet.  You can find a good web page for log search REST API in https://docs.microsoft.com/en-us/azure/log-analytics/log-analytics-log-search-api . However, the sample is only for ARMClient and Python. I wrote a simple sample using C#.

 

You can find whole source code on my Github.

Prerequisite

You need to prepare these things for the sample.

  • Clone my GitHub Repo
  • Log Analytics
  • Service Principle (Client ID, Client Secret, SubscriptionID, TenantID
  • Edit App.config

Then you are ready to understand the Code.

Authentication

Unfortunately, Log Analytics is not on the Azure SDK for C#. We need to implement the code by myself.  Data collector API and Log Search API is totally different authentication system. Log Search API is just Active Directory Access Token based Authentication. The implementation is not so difficult.

 public async Task<string> SearchAsync(string query)
 {
 // Authorization header for the Azure REST API
 var httpClient = new HttpClient();
 httpClient.DefaultRequestHeaders.Authorization = new System.Net.Http.Headers.AuthenticationHeaderValue("Bearer", await GetAccessToken());


               :

private async Task<string> GetAccessToken()
 {
 var authority = String.Format(CultureInfo.InvariantCulture, AuthenticationEndpoint, tenantId);
 var authContext = new AuthenticationContext(authority);
 var creadential = new ClientCredential(clientId, clientSecret);
 var result = await authContext.AcquireTokenAsync("https://management.core.windows.net/", creadential);
 return result.AccessToken;

}

 

The process is very simple. Using Service Principle, just request Access Token to the Azure Active Directory. Once you get the access token, you add it on the "Authorization: Bearer" header. If the Access Token expired, you need to refresh it. However, I'm not included the refreshment this time for the simplicity.

Send HttpRequest

Then request it.  It might be not difficult.

              :

 // Content with Content-Type
 var content = new StringContent(GetQueryString(query), Encoding.UTF8, "application/json");
 // Execute
 var response = await httpClient.PostAsync(GetUri(), content);
               :
 private string GetUri()
 {
 return $"{AzureURIBase}/subscriptions/{this.subscriptionId}/resourceGroups/{this.resourceGroup}/providers/Microsoft.OperationalInsights/workspaces/{this.workspaceName}/search?api-version=2015-03-20";
 }

 

Filter Log

I have one tip for the search.  If you query it via "*", you will get a lot of logs. It includes what you don't want.  In this case, I include log type. It helps you to distinguish the log. e.g. I want to fetch the log which I wrote from my Azure Functions. I specify the recordType as "CQRTelemetry".  This query fetch only my log which I wrote by my self.

 

string result = await SearchAsync("Type=CQRTelemetry_CL");

 

Deserialize

Deserialize from Json to a class is boring task. However, Visual Studio 2017 might help you to do it. Now we can copy the json, then "Paste Special > Paste JSON As Class" it. Then you can find the classes for JSON deserialize. It is handy!

  ->  

I did it, you can find the class which I pasted it on the Model.cs file.

Just deserialize it.

 // Deserialize the Json into Model objects
 var resultObject = JsonConvert.DeserializeObject<Rootobject>(await response.Content.ReadAsStringAsync());

 

You need to specify Rootobject which is the RootObject of the JSON. This is auto generated by Visual Studio 2017. If you don't like the name, you can rename it.

 

Error Handling

Sometimes, the query will be an error. How can we find it?  The API includes __metadata.resultType. Once we've got query error, it will be "error".

 // Error Handling
 if (resultObject.__metadata.resultType == "error")
 {
 throw new Exception("Search Result Error!");
 }

Conclusion

That's it! Now you can enjoy coding for the Log Analytics Search API on C#.  I don't know why however, the Azure SDK doesn't support Log Analytics Search API. The SDK is very convenient, so we should not care about the detail. However, if you want to write code for REST-API, you need to understand the behavior and spec. Now you ready to enjoy!

Resource

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

5-minute guide to creating content that’s too good to ignore

$
0
0
There are 27,000,000 pieces of content shared every day. So, what can you do to ensure your blog, webinar or infographic is seen and shared by the right people?

 

Creating remarkable content is every marketer's goal, but to begin you need to know what the term 'remarkable' actually means. Content marketing isn't about building an archive of obvious sales pitches; it's about convincing your customers to take the next step in their relationship with your company.

 

Follow these simple steps to create content that turns casual visitors into die-hard evangelists.

 

Step 1: Get to know your audience

An example of targeted writing from Microsoft Partner, RedPixie.

 

Good content solves an issue or offers practical advice. Remarkable content explains exactly how your key demographic can overcome their biggest industry challenges. When it comes to content marketing, you need to fill in the gaps, not cover old ground.

 

The best way to do this is to understand exactly what makes your customers tick. Create buyer personas for every demographic you sell to, then tailor your content offers to these groups. For example, if your target audience is split between CIOs and CEOs, you would create separate personas based on their specific needs and challenges.

 

Once you've perfected these personas, you can narrow down the kind of content that is most appealing to them. There is a ton of different mediums to choose from. Here are just a few examples:
  • Blog posts
  • Videos
  • Webinars
  • Podcasts
  • Thought leadership
  • Case studies
  • Reviews
  • Analysis

 

All of these content types offer a different means of engaging your audience. Think about how they relate to specific stages of the buyer's journey and build your content marketing strategy around this funnel. Are they exploring potential solutions, making a final selection or somewhere in between?

 

Step 2: Create content that makes a difference

Now you've segmented your audience into their appropriate personas, it's time to begin creating your remarkable content. While truly thought-provoking content relies on your own intuition and flair, there are a few best practices every Partner can follow:

 

1. Be original. There is nothing worse than generic, repetitive content. Use your buyer personas to tailor each asset towards a specific audience, addressing topics from a new perspective and unique voice.
2. Don't be too partisan. Even if you naturally come down on one side of the argument, try to create a well-balanced account. 41% of IT decision-makers say they're wary of hype and exaggeration, so cut it from your work.
3. Stay relevant. Ensure all content is up to date. Incomplete or inconsistent content irritates 31% of IT decision makers, because it is unlikely to be accurate.
4. Master timing. Good timing is crucial. Don't offer a product demo to someone who has only just discovered your company website. Stay mindful of personas and which stage of the buyer's journey you are producing content for.

 

Check out this HubSpot list of companies exceling at content marketing (including Microsoft's own blog Microsoft Story Labs).

Get a head start

Great headlines and subheadings make all the difference. On average, visitors only read 20% of a web page, so your content needs to remain scannable and easy to digest. Keep headers between 50-65 characters and ten words or less. The easier it is to pick out key information from your content, the more likely it is that visitors will stay until the end.

 

The content of your headers is also important. Use a tool like CoSchedule's Headline Analyser to create the perfect, attention-grabbing headlines.

 

Step 3: Optimise and audit your content

Get your content seen

 

Content marketing doesn't end at its creation. How you optimise and analyse your content will ultimately determine its success. With so much content available to potential prospects, you need to write with online visibility in mind. After all, what use is great content if no one sees it?

 

Search Engine Optimisation (SEO) puts your work in the places customers are looking for it and ensures you're answering their specific queries at each stage of the buyer's journey. While we won't go into optimisation in great detail here, you can find out more about it in our previous 5-minute guide to improving your SEO.

 

Learn from your successes and mistakes

 

Strong marketing relies on effective post-mortems. A content audit helps you decide how to approach your content strategies in the future. Take a look at your current content collection and ask yourself a few simple questions:
  • Which content has been most successful?
  • Why has it been so well-received?
  • Which stage of the buyer's journey does it benefit the most?

 

Doing this for each piece of content you create enables you to note its specific marketing value and build a sales funnel that puts the customer first.

 

Atomise your best content

 

Atomising content means recycling it in a number of novel ways such as infographics, shorter blog posts, or LinkedIn posts. The aim is to take a longer piece of 'hero' content and repurpose it to deliver fresh and engaging points of view. Smaller pieces of content are easier to market and can link back to the original post for maximum exposure.

 

Writing and drawing your own conclusions

 

In this article, we've offered you a template for creating remarkable content. But your own expertise and imagination will ultimately decide its fate.

 

Remember: content that is accurate, unbiased, relevant and well-timed is a great place to start. Combining these basics with a unique voice and perspective will help your content stand out in an avalanche of marketing spiel.

 

For more information on creating customer-centric content, check out our Microsoft Partner Transformation Toolkit.

 

Leveraging the Office 365 Service Assurance Portal in Customer Scenarios

$
0
0
August 23, 2017
By David Branscome

In the partner organization at Microsoft, we get lots of requests from partners that are in the process of responding to an RFP for Office 365 or Azure deployments. Maybe the partner has described the Microsoft datacenters to their customers as being ISO 27001 or FedRAMP compliant. But now the customer has stated that they need to know how certain controls are implemented in Microsoft’s datacenters. In many cases, the customer is audited regularly, and they have to be able to provide evidence that their data is stored in a specific manner or that access is controlled in a specific way.

The problem is, getting access into the Microsoft datacenters is REALLY difficult. Most Microsoft employees haven’t even been in one of the cloud datacenters - including myself. (There’s a decent virtual tour here, but I’d sure like to see all the blinky lights someday.)

In any case, partners don’t have to get a datacenter tour to respond to these types of information requests from customers. The information is literally at their fingertips in the Office 365 portal – just go to the Security & Compliance section and on the left side, find the Service Assurance section.

Wait…I Don’t See it!

But wait a second.

This data isn’t available to everyone. So, a compliance officer with no special permissions in Office 365 would see something like this:

They don’t even see the Admin or Security & Compliance application icons – let alone the Service Assurance menu. Now what?

As you’d expect, not everyone with an account in Office 365 needs to see that organization’s security configuration. If there are some users who need to be able to access the Service Assurance Center, here’s how to grant those permissions:

Log in to the Office 365 portal with Global Admin credentials.

Go to the Security and Compliance app and select Permissions.

In Permissions, check the box for Service Assurance User.

Select Edit role group and in the Members area, click on Edit.

Select Choose members to add the people who should have these permissions.

Click Add and then find the user.

Finish the wizard and you’ll see the user as a member of the Service Assurance User permissions group.

When the user logs in again, they will be able to go to https://protection.office.com and see the Service Assurance center:

Okay…Now What?

Now that you have the necessary permissions, you can start digging into the content in the Service Assurance center. You could start off by looking at all the controls and audited elements, but maybe you want to be more specific in your approach.

Let’s say you want to see how Office 365 meets ISO 27001 standards.

The first thing I’d recommend is to go to the Settings area and define the region whose controls are relevant – in this case, Europe. You’ll also need to select at least one of the industries whose regulations would be relevant to your search, then click Save.

As the green box indicates, you can now go into the Compliance Reports, Trust Documents and Audited Controls and review the content for the relevant region and industry. So, let’s take a look at what’s there.
If you look in the Compliance Reports area, you’ll see the listing of the certificates that Microsoft cloud datacenters have achieved, and you can click on and download the certificate itself.

For example, if I expand the ISO reports section and scroll down, I see a report named “Office 365 Germany ISO 27001 ISO 27017 and ISO 27018 Audit Assessment Report”. If I click on it, I can open the PDF file itself, which provides me with the final report stating that Office 365 meets the expectations for compliance.

But this only tells me if Microsoft complied with the controls or not. It doesn’t tell me what was actually tested as part of the process.

For that, I can go to the Audited Controls section, where I see the ISO 27018-2014 audit report and I can download it for review.

In this case, the report is an Excel spreadsheet which details things like the title of the control, the implementation and testing details, when it was tested and who performed the testing. This kind of information is generally enough for a customer’s audit team to be reassured of Microsoft’s compliance with the standard.
Don’t forget - if you want to change the scope of the controls (the region/country where the controls are relevant, which industry regulations apply, etc..) you can change the parameters in the Settings tab.

The Trusted Cloud

Microsoft is constantly working to achieve, maintain and even exceed compliance standards in order to secure customer data and make our cloud the most trusted one on the planet. The Service Assurance section of Office 365 is one evidence of that effort. Make sure to take advantage of it!
Additionally, check out the resources in the Microsoft Trust Center for information about GDPR, security, protection of user’s personally identifiable information and Microsoft’s commitment to providing customers with the controls necessary to secure their environment and user identities.

https://www.microsoft.com/en-us/trustcenter

Has your Intune account been migrated?

$
0
0

Todd Sweetser

Hi Cloud Partners!  As you may know, the Microsoft Intune portal was designed with Silverlight technology.  As this is being retired, you should be aware of the management of Intune is being moved to the Azure Administration Portal.  This is a great move as it will be consolidated in one main portal allowing you to get accustomed to how the portal works and expose the customer to the Azure Portal, thus perhaps influencing new conversations about what the other Azure workloads can be available! 

Regarding this move, I found this post that has some helpful info…  titled How to Tell if Your Intune Account Has Been Migrated, it shows and describes how you will know when/if this move has occurred.  Here is some info from that post that is the biggest tell that the move has occurred:

When you first open the Silverlight Intune console at http://manage.microsoft.com after migrating, you should see the informational message below that says "Preview the new Intune portal in Azure", and if you click Azure, it will take you to http://portal.azure.com. That's your first clue.

If you missed that, you can be 100% sure you've migrated if you try to create a new group in the old console and you can't!

There are more details and links to further information at the post…  How to Tell if Your Intune Account Has Been Migrated

Thanks!  And good selling!

Conditional Access for MacOS with Azure AD and Intune?


Install and Configure a Group Managed Service Account

$
0
0

Managed Service Accounts (MSAs) were introduced in Windows Server 2008, and Group Managed Service Accounts (gMSAs) were introduced in Windows Server 2012.
Since then, a lot has been said about gMSAs (see the references section at the bottom).
So in this post, I'll just summarize the flow and the PowerShell commands needed for each step in the process of creating and using gMSAs.

Before we really start, let's set some variables we'll use later on in our commands:

$gMSA_Name = 'gmsaWWW'
$gMSA_FQDN = 'gmsaWWW.contoso.com'
$gMSA_SPNs = 'http/www', 'http/www.contoso.com'
$gMSA_HostNames = 'webServer01', 'webServer02', 'webServer03'

Step #1: Create the KDS Root Key (required only once per domain). This is used by the KDS service on DCs to generate passwords:

Add-KDSRootKey -EffectiveTime (Get-Date).AddHours(-1)

This is a workaround to the safety measure that makes us wait 10 hours (by default), to make sure all DCs have replicated and are able to respond to gMSA requests

Step #2: Get the principals (computer accounts) of the hosts that will use the gMSA:

$gMSA_HostsGroup = $gMSA_HostNames | ForEach-Object { Get-ADComputer -Identity $_ }

Or Create a group, and add the computer accounts to it:

$gMSA_HostsGroupName = "$($gMSA_Name)_HostsGroup"
$gMSA_HostsGroup = New-ADGroup -Name $gMSA_HostsGroupName -GroupScope Global -PassThru
$gMSA_HostNames | ForEach-Object { Get-ADComputer -Identity $_ } |
    ForEach-Object { Add-ADGroupMember -Identity $gMSA_HostsGroupName -Members $_ }

Step #3: Create and Configure the gMSA

New-ADServiceAccount -Name $gMSA_Name -DNSHostName $gMSA_FQDN -PrincipalsAllowedToRetrieveManagedPassword $gMSA_HostsGroup -ServicePrincipalNames $gMSA_SPNs

Set #4 (optional): If delegation is required:
Enable 'Trust this user for delegation to any service' (a.k.a. "Unconstrained Delegation")

Set-ADServiceAccount -Identity $gMSA_Name -TrustedForDelegation $true

Note: To enable "Constrained Delegation", you need to set it at creation time, using the -OtherAttributes parameter:

$myBackendSPNs = 'http/webBackend', 'http/webBackend.contoso.com'
New-ADServiceAccount -Name $gMSA_Name -DNSHostName $gMSA_FQDN -PrincipalsAllowedToRetrieveManagedPassword $gMSA_HostsGroup -ServicePrincipalNames $gMSA_SPNs -OtherAttributes @{'msDS-AllowedToDelegateTo'=$myBackendSPNs}

Step #5: Then, on the Member servers that needs to use the gMSA:

$gMSA_Name = 'gmsaWWW'

(Optional) Install the gMSA:

Add-WindowsFeature -Name RSAT-AD-PowerShell
Install-ADServiceAccount -Identity $gMSA_Name

This verifies that the computer is eligible to host the gMSA, retrieves the credentials and stores the account information on the local computer (using the NetAddServiceAccount function)

(Optional) Test the gMSA:

Test-ADServiceAccount -Identity $gMSA_Name

(Optional) Set the gMSA on an IIS ApplicationPool:

Import-Module WebAdministration
$pool = Get-Item IIS:AppPoolsDefaultAppPool
$pool.processModel.identityType = 3
$pool.processModel.userName = "$env:USERDOMAIN$gMSA_Name$"
$pool.processModel.password = ''
$pool | Set-Item

(Optional) Set the gMSA on a Windows Service:

$serviceName = 'myService'
$service = Get-WmiObject -Class Win32_Service -Filter "Name='$serviceName'"
$service.Change($null, $null, $null, $null, $null, $null, "$env:USERDOMAIN$gMSA_Name$", $null, $null, $null, $null)

Note: If you use the UI (services.msc or IIS Manager) to set the LogOn credentials for the service or ApplicationPool Identity, don’t forget to add the $ (dollar sign) at the end of the gMSA name. As it represents the service account object, that inherits from the computer account object.

References:

HTH,

Martin.

ディープラーニング全国ツアー Deep Learning Lab x NVIDIA DLI (Inspire Japan 2017 福岡・大阪・名古屋・札幌前日開催) 【8/24公開】

$
0
0

 

ディープラーニングを自社のビジネス推進に使いたいパートナー様必見。日本マイクロソフト、Preferred Networks、NVIDIA、UEI、SCSKが協力して、ディープラーニングジャパンツアー、「Deep Learning Lab × NVIDIA DLI 」を札幌、名古屋、大阪、福岡で開催します。あなたの街にディープラーニングがやってきます。

 

ビジネス側の皆さまはDeep Learning Labにご参加ください。Preferred NetworksとUEIという、日本の深層学習業界で有数の実績を誇る企業から最新の深層学習案件、深層学習商材を知ることができます。また、SCSK、Microsoftから、実際にそれを推進するための教育・支援プログラムを知ることができます。

 

実際に深層学習を使いたいエンジニアの皆さまは、併設されている NVIDIA Deep Learning Institutes にご参加ください。1.5 時間のハンズオンセッションを 3 つ受けることで、実際の深層学習のイロハを学ぶことができます。

 

参加申し込みからは下記からお願いいたします。

 

■  9月13日 福岡

■  9月25日 大阪

■  10月2日 名古屋

■  10月10日 札幌

 

 

Protecting from Accidental Deletion (or not)

$
0
0

An interesting conversation came up today regarding the Active Directory feature "Protect from accidental deletion". What does this actually mean?

So, the good news is that any object in AD, being OUs, users, groups, you name it - If it's important to you or your organization, you can go into the Object tab (advanced features) and select the checkbox.

So, what does clicking the checkbox mean? First and foremost, "Protect from accidental deletion" doesn't mean "never be able to delete". But, a determined admin can delete these objects - where there's a will, there's a way.

3 fun facts on this feature:
- Checking the box “Protect object from accidental deletion” means a special “deny delete and delete subtree” permission is added to the Everyone Principal.
- When an admin tries to delete the object, a message will pop about “not having sufficient permissions”.
- By deleting the deny special permission, the object is no longer “protected” and the admin can delete the object with no questions asked (other than “Are you sure”).

Hope this helps demystify what this feature does and how it works.

— If you like my blogs, please share it on social media, rate it, and/or leave a comment. —

Azure Media Redactor の一般提供を開始

$
0
0

執筆者: Richard Li (Program Manager, Azure Media Services)

このポストは、8 月 9 日に投稿された General Availability: Azure Media Redactor の翻訳です。

 

Azure Media Redactor は、動画に映る顔を自動的に検出し、ぼかしを入れることができる強力なクラウド動画処理サービスで、公共の安全やニュース メディアなどの用途に適しています。手動での動画編集は手間がかかりますが、マイクロソフトが開発した人工知能技術に基づく Redactor を使用することで、ワークフローの一部または全部を自動化し、作業効率を高めることができます。

Azure Media Redactor のプレビュー リリースの発表と使用方法については、以前こちらのブログ記事で説明しましたが、今回のリリースではプレビュー期間中のフィードバックに基づいて複数の変更を加えたほか、SLA による完全な保証を含むように機能を更新しました。更新後の料金については、こちらのページをご覧ください。

今回の更新内容は以下のとおりです。

  • 処理速度が大幅に向上
  • 顔の検出と追跡の精度が向上
  • 顔 ID の関連付けやすさが向上
  • ぼかしモードを追加

各機能の詳細については、こちらのページをご覧ください。

Azure Media Redactor の一般提供時の料金については、料金ページをご覧ください。

パフォーマンスが向上

処理速度は、動画のサイズやフレームレート、含まれる顔の数によってさまざまに変化します。たとえば、720p、30fps の動画であれば、処理が完了するまでの時間は実際の動画の長さの 1 ~ 2 倍ほどになります。

また、顔のグループ分けの精度が大幅に向上し、動画の複数の場面に映る同じ顔に同一の ID が付与されるようになりました。以前は、同じ顔であっても複数の ID が割り当てられることが多かったですが、精度が上がったことで一人の人物の顔を特定し、ぼかしを入れることがより簡単になりました。

さらに、顔検出の精度も以前に比べて向上しました。

ぼかしに関する変更点

現在、5 つのぼかしモードが提供されており、JSON 構成プリセットから選択することができます。既定では、'Med' が使用されます。

JSON の例:

{'version':'1.0', 'options': {'Mode':'Combined', 'BlurType':'High'}}

Low (低):

image

Med (中):

image

High (高):

image

Debug (デバッグ):

image

Black (黒):

image

Azure Stack Operator をおすすめする理由

$
0
0

執筆者: Cheng Wei (Principal Program Manager)

このポストは、8 月 15 日に投稿された Why your team needs an Azure Stack Operator の翻訳です。

 

Azure Stack は Azure を拡張するもので、俊敏性や速いペースで提供される最新機能など、クラウド コンピューティングのメリットをオンプレミス環境にもたらします。自社データセンターで Azure の強力な機能を利用するためには、Azure Stack のクラウド運用を担当する責任者が必要になります。

cloud-skills-whitepaper

マイクロソフトは Microsoft 2016 Ignite カンファレンスで、クラウド時代における最先端の IT プロフェッショナルの役割と、企業によるクラウド移行を支援するためのリソースを発表しました。今年は、お客様の Azure への対応準備を促進するために重点的に取り組み、Azure 管理者、Azure ソリューション アーキテクト、Azure の Node.js 開発者、Azure の .NET 開発者向けの Azure ラーニング パスを公開しました。各ラーニング パスに関連して、選択した業務で成果を挙げるために必要なスキルをすばやく習得できるように、各自のペースで進められる無料のオンライン コースも用意しています。

Azure Stack の導入により、Azure の新しい役割として Azure Stack Operator が追加されました。Azure Stack Operator は、Azure Stack 環境の物理インフラストラクチャを管理する役割です。クラウド環境の運用担当者がマイクロソフトの従業員である Azure とは異なり、Azure Stack の場合は、クラウド環境を運用するために、企業が適切なスキルを備えた人材を確保する必要があります。まだ確保していない場合は、「Azure Stack の運用 (英語)」のブログ記事をご覧になり、この新しい役割の担当者が習得する必要があるタスクをご確認ください。

Azure Stack 環境の管理と運用を成功させるうえで特に重要なのは、以下の 4 つの最先端の IT プロフェッショナルの役割です。

  • Azure Stack Operator: 計画、デプロイメントと統合、パッケージ化、インフラストラクチャ上でのクラウド リソースや要求されたサービスの提供など、Azure Stack インフラストラクチャのエンドツーエンドの運用を担当します。
  • Azure ソリューション アーキテクト: 導入計画、マルチクラウドおよびハイブリッド クラウド戦略、アプリケーション設計、管理と監視など、クラウド コンピューティング戦略を監督します。
  • Azure 管理者: クラウドのテナント セグメントの管理 (パブリック、ホスト、ハイブリッドのいずれの場合でも) と、お客様の要件を満たすためのリソースやツールの提供を担当します。
  • DevOps: クラウド リソース、クラウド プラットフォーム、DevOps の手法 (Infrastructure as Code、継続的インテグレーション、継続的デベロップメント、情報管理など) を活用した基幹業務アプリ開発の運用化を担当します。

cloud-operating-model-and-job-roles

上図の中で、茶色の役割名 (Azure ソリューション アーキテクト、Azure 管理者、DevOps) は、Azure 環境と Azure Stack 環境の両方に適用されるものです。一方、青色のボックスで囲まれた Azure Stack Operator の役割は、Azure Stack 専用に設計されたものです。「お客様の顧客」に含まれる Azure Stack ユーザーは、2 つのグループに分類されます。1 つ目のグループは、Azure Stack 環境でサブスクリプション、プラン、サービスなどを管理する Azure 管理者で、もう 1 つのグループは Azure Stack によって提供されたクラウド リソースを利用するテナント ユーザーです。テナント ユーザーは、Azure Stack クラウド環境でホストされる基幹業務アプリケーションを開発または運用する DevOps ユーザーである可能性があります。また、Azure Stack でホストされている顧客向けアプリケーションにアクセスするサービス プロバイダーまたは企業のテナント ユーザーである可能性もあります。

ご存知のように、クラウド プラットフォームのインスタンスを実行するには、従来とは異なるスキル セットが必要です。Azure Stack Operator としての知識習得とスキル開発を短期間で行うことができるように、以下の複数の学習サポートを提供するための取り組みを進めています。

  1. 現在、5 日間の講義形式のトレーニング コース「Microsoft Azure Stack によるハイブリッド クラウドの構成と運用 (英語)」を開発中です。現時点では、このコースは 2017 年 9 月に公開予定です。
  2. 今後数か月以内に、以下の無料のオンライン コース (英語) をリリースする予定です。
  • Azure Stack の基礎
  • Azure Stack の計画、デプロイメント、構成
  • Azure Stack の運用

Azure Stack Operator という新しい役割や、他の Azure Stack 関連の役割と対応する学習プログラムの詳細についてご興味がある方は、Ignite 2017 で開催される講義室でのセッション「THR2017 - Azure Stack Role Guide and Certifications (Azure Stack の役割ガイドと認定資格)」にぜひご参加ください。

詳細情報

米国オーランドで開催される今年の Microsoft Ignite では、Azure Stack のあらゆる側面について学ぶことができる一連のセッションを予定しています。予定されているセッションをご確認のうえ、今すぐご希望のセッションにお申し込みください (英語)

Azure Stack チームはお客様を第一に考え、新しいお客様からご意見を伺う機会を常に求めています。ハイブリッド クラウドに関心があり、Azure Stack の開発チームと直接話すことを希望される方は、Ignite のお客様向けミートアップにご登録ください (英語)

Microsoft Ignite への参加登録を済ませたお客様で、Azure Stack の前日トレーニングを申し込んでいない場合は、アクティビティ リストに前日トレーニングを追加する (英語) ことをお勧めします。また、Microsoft Ignite への参加登録がお済みでない場合は、座席が残りわずかとなっておりますので、ぜひお早めにお申し込みください!

Data Management Gateway の高可用性とスケーラビリティ機能のプレビュー

$
0
0

執筆者: Abhishek Narain (Program Manager)

このポストは、8 月 10 日に投稿された Data Management Gateway - High Availability and Scalability Preview の翻訳です。

 

このたび、Data Management Gateway の高可用性とスケーラビリティ機能のプレビューを発表しました。

これにより、複数のオンプレミス マシンを単一の論理ゲートウェイに関連付けられるようになりました。主なメリットは以下のとおりです。

  • Data Management Gateway (DMG) の可用性が向上 – 最大 4 ノードの継続性が確保されるため、ビッグデータ ソリューションや Azure Data Factory とのクラウド データ統合において DMG が単一生涯点になることはありません。

data-factory-gateway-high-availability-and-scalability

  • オンプレミスとクラウドのデータ ストア間のデータ移行のパフォーマンスとスループットが向上 – パフォーマンス比較の詳細についてはこちら (英語) をご覧ください。
  • スケールアウトスケールアップに対応 – DMG を 4 ノードにインストール (スケールアウト) 可能なほか、必要に応じて各ノードで同時に実行するデータ移行ジョブ数を増やしたり (スケールアップ) 減らしたり (スケールダウン) できます。
    注: スケールアップおよびスケールダウン機能は、すべての既存の単一ノード (一般提供) ゲートウェイで利用可能であり、この更新はプレビューに限定したものではありません。
  • 便利になった Data Management Gateway 監視エクスペリエンス – 各ノードのステータスやリソース使用状況などを Azure ポータル画面でひとめで確認できるようになり、DMG の管理が簡単になりました。

dmg-monitor

: 監視機能は、すべての既存の単一ノード (一般提供) ゲートウェイで利用可能であり、この更新はプレビューに限定したものではありません。

Data Management Gateway の高可用性とスケーラビリティ機能に関する詳細については、こちら (英語) をご確認ください。

使用を開始する

シナリオ 1 – 高可用性とスケーラビリティ機能が向上した新しい Data Management Gateway をセットアップする。

シナリオ 2 – 既存の Data Management Gateway をアップグレードして高可用性とスケーラビリティ機能を有効化する。

前提条件 – このプレビュー機能を使用するには、2.12.xxx.x 以降のバージョンの Data Management Gateway が必要になります。お持ちのバージョンが 2.12.xxxx.x 以降であることをご確認ください。最新バージョンはこちらからダウンロード可能です。

ご質問がありましたら、dmghelp@microsoft.com までお寄せください。

Azure SQL Data Warehouse でレプリケート テーブルのプレビューを開始

$
0
0

執筆者: Ron Ortloff (Senior Program Manager)

このポストは、8 月 15 日に投稿された Replicated tables now in preview for Azure SQL Data Warehouse の翻訳です。

 

SQL Data Warehouse は、ペタバイト規模の完全管理型クラウド データ ウェアハウスです。弾力性に優れており、セットアップを数分間で、容量のスケーリングは数秒で行うことができます。このたび、SQL Data Warehouse の大量のデータに対するクエリの処理スピードをさらに向上させる、レプリケート テーブル機能のパブリック プレビューを発表いたします。これは、データの移動を減らすことでクエリを高速化する機能です。分散データ ウェアハウス システムでデータ移動が発生するのは、テーブルの結合時や集約時に、コンピューティング ノード間でのテーブルの分散状態に矛盾が生じる場合です。レプリケート テーブルでは、データの完全なコピーを各コンピューティング ノードに保存することで、データの移動を減らします。そのため、データ移動が必須だったクエリの実行時間が短縮できます。

replicated-table

レプリケート テーブル機能以前には、Date ディメンションなどのディメンション テーブルは、ラウンドロビンの分散方式で実装するのが一般的でした。ファクト テーブルとの結合時には、Date ディメンションをファクト テーブルと一致させるために、クエリ プランにデータ移動のステップが実装され、この処理のために全体的なクエリ実行時間が長くなっていました。レプリケート テーブルを使用すると、分散されたファクト データとディメンション データの完全なローカル コピーがコンピューティング ノード内で直接結合されます。早期に採用したお客様では、一部のクエリの実行時間が 40% も短縮し、クエリ実行に必要なステップ数も 10 分の 1 までに減少しました。

レプリケート テーブルの作成方法

レプリケート テーブル機能は、プレビュー期間中のすべてのデータ ウェアハウスで提供されており、今すぐクエリの最適化をお試しいただけます。レプリケート テーブル作成に関するサンプル構文は、以下のとおりです。

CREATE TABLE DimDate
(
DateKey int NOT NULL,
FullDateAlternateKey date NOT NULL,
DayNameOfWeek nvarchar(10) NOT NULL,
CalendarQuarter tinyint NOT NULL,
CalendarYear smallint NOT NULL,
CalendarSemester tinyint NOT NULL
)
 
WITH
 
(
DISTRIBUTION = REPLICATE,
CLUSTERED COLUMNSTORE INDEX
)

SQL Data Warehouse の利用開始

Azure ポータルで SQL Data Warehouse のプロビジョニングを開始するか、1 か月の無料試用版にお申し込みください。

SQL Data Warehouse のスキーマ設計に関する推奨事項については、レプリケート テーブルの設計ガイダンスをご覧ください。

詳細情報

マイクロソフトでは、SQL Data Warehouse に関する資料を多数公開しています。ぜひお役立てください。


Just-In-Time VM Access のパブリック プレビューを発表

$
0
0

執筆者: Ben Kliger (Senior Product Manager)

このポストは、8 月 16 日に投稿された Announcing the Just-In-Time VM Access public preview の翻訳です。

 

一般的に、クラウド環境をターゲットにする攻撃には、ブルート フォース攻撃やポート スキャン攻撃が使用されます。特に狙われやすいのが、管理者がアクセスできるように開放されたままになっている RDP や SSH などの管理ポートです。このたび、Azure Security Center では、これらの攻撃を検出して警告するだけでなく、新たに Just-In-Time (JIT) VM Access というメカニズムを使用できるようになりました。現在パブリック プレビューとして提供されている JIT VM Access を使用すると、永続的なアクセスを拒否し、必要に応じて制御や監査の下で VM へのアクセスを許可できるため、前記のような攻撃を受けるリスクが大幅に減少します。

お客様が設定したセキュリティ ポリシーに応じて、Azure Security Center には既存の VM や新規作成した VM に対して JIT VM Access を有効化することを推奨するメッセージが表示されます。JIT VM Access を有効化すると、Azure Security Center によってネットワーク セキュリティ グループ ルールが作成され、定義されたポートへの受信トラフィックがロックダウンされます。VM へのアクセスは、必要に応じて要求できます。適切なアクセス許可を持つユーザーが要求した場合に限り、必要なポートが承認された時間だけ開放され、承認された IP アドレスからのアクセスが許可されます。各要求は Azure のアクティビティ ログに記録されるため、アクセスの監視や監査を容易に実施できます。JIT VM Access の有効化、ポリシーの構成、アクセスの要求は PowerShell コマンドレットから行うこともできます。

JIT VM Access の有効化とポリシーの適用

[Just in time VM access] ブレードでは、管理者が全部または一部の VM に対して JIT VM Access を簡単に有効化できるほか、ポリシーを構成することで、保護するポート、許可するプロトコル、ポートへのアクセスを許可する IP アドレス、ポートを開放する制限時間を定義できます。このポリシーに従って、ユーザーがアクセスを要求した場合に提示されるオプションが決定されます。

just-in-time-vm-access

VM に対する JIT VM Access の要求

VM へのアクセスは、適切なアクセス許可 (Azure RBAC に基づく) を持つすべてのユーザーが要求できます。JIT VM Access のポリシーに従って、ユーザーはアクセスする必要があるポート、アクセス元の IP アドレス、制限時間を選択できます。アクセスは自動的に許可されます。

just-in-time-vm-access-2

この新機能は Azure Security Center の Standard 料金レベルで提供されます。使用開始から 60 日間は無料でお試しいただけます。

JIT VM Access の詳細については、こちらの動画 (英語)ドキュメントを参照してください。

Terraform の Azure へのサポート投資を拡大

$
0
0

執筆者: Corey Sanders (Director of Compute)

このポストは、8 月 17 日に投稿された Investing deeply in Terraform on Azure の翻訳です。

 

Azure にデプロイするアプリの数が増えるにつれて、Azure の DevOps ツールに興味を持つお客様が増えてきました。また、ハイブリッド デプロイメントやマルチクラウド デプロイメントなど複数の環境にアプリをデプロイする際に、同じツールを使用することで DevOps エクスペリエンスを統一したいという声も寄せられるようになりました。マイクロソフトではこうしたニーズにお応えするために、DevOps とクラウド インフラストラクチャ管理の分野で有名な HashiCorp との連携を強化し、Terraform への投資を大幅に拡大 (英語) することにしました。

マイクロソフトと HashiCorp の提携は 2016 年前半から始まり、HashiCorp のポートフォリオに含まれる Packer や Terraform などの多数のツールで Azure Resource Manager を完全にサポートする計画を共同発表 (英語) しました。それ以来、HashiCorp 製品での Azure サポートはお客様にたいへんご好評いただいています。

今回このパートナーシップを強化し、Azure Container InstancesAzure Container ServiceManaged Disks (英語)Virtual Machine Scale Sets など、Terraform で直接サポートされるサービスをさらに拡充します。そうすることで、「Infrastructure as Code」に柔軟に対応できるようになり、より多くのネイティブな Microsoft Azure サービスを簡単に Terraform から直接デプロイできるようになります。詳細については、Terraform 用 Azure Provider (英語) を参照してください。

 

 

 

 

マイクロソフトでは、複雑で多様なこの分野のサポートをリードする HashiCorp とのパートナーシップを光栄に思っています。同社のポートフォリオには、DevOps を採用しているお客様を支援する製品が充実しており、Azure や複数の環境にまたがるインフラストラクチャの管理の自動化をサポートしています。

ご利用を検討中のお客様は、ぜひ今すぐ Azure で Terraform をお試しください。このプロジェクトはオープン ソースとして進められていますので、今後もサポートの拡張などの最新情報にご注目ください。

 

次回の記事もお楽しみに。

Corey Sanders

9/1 の Japan Partner Conference では Azure Stack ラックを展示したくて・・・

$
0
0

みなさん、こんにちは。

大掛かりな組織変更の波の中で、流れに任せてゆらゆらと揺れながら、たまに自分の主張をしてみたりしていますが、今期は、日本マイクロソフトの中でいくつかの部署に分かれていたパートナー様担当リソースが1つのチームに集結し、私はそこに配属されました。

テクノロジーやソリューションに関係なく、パートナー様を数社担当することになります。

本音としては、「すべてのパートナー様やお客様に対し、私が持っている情報と知識をフル活用したい」 という思いは消えていませんが、大きく変わった組織にはまだまだアンバランスな部分もあるので、それが最適化されていく中で私を含むリソースの調整が入る可能性を信じ、そしてAzure Stack V-Teamという会社に認められたもう1つの顔をフル活用して様々な活動をしていこうと思っています。

本題ですが、そういう事情もあり、これまで ほとんど絡むことがなかったパートナー様向けのイベント Japan Partner Conference (https://www.microsoft.com/ja-jp/partner/jpc/2017)に全力で対応することになりました。

その1つが、タイトルにも書いた Azure Stack ラック展示です。

----

A氏「Azure Stack ラック展示したいよね」

高添「そうね、それは面白そうだね」

B氏「また~、何言ってんすかあ」

A氏「だって、インパクトあるじゃん。Azure Stack ならそのくらいやりたいよね」

B氏「そりゃインパクトはあるだろうけど、今から展示会場の調整って・・・」

A氏「JPC に参加してくれているパートナーさんに Azure Stack のインパクトを知ってもらわなくていいんだっけ?」

~ PCでJPCの資料を探すB氏 ・・・ 1分後 ~

B氏「ま、調整してみますかね !(^^)!」 (突然乗り気・・・(笑)

二人が私を見る・・・

高添「わかりました。展示してもらえるかどうかも含め、メーカーさんに聞いてみますね」

----

正直なところ、最初は難しいだろうと思っていました。

が、今まさにハードウェアベンダーさん4社 (Dell EMC, HPE, Lenovo, Cisco) に多大なるご迷惑をおかけしながら、ラック4つの大掛かりな展示に加えてハードメーカーさんが一番見せたいサーバーの展示を含め準備を進めてもらっています。

しかも、自社のイベントと予定がかぶってしまったりで、ラックの準備が難しいベンダーさんもいらっしゃいましたが、

B氏「ラックがなきゃ、インパクト出せないので展示そのものをみなおさないと・・・」

という一言。

その瞬間、ふと思いついたベンダーさんがありました。

ヤマト通信工業様という、Open Compute Project でお世話になっているラック専業ベンダーさんです。

連絡をしてみたところ、いいよと言ってくれまして、せっかくなら面白いラックをということで、免震ラックとサイレントラックの展示をしてくれることになりました!!!

そんなこんなで、サーバーベンダー4社とラックベンダーのご協力と、JPC を支えてくれているイベント側のベンダーさんにもかなりの無理をお願いしながら図面の最終調整中です。

「間に合うのか、これ?」という状況ですが、何とかするしかないです。

ということで、今年の Japan Partner Conference は、Intelligent Cloud - Intelligent Edge 戦略に基づき、エッジ側の基盤 Azure Stack の展示を含めた大掛かりなイベントとなります!!!

ぜひ、Azure Stack ラック展示ブースに足を運んでいただき、各社から最新のサーバー事情や Azure Stack ビジネスについてお話を聞いてください。

また、自社内にきちんとしたデータセンター設備がないけど Azure Stack に興味があるというパートナー様は、ヤマト通信工業様の免震ラックやサイレントラックにもご注目ください!!!

----

今年の JPC はそれで終わりません。さらに・・・・

エクイニクス・ジャパン後藤さん、三井情報 青木さん、デル 鈴木章太郎さん、HPE 高野さんに協力をいただいて、20分のMicrosoft Azure Stack 研究会(MAS研) ビジネスコミュニティセッションもやります!!!

このセッション、Azure Stack 日本専任リソースの松崎も含め、6人で登壇して全部で20分しかありません。

登壇したことがある人には何が起こるか十分に想像できると思います(笑) でも、それもまた楽しいですね、ワクワクします。

----

そしてもう1つ、コミュニティ部屋にMAS研のブースも用意してもらっていて、(ほんの少し作業をしてもらうかもしれませんが) Azure Stack に興味を持ってくれている人に先着順でプレゼントもありますので、どうぞMAS研ブースにもお立ち寄りください。

Azure Stack の詳細はそこで聞いてもらってもいいですよ!!!

ちなみに、私は Azure のハンズオンの講師もやることになっているので、ブースや展示会場にいる時間は少ないと思いますが、少しでも多くの参加者の方とお話できればと思っています。

それでは来週、JPCでお会いしましょう!!!

高添

Configure Single Sign On (SSO) From Azure Activity Directory Into Google Suite In Only 2 Minutes

$
0
0

It’s a reality that many schools are running both Office365 (with Azure Activity Directory) and G Suite (formerly Google Apps For Education) side by side in their schools. A question I am commonly asked is how can students and faculty log into both cloud services with a single set of credentials.

Enter: Azure Active Directory Integration With Google Apps

This is a great tutorial showing how you can set up SSO in under 2 minutes so that your users do not have separate credentials across both platforms.

In this tutorial, you learn how to integrate Google Apps with Azure Active Directory (Azure AD). Integrating Google Apps with Azure AD provides you with the following benefits:

  • You can control in Azure AD who has access to Google Apps
  • You can enable your users to automatically get signed-on to Google Apps (Single Sign-On) with their Azure AD accounts
  • You can manage your accounts in one central location – the Azure portal

SSO.PNG

In a multi-cloud school, this is a great tutorial to follow and implement to ease the management of identity and enable seamless access for students and faculty.

Internet Explorer 11 & Microsoft Edge – よくあるお問い合わせ ~ エンタープライズ モード サイト一覧 (サイト一覧ファイル)

$
0
0

こんにちは。Internet Explorer & Microsoft Edge サポート担当の遠藤です。

 

本日は、エンタープライズ モード サイト一覧 (サイト一覧ファイル) によるブラウザ 制御をご利用いただいているお客様から
よくあるお問い合わせについて 3 つご紹介します。

 

a) サイト一覧ファイル の内容を更新した後、更新内容が反映されない

 

サイト一覧ファイルの更新確認は、IE11 を起動してから約 65 秒後に一度だけ行います。
以降は IE11 を起動し直すまで行われません。

更新確認処理の概要は、以下のとおりです。

  1. レジストリやポリシーで指定された場所からサイト一覧ファイルを取得します。
  2. 取得した サイト一覧ファイルのバージョン (version 属性) を確認します。
  3. 端末のレジストリで保持しているバージョン番号よりも取得したサイト一覧ファイルのバージョン番号が新しい場合、ローカルのキャッシュ情報を置き換えます。
    ※ 1. で取得に失敗、あるいは 3. でバージョン番号が更新されていない場合は、ローカルのキャッシュ情報をそのまま利用します。

そのため、サイト一覧ファイルを更新した場合は、IE11 を再起動し、約 65 秒経過後に初めて反映されます。

 

b) サイト一覧ファイルの内容を更新した後、65 秒 経過しても更新内容が反映されない

 

サイト一覧ファイルを Web サーバーに配置している場合、キャッシュ 無効 の指定がなければ サイト一覧ファイルはキャッシュされます。
Web サーバー上に配置した サイト一覧ファイルを HTTP で指定する場合、通常の HTTP 通信におけるキャッシュ (HTML、CSS など) と同様にキャッシュ機能の対象になります。クライアント に有効期限内のキャッシュが保持されていると、サイト一覧ファイルの更新確認が行われない事があります。この結果として更新内容が反映されません。

クライアント で キャッシュを削除してからアクセスしていただくか、予め Web サーバー側でサイト一覧ファイルのHTTP応答ヘッダーに Cache-control: no-cache を設定するなどの方法で、サイト一覧ファイルのキャッシュの期間を限定して運用することをご検討ください。

 

c) サイト一覧ファイルの内容を更新した後、65 秒 経過しても、キャッシュを削除しても、更新内容が反映されない

 

サイト一覧ファイル のパス指定に管理共有 (share$)が含まれる場合、認証処理が必要になることでアクセスに失敗する可能性があります。

"\networkshare$sites.xml"

 
HTTP や ローカルネットワーク、ローカル ファイル指定に変更いただき、正しくリストを読み込めるかどうかをご確認ください。

 

HTTP : “SiteList”=”http://localhost:8080/sites.xml”
ローカル ネットワーク: "SiteList"="\networksharessites.xml"
ローカル ファイル: "SiteList"="file:///c:\testList.xml"

 

- 参考
エンタープライズ モード 機能は、企業 様からの注目度も高く、これまでにも当ブログにて幾つかの記事をご案内しています。

エンタープライズ モードの主要な特徴については、以下の記事をご参考ください。

早わかり!エンタープライズ モード

エンタープライズ モードの設定方法については、以下の記事をご参考ください。

エンタープライズ モードの設定方法について

Enterprise Mode Site List によるドキュメント モード やユーザーエージェント文字列の制御については、
以下の記事をご参考ください。

Site List Manager を使用したドキュメントモードの指定方法

IE7 エンタープライズ モード および Windows 10 環境で利用可能な Web サイトを開くブラウザ の指定方法については、
以下の記事をご参考ください。

Enterprise Mode Site List Manager (エンタープライズ モード サイト リスト マネージャー) の新機能

 

以上です。
今後もぜひエンタープライズ モードで柔軟なブラウザ制御をご活用ください!

Viewing all 36188 articles
Browse latest View live


<script src="https://jsc.adskeeper.com/r/s/rssing.com.1596347.js" async> </script>