DP-203 Deutsch試験無料問題集「Microsoft Data Engineering on Microsoft Azure (DP-203 Deutsch Version) 認定」

Hinweis: Diese Frage ist Teil einer Reihe von Fragen, die dasselbe Szenario darstellen. Jede Frage in der Reihe enthält eine einzigartige Lösung, die die angegebenen Ziele erreichen könnte. Für einige Fragensätze gibt es möglicherweise mehr als eine richtige Lösung, während für andere möglicherweise keine richtige Lösung vorhanden ist.
Nachdem Sie eine Frage in diesem Abschnitt beantwortet haben, können Sie NICHT mehr darauf zurückkommen. Daher werden diese Fragen nicht im Überprüfungsbildschirm angezeigt.
Sie planen, einen Azure Databricks-Arbeitsbereich mit einer mehrstufigen Struktur zu erstellen. Der Arbeitsbereich enthält die folgenden drei Workloads:
* Eine Arbeitsbelastung für Dateningenieure, die Python und SQL verwenden.
* Eine Arbeitslast für Jobs, die Notebooks ausführen, die Python, Scala und SOL verwenden.
* Eine Arbeitslast, mit der Datenwissenschaftler Ad-hoc-Analysen in Scala und R durchführen.
Das Unternehmensarchitekturteam Ihres Unternehmens identifiziert die folgenden Standards für Databricks-Umgebungen:
* Die Dateningenieure müssen sich einen Cluster teilen.
* Der Job-Cluster wird mithilfe eines Anforderungsprozesses verwaltet, bei dem Datenwissenschaftler und Dateningenieure gepackte Notebooks für die Bereitstellung im Cluster bereitstellen.
* Allen Datenwissenschaftlern muss ein eigener Cluster zugewiesen werden, der nach 120 Minuten Inaktivität automatisch beendet wird. Derzeit gibt es drei Datenwissenschaftler.
Sie müssen die Databricks-Cluster für die Arbeitslasten erstellen.
Lösung: Sie erstellen einen Standardcluster für jeden Datenwissenschaftler, einen High Concurrency-Cluster für die Dateningenieure und einen Standardcluster für die Jobs.
Erfüllt dies das Ziel?

解説: (GoShiken メンバーにのみ表示されます)
Sie müssen eine Datenaufbewahrungslösung für die Twitter-Feed-Datensätze entwerfen. Die Lösung muss die Anforderungen der Kundenstimmungsanalyse erfüllen.
Welche Azure Storage-Funktionalität sollten Sie in die Lösung einbeziehen?

解説: (GoShiken メンバーにのみ表示されます)
Sie verfügen über ein Azure Storage-Konto und ein Data Warehouse in Azure Synapse Analytics in der Region UK South.
Sie müssen Blobdaten mithilfe von Azure Data Factory aus dem Speicherkonto in das Data Warehouse kopieren. Die Lösung muss folgende Anforderungen erfüllen:
* Stellen Sie sicher, dass die Daten jederzeit in der Region UK South verbleiben.
* Minimieren Sie den Verwaltungsaufwand.
Welche Art von Integration Runtime sollten Sie verwenden?

解説: (GoShiken メンバーにのみ表示されます)
Hinweis: Diese Frage ist Teil einer Reihe von Fragen, die dasselbe Szenario darstellen. Jede Frage in der Reihe enthält eine einzigartige Lösung, die die angegebenen Ziele erreichen könnte. Für einige Fragensätze gibt es möglicherweise mehr als eine richtige Lösung, während für andere möglicherweise keine richtige Lösung vorhanden ist.
Nachdem Sie eine Frage in diesem Abschnitt beantwortet haben, können Sie NICHT mehr darauf zurückkommen. Daher werden diese Fragen nicht im Überprüfungsbildschirm angezeigt.
Sie verfügen über ein Azure Data Lake Storage-Konto, das eine Stagingzone enthält.
Sie müssen einen täglichen Prozess entwerfen, um inkrementelle Daten aus der Stagingzone aufzunehmen, die Daten durch Ausführen eines R-Skripts zu transformieren und die transformierten Daten dann in ein Data Warehouse in Azure Synapse Analytics einzufügen.
Lösung: Sie planen einen Azure Databricks-Auftrag, der ein R-Notebook ausführt und dann die Daten in das Data Warehouse einfügt.
Erfüllt dies das Ziel?

解説: (GoShiken メンバーにのみ表示されます)
Sie verfügen über einen dedizierten Azure Synapse Analytics-SQL-Pool, der eine Tabelle mit dem Namen „dbo.Users“ enthält.
Sie müssen verhindern, dass eine Gruppe von Benutzern Benutzer-E-Mail-Adressen von dbo.Users liest. Was sollten Sie verwenden?

Sie verfügen über einen Azure Stream Analytics-Auftrag, der Clickstream-Daten von einem Azure Event Hub empfängt.
Sie müssen eine Abfrage im Stream Analytics-Job definieren. Die Abfrage muss folgende Anforderungen erfüllen:
* Zählen Sie die Anzahl der Klicks innerhalb jedes 10-Sekunden-Fensters basierend auf dem Land eines Besuchers.
* Stellen Sie sicher, dass jeder Klick NICHT mehr als einmal gezählt wird.
Wie sollten Sie die Abfrage definieren?

解説: (GoShiken メンバーにのみ表示されます)
Ihre Daten sind in Tausenden von CSV-Dateien in Azure Data Lake Storage Gen2 gespeichert. Jede Datei verfügt über eine Kopfzeile, gefolgt von einem ordnungsgemäß formatierten Wagenrücklauf (/r) und einem Zeilenvorschub (/n).
Sie implementieren ein Muster, das die Dateien täglich stapelweise in ein Unternehmens-Data Warehouse in Azure Synapse Analytics lädt, indem Sie PolyBase verwenden.
Sie müssen die Kopfzeile überspringen, wenn Sie die Dateien in das Data Warehouse importieren. Bevor Sie das Lademuster erstellen, müssen Sie die erforderlichen Datenbankobjekte in Azure Synapse Analytics vorbereiten.
Welche drei Aktionen sollten Sie nacheinander ausführen? Um zu antworten, verschieben Sie die entsprechenden Aktionen aus der Aktionsliste in den Antwortbereich und ordnen Sie sie in der richtigen Reihenfolge an.
HINWEIS: Jede richtige Auswahl ist einen Punkt wert
正解:

Explanation:

Step 1: Create an external data source that uses the abfs location
Create External Data Source to reference Azure Data Lake Store Gen 1 or 2 Step 2: Create an external file format and set the First_Row option.
Create External File Format.
Step 3: Use CREATE EXTERNAL TABLE AS SELECT (CETAS) and configure the reject options to specify reject values or percentages To use PolyBase, you must create external tables to reference your external data.
Use reject options.
Note: REJECT options don't apply at the time this CREATE EXTERNAL TABLE AS SELECT statement is run. Instead, they're specified here so that the database can use them at a later time when it imports data from the external table. Later, when the CREATE TABLE AS SELECT statement selects data from the external table, the database will use the reject options to determine the number or percentage of rows that can fail to import before it stops the import.
Reference:
https://docs.microsoft.com/en-us/sql/relational-databases/polybase/polybase-t-sql-objects
https://docs.microsoft.com/en-us/sql/t-sql/statements/create-external-table-as-select-transact-sql
Ein Unternehmen kauft IoT-Geräte zur Überwachung von Fertigungsmaschinen. Für die Kommunikation mit den IoT-Geräten nutzt das Unternehmen eine IoT-Appliance.
Das Unternehmen muss in der Lage sein, die Geräte in Echtzeit zu überwachen.
Sie müssen die Lösung entwerfen.
Was sollten Sie empfehlen?

解説: (GoShiken メンバーにのみ表示されます)
Sie verfügen über eine Azure Data Factory mit den in der folgenden Abbildung gezeigten Git-Repository-Einstellungen.

Verwenden Sie die Dropdown-Menüs, um die Antwort auszuwählen, die jede Aussage basierend auf den in der Grafik dargestellten Informationen vervollständigt.
HINWEIS: Jede richtige Antwort ist einen Punkt wert.
正解:

Explanation:
Sie verfügen über einen dedizierten Azure Synapse Analytics-SQL-Pool mit dem Namen „SQL1“, der eine Hash-verteilte Faktentabelle mit dem Namen „Table1“ enthält.
Sie müssen Tabelle1 neu erstellen und eine neue Verteilungsspalte hinzufügen. Die Lösung muss die Verfügbarkeit der Daten maximieren.
Welche vier Aktionen sollten Sie nacheinander ausführen? Um zu antworten, verschieben Sie die entsprechenden Aktionen aus der Aktionsliste in den Antwortbereich und ordnen Sie sie in der richtigen Reihenfolge an.
正解:

Explanation:
Sie überwachen einen Azure Stream Analytics-Auftrag.
Die Anzahl der zurückgebliebenen Eingabeereignisse betrug in der letzten Stunde 20.
Sie müssen die Anzahl der zurückgebliebenen Eingabeereignisse reduzieren.
Was sollte man tun?

解説: (GoShiken メンバーにのみ表示されます)
Hinweis: Diese Frage ist Teil einer Reihe von Fragen, die dasselbe Szenario darstellen. Jede Frage in der Reihe enthält eine einzigartige Lösung, die die angegebenen Ziele erreichen könnte. Für einige Fragensätze gibt es möglicherweise mehr als eine richtige Lösung, während für andere möglicherweise keine richtige Lösung vorhanden ist.
Nachdem Sie eine Frage in diesem Abschnitt beantwortet haben, können Sie NICHT mehr darauf zurückkommen. Daher werden diese Fragen nicht im Überprüfungsbildschirm angezeigt.
Sie entwerfen eine Azure Stream Analytics-Lösung, die Twitter-Daten analysiert.
Sie müssen die Tweets in jedem 10-Sekunden-Fenster zählen. Die Lösung muss sicherstellen, dass jeder Tweet nur einmal gezählt wird.
Lösung: Sie verwenden ein Sitzungsfenster mit einer Timeout-Größe von 10 Sekunden.
Erfüllt dies das Ziel?

解説: (GoShiken メンバーにのみ表示されます)
Sie verfügen über ein Azure Data Lake Storage Gen 2-Konto mit dem Namen „storage1“.
Sie müssen eine Lösung für den Zugriff auf die Inhalte im Speicher1 empfehlen. Die Lösung muss folgende Anforderungen erfüllen:
* Listen- und Leseberechtigungen müssen auf Speicherkontoebene gewährt werden.
* Zusätzliche Berechtigungen können auf einzelne Objekte in Speicher1 angewendet werden.
* Für die Authentifizierung müssen Sicherheitsprinzipale von Microsoft Azure Active Directory (Azure AD), Teil von Microsoft Entra, verwendet werden.
Was sollten Sie verwenden? Um zu antworten, ziehen Sie die entsprechenden Komponenten auf die richtigen Anforderungen. Jede Komponente kann einmal, mehrmals oder gar nicht verwendet werden. Möglicherweise müssen Sie die Trennleiste zwischen den Fenstern ziehen oder scrollen, um den Inhalt anzuzeigen.
HINWEIS: Jede richtige Auswahl ist einen Punkt wert.
正解:

Explanation:
Box 1: Role-based access control (RBAC) roles
List and read permissions must be granted at the storage account level.
Security principals from Microsoft Azure Active Directory (Azure AD), part of Microsoft Entra, must be used for authentication.
Role-based access control (Azure RBAC)
Azure RBAC uses role assignments to apply sets of permissions to security principals. A security principal is an object that represents a user, group, service principal, or managed identity that is defined in Azure Active Directory (AD). A permission set can give a security principal a "coarse-grain" level of access such as read or write access to all of the data in a storage account or all of the data in a container.
Box 2: Access control lists (ACLs)
Additional permissions can be applied to individual objects in storage1.
Access control lists (ACLs)
ACLs give you the ability to apply "finer grain" level of access to directories and files. An ACL is a permission construct that contains a series of ACL entries. Each ACL entry associates security principal with an access level.
Reference: https://learn.microsoft.com/en-us/azure/storage/blobs/data-lake-storage-access-control-model
Sie entwerfen einen Azure Synapse Analytics-Arbeitsbereich.
Sie müssen eine Lösung empfehlen, die eine doppelte Verschlüsselung aller ruhenden Daten bietet.
Welche beiden Komponenten sollten Sie in die Empfehlung einbeziehen? Jede Kegelantwort stellt einen Teil der Lösung dar. HINWEIS: Jede richtige Auswahl ist einen Punkt wert.

解説: (GoShiken メンバーにのみ表示されます)