diff --git a/content/fr/cloudcraft/account-management/billing-and-invoices.md b/content/fr/cloudcraft/account-management/billing-and-invoices.md new file mode 100644 index 00000000000..e6368bc1f83 --- /dev/null +++ b/content/fr/cloudcraft/account-management/billing-and-invoices.md @@ -0,0 +1,49 @@ +--- +title: Facturation et factures +--- + +En tant que propriétaire de compte, vous pouvez apporter des modifications à votre abonnement et à vos méthodes de paiement à tout moment. + +
Les abonnements créés via l'AWS Marketplace sont gérés via votre compte Marketplace. +
+ +{{< img src="cloudcraft/account-management/billing-and-invoices/subscription-settings.png" alt="Interface de gestion d'abonnement de Cloudcraft affichant les détails du plan Pro Monthly, le statut de l'essai et les informations de paiement avec une carte Visa." responsive="true" style="width:100%;">}} + +## Afficher, imprimer et configurer les reçus + +1. Accédez à **User** > **Subscription settings**. +2. Pour afficher, télécharger ou imprimer les reçus des paiements passés, cliquez sur **Billing history**. +3. Pour configurer l'envoi des reçus par e-mail chaque mois ou inclure des informations de facturation supplémentaires, telles que l'adresse de votre entreprise ou votre numéro de TVA, cliquez sur **Receipt settings**. + +
+

Vous pouvez utiliser ce modèle pour améliorer vos reçus.

+

+ Facture de :
+ Datadog, Inc.
+ 620 8th Avenue, 45th Floor
+ New York, NY 10018, USA

+ Facturer à :
+ Les coordonnées de votre entreprise +

+
+ +## Mettre à jour les détails de paiement + +1. Accédez à **User** > **Subscription settings**. +2. Cliquez sur **Edit card**. +3. Saisissez les détails de votre nouvelle carte, puis cliquez sur **Update payment info**. + +## Passer au paiement annuel + +Vous pouvez passer au paiement annuel de votre abonnement à tout moment. + +1. Accédez à **User** > **Subscription settings**. +2. Cliquez sur **Change plan**, puis basculez le commutateur de **Monthly** à **Annual**. +3. Cliquez sur **Continue**, puis cliquez sur **Confirm**. + +{{< img src="cloudcraft/account-management/billing-and-invoices/toggle-annual-payments.png" alt="Capture d'écran des détails du plan d'abonnement Pro Team de Cloudcraft mettant en évidence le coût annuel, les fonctionnalités clés comme la synchronisation AWS, l'assistance prioritaire et les options de collaboration pour deux utilisateurs." responsive="true" style="width:100%;">}} + +Pour payer par chèque ou virement bancaire, [contactez l'équipe commerciale de Cloudcraft](mailto:cloudcraft-sales@datadoghq.com) et elle vous aidera à passer aux paiements par facture. + +
Toute période d'abonnement déjà payée sera entièrement proratisée et le crédit restant sera automatiquement appliqué au prochain cycle de facturation. +
\ No newline at end of file diff --git a/content/fr/cloudcraft/account-management/cancel-subscription.md b/content/fr/cloudcraft/account-management/cancel-subscription.md new file mode 100644 index 00000000000..459cacae3bf --- /dev/null +++ b/content/fr/cloudcraft/account-management/cancel-subscription.md @@ -0,0 +1,33 @@ +--- +title: Annuler votre abonnement Cloudcraft (autonome) +--- + +L'annulation de votre abonnement Cloudcraft (autonome) peut être effectuée depuis l'application Cloudcraft. + +Seul le propriétaire du compte peut annuler un abonnement Cloudcraft, ce qui prend effet à la fin de votre cycle de facturation actuel. Lorsque vous annulez votre abonnement, votre compte est rétrogradé vers le plan gratuit. + +Lors de l'annulation, vous pouvez toujours accéder aux diagrammes que vous avez créés, mais vous perdrez l'accès à quelques fonctionnalités : + +- Les plans _Infinite grid_ passent en mode lecture seule. +- La fonctionnalité _Live_ n'est plus disponible. +- Les ressources AWS et Azure ne sont plus mises à jour. +- [Le menu Bits][1] ne fonctionne plus. + +
Si vous annulez dans la période de garantie de remboursement de 30 jours et préférez un remboursement, contactez l'équipe d'assistance de Cloudcraft à la place. +
+ +1. Accédez à **User** > **Subscription Settings**. +2. Sélectionnez **Cancel subscription**. +3. Éventuellement, fournissez des commentaires sur ce que Cloudcraft peut faire pour mieux répondre à vos besoins à l'avenir. +4. Sélectionnez **Cancel my account**. + +Si vous ne voyez pas l'option **Cancel subscription**, vous avez peut-être acheté votre abonnement via l'équipe commerciale de Datadog ou via l'AWS Marketplace. + +- Si vous avez acheté votre abonnement via l'équipe commerciale de Datadog, il ne se renouvelle pas automatiquement et expire à la fin de votre cycle de facturation. +- Si vous avez acheté votre abonnement via l'AWS Marketplace, le processus d'annulation doit être effectué via votre compte AWS. Pour plus d'informations, consultez la section [Cancel your product subscription][2] dans la page de documentation AWS Marketplace. + +
L'annulation d'un abonnement ne supprime pas vos données des serveurs de Cloudcraft. Au lieu de cela, elle change votre compte vers le plan gratuit. Si vous souhaitez supprimer votre compte et toutes les données des serveurs de Cloudcraft, contactez l'équipe d'assistance de Cloudcraft. +
+ +[1]: /fr/cloudcraft/getting-started/using-bits-menu/ +[2]: https://docs.aws.amazon.com/marketplace/latest/buyerguide/cancel-subscription.html \ No newline at end of file diff --git a/content/fr/cloudcraft/account-management/create-strong-password.md b/content/fr/cloudcraft/account-management/create-strong-password.md new file mode 100644 index 00000000000..9281f65bd65 --- /dev/null +++ b/content/fr/cloudcraft/account-management/create-strong-password.md @@ -0,0 +1,29 @@ +--- +title: Créer un mot de passe fort et protéger vos données +--- + +La création et le maintien de mots de passe forts et uniques sont une partie fondamentale de la sécurisation de vos données partout sur Internet. + +Un mot de passe unique et robuste vous aide à : + +- Garder vos données en sécurité. +- Protéger votre architecture cloud. +- Empêcher quelqu'un d'autre d'accéder à votre compte. + +Créez votre mot de passe en utilisant 32 caractères ou plus, avec n'importe quelle combinaison de lettres, de chiffres et de symboles. Cloudcraft effectue une détection de la force du mot de passe et nécessite une complexité suffisante pour résister à au moins 10^8 tentatives. Votre mot de passe ne doit pas apparaître dans une liste de mots de passe divulgués. + +Cloudcraft effectue également une limitation automatique et un verrouillage temporaire des comptes à 10 tentatives par heure. + +## Meilleures pratiques + +1. Utilisez un gestionnaire de mots de passe tel que [1Password][1] ou [Bitwarden][2]. Ils facilitent grandement la création et l'utilisation de mots de passe longs et complexes qui sont uniques pour chaque site Web que vous utilisez. +2. Abonnez-vous à un service de notification de violation tel que [Have I Been Pwned][3] afin d'être averti si un service que vous utilisez subit une violation de sécurité. +3. [Utilisez l'authentification à deux facteurs (2FA)][4]. Cloudcraft offre une protection 2FA, tout comme la plupart des services qui traitent des informations sensibles. + +Mozilla, la société derrière le navigateur Web Firefox, a [un excellent article sur ce sujet][5]. + +[1]: https://1password.com/ +[2]: https://bitwarden.com/ +[3]: https://haveibeenpwned.com/ +[4]: https://help.cloudcraft.co/article/28-set-up-two-factor-authentication +[5]: https://blog.mozilla.org/en/privacy-security/privacy-security-tips/how-to-create-strong-passwords/ \ No newline at end of file diff --git a/content/fr/cloudcraft/account-management/enable-sso-with-azure-ad.md b/content/fr/cloudcraft/account-management/enable-sso-with-azure-ad.md new file mode 100644 index 00000000000..57b45d4edab --- /dev/null +++ b/content/fr/cloudcraft/account-management/enable-sso-with-azure-ad.md @@ -0,0 +1,58 @@ +--- +title: Activer le SSO avec Azure AD +--- + +L'activation du Single Sign-On (SSO) avec Azure AD comme fournisseur d'identité vous permet de simplifier l'authentification et l'accès de connexion à Cloudcraft. + +Cet article vous aide à configurer le SSO si votre fournisseur d'identité est Azure AD. Pour les autres fournisseurs d'identité, consultez les articles suivants : + +- [Activer le SSO avec Okta][1] +- [Activer le SSO avec un fournisseur d'identité générique][2] + +Pour plus d'informations générales sur l'utilisation du SSO avec Cloudcraft, consultez la section [Activer le SSO dans votre compte][3]. + +## Configuration de SAML/SSO + +
Seul le propriétaire du compte peut configurer la fonctionnalité SAML SSO. Si le propriétaire du compte n'est pas en mesure de configurer le SSO, contactez l'équipe d'assistance de Cloudcraft pour activer cette fonctionnalité. +
+ +1. Dans Cloudcraft, accédez à **User** > **Security & SSO**. +2. Les détails dont vous avez besoin pour créer une nouvelle application avec Azure se trouvent dans la section **Cloudcraft service provider details**. + +{{< img src="cloudcraft/account-management/enable-sso-with-azure-ad/service-provider-details.png" alt="Capture d'écran des détails du fournisseur de services Cloudcraft pour la configuration du fournisseur d'identité avec l'ID d'entité et l'URL du service consommateur d'assertion." responsive="true" style="width:100%;">}} + +3. Connectez-vous à Azure en tant qu'administrateur. +4. Cliquez sur le menu avec trois points dans le coin supérieur gauche de l'écran et sélectionnez **Azure Active Directory**. +5. Dans la section **Manage** du menu de gauche, cliquez sur **Enterprise applications**. +6. Cliquez sur **New application** et sélectionnez **Non-gallery application**. +7. Saisissez **Cloudcraft** comme nom de l'application, puis cliquez sur **Add**. + +Ensuite, configurez l'intégration SAML en utilisant les détails fournis par Cloudcraft. + +1. Dans la section **Getting started**, sélectionnez **Set up single sign on**, puis cliquez sur **SAML**. +2. Sous la section **Basic SAML Configuration**, cliquez sur **Edit**. +3. Saisissez les détails fournis par Cloudcraft. Les champs sont mappés comme suit, la première valeur étant l'étiquette dans Azure AD et la seconde étant l'étiquette dans la boîte de dialogue Cloudcraft. + - **Identifier** : ID de l'entité prestataire de services + - **Reply URL** : URL du service consommateur d'assertions + - **Sign on URL** : laissez ce champ vide pour permettre le SSO initié par le fournisseur d'identité + +{{< img src="cloudcraft/account-management/enable-sso-with-azure-ad/saml-settings.png" alt="Capture d'écran de l'interface de configuration SAML de base affichant les champs pour l'identifiant (ID d'entité) et l'URL de réponse (URL du service consommateur d'assertion)." responsive="true" style="width:80%;">}} + +4. Cliquez sur **Save** pour revenir à l'écran précédent. +5. Sous la section **SAML Signing Certificate**, sélectionnez **Federation Metadata XML** et téléchargez le fichier XML sur votre ordinateur. +6. Revenez à Cloudcraft et téléchargez votre fichier XML de métadonnées. + +{{< img src="cloudcraft/account-management/enable-sso-with-azure-ad/upload-metadata.png" alt="Statut de SAML Single Sign-On configuré avec succès avec l'URL du fournisseur d'identité visible dans l'interface des paramètres de sécurité." responsive="true" style="width:100%;">}} + +7. Basculez l'option **SAML Single Sign-On is enabled**. +8. Revenez au portail Azure. +9. Sous la section **Test single sign-on with Cloudcraft**, cliquez sur **Test** pour tester votre intégration. +10. Si vous préférez que vos utilisateurs accèdent à Cloudcraft uniquement via Azure AD, activez l'option **Strict mode**, qui désactive toutes les autres méthodes de connexion. + +**Remarque** : pour accorder l'accès aux utilisateurs de votre organisation, consultez [la documentation Azure AD][4]. + +[1]: /fr/cloudcraft/account-management/enable-sso-with-okta/ +[2]: /fr/cloudcraft/account-management/enable-sso-with-generic-idp/ +[3]: /fr/cloudcraft/account-management/enable-sso/ +[4]: https://docs.microsoft.com/en-us/azure/active-directory/manage-apps/assign-user-or-group-access-portal +[5]: https://app.cloudcraft.co/support \ No newline at end of file diff --git a/content/fr/cloudcraft/account-management/enable-sso-with-generic-idp.md b/content/fr/cloudcraft/account-management/enable-sso-with-generic-idp.md new file mode 100644 index 00000000000..31f4da70554 --- /dev/null +++ b/content/fr/cloudcraft/account-management/enable-sso-with-generic-idp.md @@ -0,0 +1,48 @@ +--- +title: Activer le SSO avec un fournisseur d'identité générique +--- + +L'activation du Single Sign-On (SSO) dans Cloudcraft vous permet de simplifier l'authentification et l'accès de connexion à Cloudcraft. + +Cet article vous aide à configurer le SSO si vous n'avez pas de guide spécifique pour votre fournisseur d'identité. Si votre fournisseur d'identité est Azure AD ou Okta, consultez les articles suivants : + +- [Activer le SSO avec Azure AD][1] +- [Activer le SSO avec Okta][2] + +Pour plus d'informations générales sur l'utilisation du SSO avec Cloudcraft, consultez la section [Activer le SSO dans votre compte][3]. + +## Configuration de SAML/SSO + +
Seul le propriétaire du compte peut configurer la fonctionnalité SAML SSO. Si le propriétaire du compte n'est pas en mesure de configurer le SSO, contactez l'équipe d'assistance de Cloudcraft pour activer cette fonctionnalité.
+ +1. Dans Cloudcraft, accédez à **User** > **Security & SSO**. +2. Les détails dont vous avez besoin pour créer une nouvelle application avec Azure se trouvent dans la section **Cloudcraft service provider details**. + +{{< img src="cloudcraft/account-management/enable-sso-with-generic-idp/service-provider-details.png" alt="Capture d'écran des détails du fournisseur de services Cloudcraft pour la configuration du fournisseur d'identité avec l'ID d'entité et l'URL du service consommateur d'assertion." responsive="true" style="width:100%;">}} + +3. Connectez-vous à votre fournisseur d'identité en tant qu'administrateur. +4. Suivez sa documentation pour créer une nouvelle application pour l'intégration SAML. +5. Mappez ses champs avec les champs de Cloudcraft. Pour référence, les champs sont généralement mappés comme suit, le premier étant l'étiquette utilisée par votre fournisseur d'identité et le second étant l'étiquette chez Cloudcraft. + + - **Single sign on URL** : URL du service consommateur d'assertions + - **Audience URI** : ID de l'entité prestataire de services + - **Name ID** : format NameId + +6. Si le champ **Name ID** est un menu déroulant, sélectionnez **emailAddress** ou similaire. + +
Vous pouvez également inclure un logo d'application pour permettre aux utilisateurs de voir plus facilement dans quelle application ils se connectent. Nous en avons un qui correspond aux restrictions de la plupart des fournisseurs par ici. +
+ +7. Configurez l'application pour permettre l'accès à tous les utilisateurs concernés au sein de votre organisation. +8. Téléchargez le fichier de métadonnées généré par votre fournisseur, parfois appelé XML de fédération. +9. Revenez à Cloudcraft et téléchargez votre fichier XML de métadonnées. + +{{< img src="cloudcraft/account-management/enable-sso-with-generic-idp/upload-metadata.png" alt="Statut de SAML Single Sign-On configuré avec succès avec l'URL du fournisseur d'identité visible dans l'interface des paramètres de sécurité." responsive="true" style="width:100%;">}} + +10. Basculez l'option **SAML Single Sign-On is enabled**. +11. Si vous préférez que vos utilisateurs accèdent à Cloudcraft uniquement via votre fournisseur d'identité, activez l'option **Strict mode**. + +[1]: /fr/cloudcraft/account-management/enable-sso-with-azure-ad/ +[2]: /fr/cloudcraft/account-management/enable-sso-with-okta/ +[3]: /fr/cloudcraft/account-management/enable-sso/ +[4]: https://app.cloudcraft.co/support \ No newline at end of file diff --git a/content/fr/cloudcraft/account-management/enable-sso-with-okta.md b/content/fr/cloudcraft/account-management/enable-sso-with-okta.md new file mode 100644 index 00000000000..280da640249 --- /dev/null +++ b/content/fr/cloudcraft/account-management/enable-sso-with-okta.md @@ -0,0 +1,56 @@ +--- +title: Activer le SSO avec Okta +--- + +Si vous préférez que vos utilisateurs accèdent à Cloudcraft uniquement via votre fournisseur d'identité, activez l'option **Strict mode**. + +Cet article vous aide à configurer le SSO si votre fournisseur d'identité est Okta. Pour les autres fournisseurs d'identité, consultez les articles suivants : + +- [Activer le SSO avec Azure AD][1] +- [Activer le SSO avec un fournisseur d'identité générique][2] + +Pour des informations générales sur l'utilisation du SSO avec Cloudcraft, consultez la section [Activer le SSO dans votre compte][3]. + +## Configuration de SAML/SSO + +
Seul le propriétaire du compte peut configurer la fonctionnalité SAML SSO. Si le propriétaire du compte n'est pas en mesure de configurer le SSO, contactez l'équipe d'assistance de Cloudcraft pour activer cette fonctionnalité.
+ +1. Dans Cloudcraft, accédez à **User** > **Security & SSO**. +2. Les détails dont vous avez besoin pour créer une nouvelle application avec Okta se trouvent dans la section **Cloudcraft service provider details**. + +{{< img src="cloudcraft/account-management/enable-sso-with-okta/service-provider-details.png" alt="Capture d'écran des détails du fournisseur de services Cloudcraft pour la configuration du fournisseur d'identité avec l'ID d'entité et l'URL du service consommateur d'assertion." responsive="true" style="width:100%;">}} + +3. Connectez-vous à Okta en tant qu'administrateur. +4. Cliquez sur **Application**. +5. Cliquez sur **Add Application**, puis cliquez sur **Create New App**. +6. Sélectionnez **SAML 2.0** comme méthode de connexion et cliquez sur **Create**. +7. Saisissez **Cloudcraft** comme nom de l'application et laissez les valeurs restantes telles quelles. +8. Cliquez sur **Next**. + +
Si vous préférez utiliser un logo d'application, vous pouvez utiliser ce logo qui respecte les restrictions de taille d'Okta. +
+ +9. Ensuite, configurez l'intégration SAML en utilisant les détails fournis par Cloudcraft. Les champs sont mappés comme suit, le premier étant l'étiquette dans Okta et le second étant l'étiquette chez Cloudcraft. + - **Single sign on URL** : URL du service consommateur d'assertions + - **Audience URI** : ID de l'entité prestataire de services + +{{< img src="cloudcraft/account-management/enable-sso-with-okta/saml-settings.png" alt="Capture d'écran de l'interface des paramètres SAML avec des champs pour l'URL de connexion unique et la configuration de l'ID d'entité." responsive="true" style="width:80%;">}} + +10. Dans le menu déroulant **Name ID format**, sélectionnez **EmailAddress**. +11. Passez à l'écran suivant et sélectionnez **I'm an Okta customer adding an internal app** pour répondre à la question « Are you a customer or partner? ». +12. Cliquez sur **Finish**. Maintenant que l'application est configurée dans Okta, vous pouvez y attribuer vos utilisateurs et une fois que vous avez terminé, accédez à l'onglet **Sign On**. + +{{< img src="cloudcraft/account-management/enable-sso-with-okta/sign-on-settings.png" alt="Capture d'écran affichant les paramètres de configuration SAML 2.0 dans une interface d'intégration d'application Okta." responsive="true" style="width:80%;">}} + +13. Sous le bouton **View Setup Instructions**, cliquez sur le lien bleu pour télécharger le fichier requis pour le téléchargement vers Cloudcraft. +14. Revenez à Cloudcraft et téléchargez votre fichier de configuration. + +{{< img src="cloudcraft/account-management/enable-sso-with-okta/upload-metadata.png" alt="Statut de SAML Single Sign-On configuré avec succès avec l'URL du fournisseur d'identité visible dans l'interface des paramètres de sécurité." responsive="true" style="width:80%;">}} + +15. Basculez l'option **SAML Single Sign-On is enabled**. +16. Si vous préférez que vos utilisateurs accèdent à Cloudcraft uniquement via votre fournisseur d'identité, activez l'option **Strict mode**. + +[1]: /fr/cloudcraft/account-management/enable-sso-with-azure-ad/ +[2]: /fr/cloudcraft/account-management/enable-sso-with-generic-idp/ +[3]: /fr/cloudcraft/account-management/enable-sso/ +[4]: https://app.cloudcraft.co/app/support \ No newline at end of file diff --git a/content/fr/cloudcraft/account-management/enable-sso.md b/content/fr/cloudcraft/account-management/enable-sso.md new file mode 100644 index 00000000000..f2c84922d52 --- /dev/null +++ b/content/fr/cloudcraft/account-management/enable-sso.md @@ -0,0 +1,57 @@ +--- +title: Activer le SSO +--- + +L'activation du Single Sign-On (SSO) pour votre compte vous permet de simplifier l'authentification et l'accès de connexion à Cloudcraft. + +Cloudcraft prend en charge le SSO via ces méthodes : + +- **Datadog SSO** : Datadog SSO ne nécessite aucune configuration supplémentaire pour les nouveaux comptes. Sélectionnez **Sign in with Datadog** sur les pages d'inscription ou de connexion de Cloudcraft. [Contactez l'équipe d'assistance de Cloudcraft][1] pour activer cette fonctionnalité pour les comptes + existants. +- **Google Workspace SSO** : Google SSO ne nécessite aucune configuration supplémentaire. Sélectionnez **Sign in with Google** sur les pages d'inscription ou de connexion de Cloudcraft. +- **SAML SSO** : disponible pour les comptes Cloudcraft Pro et Enterprise, SAML SSO fédère avec le fournisseur d'identité existant de votre organisation, permettant à vos utilisateurs de se connecter avec leurs comptes existants et à votre organisation de gérer de manière centralisée qui a accès à l'application. + +Cet article concerne le SAML SSO et comment le configurer dans votre compte. + +## Configuration de SAML/SSO + +
Si vous souhaitez configurer le SSO pour votre compte, contactez l'équipe d'assistance de Cloudcraft pour activer la fonctionnalité. +Une fois la fonctionnalité activée, le propriétaire du compte peut terminer la configuration.
+ +1. Accédez à **User** > **Security & SSO**. +2. Enregistrez Cloudcraft en tant que nouvelle application auprès de votre fournisseur d'identité SAML. Pour des instructions détaillées, consultez les articles suivants : + - [Activer le SSO avec Azure AD][2] + - [Activer le SSO avec Okta][3] + - [Activer le SSO avec un fournisseur d'identité générique][4] +3. Trouvez les détails nécessaires pour créer une nouvelle application avec le fournisseur d'identité dans la même fenêtre. + +{{< img src="cloudcraft/account-management/enable-sso/service-provider-details.png" alt="Paramètres d'intégration du fournisseur de services SAML de Cloudcraft" responsive="true" style="width:100%;">}} + +4. Après avoir créé l'application, revenez à Cloudcraft et téléchargez le fichier de métadonnées du fournisseur d'identité. +5. Sélectionnez l'option **SAML Single Sign-On is enabled**. +6. Activez l'option **Strict mode** si vous devez restreindre l'accès à Cloudcraft uniquement aux utilisateurs SAML SSO. + +## Fonctionnalités supplémentaires + +L'utilisation de SAML SSO avec Cloudcraft offre des avantages supplémentaires qui sont particulièrement utiles lors de la gestion d'un grand nombre d'utilisateurs. + +### Provisionnement d'utilisateurs juste-à-temps + +Avec le **provisionnement d'utilisateurs juste-à-temps**, Cloudcraft crée automatiquement des comptes utilisateur lorsque les utilisateurs se connectent pour la première fois avec une adresse e-mail d'entreprise, sans nécessiter d'invitation. + +L'option permettant de modifier l'équipe par défaut que les utilisateurs rejoignent lorsqu'ils se connectent pour la première fois se trouve en bas de la page **Security & Single Sign-On**. + +### Connexion initiée par le fournisseur d'identité (IdP) + +Permettre la connexion à Cloudcraft directement depuis le tableau de bord de votre fournisseur d'identité. + +### Mode strict + +Avec le **mode strict** activé, tous les utilisateurs doivent se connecter avec SAML SSO. Les connexions existantes par nom d'utilisateur/mot de passe ou Google Sign In sont désactivées. + +Assurez-vous que la connexion SAML SSO fonctionne correctement avant d'activer cette option pour éviter d'être verrouillé hors de votre compte. + +[1]: https://app.cloudcraft.co/app/support +[2]: /fr/cloudcraft/account-management/enable-sso-with-azure-ad/ +[3]: /fr/cloudcraft/account-management/enable-sso-with-okta/ +[4]: /fr/cloudcraft/account-management/enable-sso-with-generic-idp/ \ No newline at end of file diff --git a/content/fr/cloudcraft/account-management/manage-user-profile.md b/content/fr/cloudcraft/account-management/manage-user-profile.md new file mode 100644 index 00000000000..ffe6083167e --- /dev/null +++ b/content/fr/cloudcraft/account-management/manage-user-profile.md @@ -0,0 +1,35 @@ +--- +title: Gérer votre profil utilisateur +--- + +Votre profil utilisateur est l'endroit où vous pouvez mettre à jour vos informations personnelles, telles que votre nom et votre adresse e-mail. Vous pouvez également mettre à jour votre mot de passe ou ajouter un mot de passe à votre compte si vous vous êtes inscrit à Cloudcraft en utilisant le bouton **Sign in with Google**. + +## Mettre à jour votre nom et votre adresse e-mail + +1. Accédez à **User** > **User Settings**. +2. Mettez à jour votre nom et votre adresse électronique, puis cliquez sur **Update Name** ou **Update Email**. + +{{< img src="cloudcraft/account-management/manage-user-profile/update-email-button.png" alt="Capture d'écran de la page des paramètres utilisateur de Cloudcraft avec des options pour mettre à jour le nom et l'adresse e‑mail." responsive="true" style="width:100%;">}} + +- Si vous n'utilisez pas **Sign in with Google**, votre identifiant changera pour refléter votre nouvelle adresse e-mail. +- Si vous utilisez **Sign in with Google**, la seule chose qui changera est l'adresse e-mail indiquée sur vos factures et l'adresse à laquelle les communications sont envoyées. + +
Pour des raisons de confidentialité et de sécurité, votre nom et votre adresse e-mail sont vérifiés dans la base de données de Cloudcraft lorsque vous soumettez une demande d'assistance, vous devez donc vous assurer qu'ils sont corrects et à jour. +
+ +## Ajouter ou modifier votre mot de passe + +1. Accédez à **User** > **User Settings**. +2. Cliquez sur **Change Password**. +3. Saisissez à la fois votre mot de passe actuel et votre nouveau mot de passe. +4. Cliquez sur **Change Password**. + + +Si vous devez mettre à jour votre mot de passe, [choisissez-en un fort][1], vous pouvez le faire en cliquant sur le bouton bleu **Change Password** à droite de la section **Login**. + +Une fenêtre s'ouvrira et demandera votre ancien et nouveau mot de passe. Saisissez les deux et cliquez sur le lien bleu **Change Password** en bas. + +
Si vous vous êtes inscrit à un compte Cloudcraft en utilisant l'option Sign in with Google, le bouton Change Password est remplacé par un bouton Add Password. Après avoir cliqué sur le bouton, une demande de réinitialisation de mot de passe sera envoyée à votre adresse e-mail. +
+ +[1]: https://help.cloudcraft.co/article/59-create-strong-password \ No newline at end of file diff --git a/content/fr/cloudcraft/account-management/roles-and-permissions.md b/content/fr/cloudcraft/account-management/roles-and-permissions.md new file mode 100644 index 00000000000..df9a4dbc708 --- /dev/null +++ b/content/fr/cloudcraft/account-management/roles-and-permissions.md @@ -0,0 +1,93 @@ +--- +title: Rôles et autorisations +--- + +Les membres d'une équipe Cloudcraft peuvent se voir attribuer l'un des trois rôles utilisateur différents : + +- Propriétaire du compte +- Administrateur +- Utilisateur + +## Rôles utilisateur et autorisations par défaut + +**Remarque** : pour accorder un accès en lecture seule aux plans, vous pouvez créer un lien de plan partageable et intégrer le plan dans une page wiki interne. + +### Propriétaire du compte + +Le propriétaire du compte a accès à tout dans votre compte Cloudcraft et est le seul rôle qui peut modifier les paramètres d'abonnement, ou afficher et modifier les informations de facturation. + +Par défaut, la personne qui s'est inscrite à un abonnement Cloudcraft payant est le propriétaire du compte. Pour attribuer le rôle à d'autres membres de votre équipe, [contactez l'assistance][1]. + +**Autorisations :** + +- Créer, modifier et supprimer des blueprints privés et partagés avec l'équipe +- Gérer les paramètres d'abonnement +- Gérer les paramètres SSO (Enterprise) +- Gérer les paramètres d'équipe + - Créer de nouvelles équipes (Enterprise) + - Inviter de nouveaux administrateurs et utilisateurs + - Supprimer des administrateurs et des utilisateurs + - Révoquer les invitations d'équipe à rejoindre votre équipe Cloudcraft +- Gérer les comptes AWS + - Connecter de nouveaux comptes AWS + - Supprimer des comptes AWS + - Gérer les comptes AWS partagés avec l'équipe +- Gérer les clés API + - Créer des clés API + - Supprimer des clés API + - Gérer les clés API partagées avec l'équipe + +### Administrateur + +Les administrateurs sont le deuxième rôle le plus privilégié dans Cloudcraft et ont accès à tout sauf aux informations de facturation et d'abonnement. + +Ce rôle est destiné aux chefs de projet qui ont besoin d'autorisations pour gérer leur équipe ou leurs sous-équipes dans Cloudcraft. + +**Autorisations :** + +- Créer, modifier et supprimer des blueprints privés et partagés avec l'équipe +- Gérer les paramètres d'équipe (pour les équipes auxquelles ils sont affectés) + - Inviter de nouveaux administrateurs et utilisateurs + - Supprimer des administrateurs et des utilisateurs + - Révoquer les invitations d'équipe à rejoindre votre équipe Cloudcraft +- Gérer les comptes AWS + - Connecter de nouveaux comptes AWS + - Supprimer des comptes AWS + - Gérer les comptes AWS partagés avec l'équipe +- Gérer les clés API + - Créer des clés API + - Supprimer des clés API + - Gérer les clés API partagées avec l'équipe + +### Utilisateur + +Les utilisateurs sont le type de rôle le moins privilégié dans Cloudcraft. Les utilisateurs sont membres d'équipes avec lesquelles ils peuvent partager des plans, collaborer sur des comptes AWS et généralement travailler ensemble. + +**Autorisations :** + +- Créer, modifier et supprimer des blueprints privés et partagés avec l'équipe +- Accès en lecture seule à l'équipe dont ils sont membres +- Analyser en direct les comptes AWS qu'un propriétaire de compte ou un administrateur a partagés avec leur équipe +- Accès en lecture seule à l'existence des clés API (incapable de générer ou de voir les clés API actives) + +## Équipes inter-organisationnelles + +Pour les clients Enterprise, Cloudcraft offre également la possibilité de créer des équipes inter-organisationnelles. Les membres d'une équipe inter-organisationnelle sont ajoutés à la liste des membres de chaque équipe non inter-organisationnelle et héritent de leurs rôles inter-organisationnels, à moins qu'ils ne soient déjà membres d'une autre équipe. + +Voici un exemple pour faciliter la compréhension : + +- Exemple d'entreprise + - Équipe inter-org 1 + - Utilisateur 1 + - Équipe 2 + - Utilisateur 2 + - [Utilisateur 1 de l'équipe inter-org 1] + - Équipe 3 + - Utilisateur 3 + - Utilisateur 1 + - [Utilisateur 1 de l'équipe inter-org 1, mais l'appartenance explicite détermine le rôle de l'équipe] + +Dans cet exemple, si « Équipe 1 » est une équipe d'audit avec des membres en lecture seule, « Utilisateur 1 » aura implicitement un accès en lecture seule à « Équipe 2 », tandis que le rôle explicitement attribué à l'utilisateur dans « Équipe 3 » a la priorité. + +[1]: https://app.cloudcraft.co/support +[2]: https://app.cloudcraft.co/app/support \ No newline at end of file diff --git a/content/fr/cloudcraft/account-management/set-up-two-factor-authentication.md b/content/fr/cloudcraft/account-management/set-up-two-factor-authentication.md new file mode 100644 index 00000000000..39c40eb2098 --- /dev/null +++ b/content/fr/cloudcraft/account-management/set-up-two-factor-authentication.md @@ -0,0 +1,35 @@ +--- +title: Configurer l'authentification à deux facteurs +--- + +L'authentification à deux facteurs (2FA) offre un niveau de sécurité supplémentaire pour votre compte. Lorsque vous activez l'authentification à deux facteurs, votre compte Cloudcraft n'est accessible que sur les appareils auxquels vous faites confiance. + +Après avoir configuré la 2FA, vous vous connecterez à votre compte en deux étapes : + +1. Saisissez votre mot de passe. +2. Saisissez le code de votre application d'authentification multi-facteurs virtuelle. + +
Si vous utilisez votre compte Google pour vous connecter à Cloudcraft, la 2FA n'est pas disponible car Google vous la fournit. Assurez-vous de passer par le processus de 2FA du côté de Google avant de vous connecter à votre compte Cloudcraft. +
+ +## Activer la 2FA + +1. Téléchargez une application d'authentification telle que Google Authenticator ou [Authy][1] pour votre téléphone. +2. Connectez-vous à votre compte Cloudcraft. +3. Cliquez sur l'icône **Account** et sélectionnez **User settings**. +4. Cliquez sur **Manage MFA**. Le code-barres 2FA s'affiche. +5. Ouvrez l'application d'authentification sur votre téléphone et scannez le code-barres. +6. Saisissez le code de vérification à six chiffres généré par votre application d'authentification, puis cliquez sur **Verify**. + +La fenêtre suivante affiche une clé de récupération. La clé de récupération est une chaîne de 18 caractères composée de chiffres et de lettres affichée une seule fois qui peut vous aider à accéder à nouveau à votre compte si vous perdez l'accès à l'appareil que vous utilisez pour gérer la 2FA. Elle agit comme un mot de passe à usage unique. Cloudcraft recommande d'imprimer la clé et de la conserver dans un endroit sûr. + +## Désactiver la 2FA + +La désactivation de la 2FA n'est pas recommandée et peut entraîner une moins bonne sécurité globale du compte. Heimdal Security a un excellent article sur [pourquoi vous devriez toujours utiliser l'authentification à deux facteurs][2]. + +1. Connectez-vous à votre compte Cloudcraft. +2. Cliquez sur l'icône **Account** et sélectionnez **User settings**. +3. Cliquez sur **Manage MFA**, puis sélectionnez **Disable MFA**. + +[1]: https://authy.com/ +[2]: https://heimdalsecurity.com/blog/start-using-two-factor-authentication/ \ No newline at end of file diff --git a/content/fr/cloudcraft/account-management/transfer-ownership.md b/content/fr/cloudcraft/account-management/transfer-ownership.md new file mode 100644 index 00000000000..396028dff07 --- /dev/null +++ b/content/fr/cloudcraft/account-management/transfer-ownership.md @@ -0,0 +1,39 @@ +--- +title: Transférer la propriété d'un compte et d'une équipe +--- + +Lorsque vous créez une équipe dans votre compte Cloudcraft, vous obtenez automatiquement les autorisations de rôle de propriétaire. En tant que propriétaire d'une équipe, vous êtes le seul utilisateur qui peut gérer les informations d'abonnement. Cela inclut les informations de paiement, telles que les détails de paiement et le nombre d'utilisateurs que la licence de votre organisation prend en charge. + +Dans certains cas, un compte utilisateur, une équipe ou des ressources de plan peuvent devoir être transférés à un autre utilisateur. Cet article vous guide tout au long du processus de transfert. + +## Si vous avez un accès au compte + +Si vous avez accès à votre compte et à votre équipe Cloudcraft et souhaitez initier un transfert vers un autre utilisateur, contactez l'assistance en utilisant la page **Contact support** dans l'application. Cette méthode répond automatiquement aux exigences de Cloudcraft en matière d'identification de compte et de preuve de propriété, et garantit que Cloudcraft se conforme à toutes les lois applicables. + +**Remarque** : le nouveau propriétaire doit avoir un compte Cloudcraft avant que le transfert puisse être effectué. + +1. Connectez-vous à Cloudcraft en tant que propriétaire du compte. +2. Cliquez sur l'avatar **User** dans le coin supérieur droit de l'application et sélectionnez **Contact support**. +3. Cliquez sur **Ask**. +4. Sélectionnez **Email**, puis cliquez sur **Next**. +5. Remplissez les champs **Subject** et **Message**. +6. Cliquez sur **Submit your support request**. + +Pour un traitement plus rapide, fournissez autant d'informations que possible dans le champ **Message**. + +- Quelle est l'adresse e-mail du nouveau propriétaire ? +- Le nouveau propriétaire a-t-il déjà un compte Cloudcraft ? +- Souhaitez-vous supprimer vos informations de carte de crédit, ou le nouveau propriétaire doit-il les conserver dans le compte ? + +## Si vous n'avez pas accès au compte + +Si vous devez transférer la propriété à un autre utilisateur, mais que vous n'avez pas accès au compte, contactez l'[équipe d'assistance][2]. Vous devez avoir les informations suivantes prêtes avant de contacter l'assistance : + +- E-mail du propriétaire de compte précédent. +- E-mail du nouveau propriétaire de compte. +- Les 4 derniers chiffres de la carte de crédit enregistrée. +- L'adresse de facturation de la carte de crédit du compte. +- La date et le montant du dernier débit. + +[1]: https://app.cloudcraft.co/signup +[2]: https://app.cloudcraft.co/app/support \ No newline at end of file diff --git a/content/fr/cloudcraft/advanced/_index.md b/content/fr/cloudcraft/advanced/_index.md new file mode 100644 index 00000000000..49c838ed815 --- /dev/null +++ b/content/fr/cloudcraft/advanced/_index.md @@ -0,0 +1,12 @@ +--- +title: Réglages avancés +--- + +{{< whatsnext desc="General:" >}} + {{< nextlink href="cloudcraft/advanced/minimal-iam-policy">}}Create a custom IAM policy to use with Cloudcraft (en anglais){{< /nextlink >}} + {{< nextlink href="cloudcraft/advanced/find-id-using-api">}}Find Cloud Account or Team ID using our API (en anglais){{< /nextlink >}} + {{< nextlink href="cloudcraft/advanced/auto-layout-via-api">}}Automate Snapshots of Cloud Accounts via the Cloudcraft API (en anglais){{< /nextlink >}} + {{< nextlink href="cloudcraft/advanced/add-aws-account-via-api">}}Add AWS accounts via the Cloudcraft API (en anglais){{< /nextlink >}} + {{< nextlink href="cloudcraft/advanced/add-azure-account-via-api">}}Add Azure accounts via the Cloudcraft API (en anglais){{< /nextlink >}} + {{< nextlink href="cloudcraft/advanced/fix-unable-to-verify-aws-account-problem">}}Fix "unable to verify AWS account" problem (en anglais){{< /nextlink >}} +{{< /whatsnext >}} \ No newline at end of file diff --git a/content/fr/cloudcraft/advanced/add-azure-account-via-api.md b/content/fr/cloudcraft/advanced/add-azure-account-via-api.md new file mode 100644 index 00000000000..e24cddd9d08 --- /dev/null +++ b/content/fr/cloudcraft/advanced/add-azure-account-via-api.md @@ -0,0 +1,44 @@ +--- +title: Ajouter des comptes Azure via l'API Cloudcraft +--- + +Cloudcraft n'offre actuellement pas de moyen d'ajouter plusieurs comptes Azure à la fois via l'interface Web, mais vous pouvez le faire via [l'API][1]. + +
La possibilité d'ajouter et d'analyser des comptes Azure, ainsi que d'utiliser l'API de développement de Cloudcraft, n'est disponible que pour les abonnés Pro. Consultez la page de tarification de Cloudcraft pour plus d'informations.
+ +## Prérequis + +Avant de commencer, assurez-vous d'avoir les éléments suivants : + +- Un utilisateur Cloudcraft avec le [rôle Owner ou Administrator][2]. +- Un [abonnement Cloudcraft Pro][3] actif. +- Un compte Azure avec les autorisations appropriées. +- Un environnement de type Unix, tel que Linux, macOS ou WSL sur Windows avec cURL installé. +- Une compréhension de base de l'interface de ligne de commande. +- Une compréhension de base de l'utilisation des API. + +Vous devez également disposer de l'**Application ID**, du **Directory ID**, du **Subscription ID** et du **Client secret** pour votre compte Azure. Pour obtenir de l'aide pour localiser ces valeurs, consultez la section [Connecter votre compte Azure avec Cloudcraft][4]. + +## Ajouter un compte Azure + +Pour ajouter votre compte Azure à Cloudcraft, ouvrez la ligne de commande et saisissez la commande cURL suivante : + +{{< code-block lang="shell" >}} +curl \ + --url 'https://api.cloudcraft.co/azure/account' \ + --tlsv1.2 \ + --proto '=https' \ + --silent \ + --header 'Content-Type: application/json' \ + --header "Authorization: Bearer ${API_KEY}" \ + --data-raw '{"name":"AZURE_ACCOUNT_NAME","applicationId": "APPLICATION_ID","directoryId": "DIRECTORY_ID","subscriptionId": "SUBSCRIPTION_ID","clientSecret": "CLIENT_SECRET"}' +{{< /code-block >}} + +Remplacez `_AZURE_ACCOUNT_NAME_` par le nom que vous souhaitez donner au compte dans Cloudcraft et les autres valeurs par les valeurs réelles. Remplacez `_API_KEY_` par votre clé API. + +Après avoir ajouté le compte avec succès, vous pouvez utiliser la même commande pour ajouter des comptes supplémentaires à Cloudcraft. + +[1]: https://developers.cloudcraft.co/ +[2]: /fr/cloudcraft/account-management/roles-and-permissions/ +[3]: https://www.cloudcraft.co/pricing +[4]: /fr/cloudcraft/getting-started/connect-azure-account-with-cloudcraft/ \ No newline at end of file diff --git a/content/fr/cloudcraft/advanced/auto-layout-via-api.md b/content/fr/cloudcraft/advanced/auto-layout-via-api.md new file mode 100644 index 00000000000..d589ae87d55 --- /dev/null +++ b/content/fr/cloudcraft/advanced/auto-layout-via-api.md @@ -0,0 +1,80 @@ +--- +title: Automatiser les instantanés de comptes cloud via l'API Cloudcraft +--- + +## Présentation + +La fonctionnalité **Auto Layout** de Cloudcraft, accessible via l'application Web, est un outil puissant pour générer automatiquement des diagrammes de votre environnement AWS. Cette fonctionnalité peut considérablement rationaliser les processus de documentation et faciliter l'intégration de nouveaux membres de l'équipe. + +Ce guide fournit une approche étape par étape pour utiliser cette fonctionnalité via des utilitaires de ligne de commande courants et l'API de développement Cloudcraft. + +
La possibilité d'ajouter et d'analyser des comptes AWS et Azure, ainsi que d'utiliser l'API de développement de Cloudcraft, n'est disponible que pour les abonnés Pro. Consultez la page de tarification de Cloudcraft pour plus d'informations.
+ +## Prérequis + +- Un [abonnement Cloudcraft Pro][1] actif. +- Une clé API avec des autorisations de lecture-écriture. +- L'ID du compte AWS ou Azure que vous souhaitez analyser. +- Accès à un environnement de type Unix (Linux, macOS ou Windows Subsystem for Linux). +- Familiarité avec les opérations en ligne de commande. +- Connaissance de base de l'utilisation des API. + +## Prendre un instantané du compte + +Commencez par créer un instantané de votre compte AWS ou Azure en utilisant les endpoints [Snapshot AWS account][2] ou [Snapshot Azure account][3]. Ce processus reflète la fonctionnalité du bouton **Scan Now** dans l'interface utilisateur Cloudcraft et produit l'instantané au format JSON. + +Exécutez la commande suivante dans votre terminal : + +{{< code-block lang="shell" >}} +curl \ + --url 'https://api.cloudcraft.co/PROVIDER/account/ACCOUNT_ID/REGION/json' \ + --tlsv1.2 \ + --proto '=https' \ + --silent \ + --header "Authorization: Bearer API_KEY" +{{< /code-block >}} + +Remplacez `PROVIDER` par le fournisseur de cloud, par exemple `azure` ou `aws`, `ACCOUNT_ID` par l'ID de votre compte AWS ou Azure dans Cloudcraft, `REGION` par votre région d'analyse souhaitée et `API_KEY` par votre clé API Cloudcraft. + +Après avoir exécuté la commande, la représentation JSON de l'instantané de votre compte AWS s'affiche. Pour enregistrer cette sortie directement dans un fichier, utilisez la commande suivante : + +{{< code-block lang="shell" >}} +curl \ + --url 'https://api.cloudcraft.co/PROVIDER/account/ACCOUNT_ID/REGION/json' \ + --tlsv1.2 \ + --proto '=https' \ + --silent \ + --header "Authorization: Bearer API_KEY" > '/tmp/account-infra.json' +{{< /code-block >}} + +L'instantané est enregistré avec le nom de fichier `account-infra.json` dans votre répertoire temporaire. + +## Générer un nouveau blueprint + +Ensuite, créez un nouveau plan dans votre compte Cloudcraft en utilisant le endpoint d'API [Create blueprint][4]. Les données d'instantané enregistrées servent de charge utile pour cette requête. + +Exécutez la commande suivante dans votre terminal : + +{{< code-block lang="shell" >}} +curl \ + --request 'POST' \ + --url 'https://api.cloudcraft.co/blueprint' \ + --tlsv1.2 \ + --proto '=https' \ + --silent \ + --header 'Content-Type: application/json' \ + --header "Authorization: Bearer API_KEY" \ + --data '@/tmp/account-infra.json' +{{< /code-block >}} + +N'oubliez pas de remplacer `API_KEY` par votre clé API Cloudcraft réelle. + +Une fois terminé, un nouveau plan reflétant votre infrastructure cloud est créé dans votre compte Cloudcraft, reproduisant l'effet de l'utilisation manuelle des boutons **Scan Now** et **Auto Layout**. + +Si vous avez des questions ou des difficultés avec le processus, [contactez l'équipe d'assistance de Cloudcraft][5]. + +[1]: https://www.cloudcraft.co/pricing +[2]: /fr/cloudcraft/api/aws-accounts/#snapshot-aws-account +[3]: /fr/cloudcraft/api/azure-accounts/#snapshot-an-azure-account +[4]: /fr/cloudcraft/api/blueprints/#create-a-blueprint +[5]: https://app.cloudcraft.co/app/support \ No newline at end of file diff --git a/content/fr/cloudcraft/advanced/find-id-using-api.md b/content/fr/cloudcraft/advanced/find-id-using-api.md new file mode 100644 index 00000000000..89dcab1962e --- /dev/null +++ b/content/fr/cloudcraft/advanced/find-id-using-api.md @@ -0,0 +1,126 @@ +--- +title: Trouver un ID de compte Cloud ou d'équipe à l'aide de notre API +--- + +## Présentation + +Actuellement, l'interface utilisateur Cloudcraft n'expose pas l'ID de vos comptes AWS ou Azure ou de vos équipes. Cependant, vous pouvez toujours trouver ces ID en utilisant notre API et un peu de travail manuel. + +## Prérequis + +Avant de commencer, assurez-vous d'avoir les éléments suivants : + +- Un utilisateur Cloudcraft avec le rôle [Propriétaire ou Administrateur][1]. +- Un [abonnement Cloudcraft Pro][2]. +- Un environnement de type Unix, tel que Linux, macOS ou WSL sur Windows avec cURL et [jq][3] installés. +- Une compréhension de base de l'interface de ligne de commande. +- Une compréhension de base de l'utilisation des API. + +Vous devez également avoir au moins un compte AWS ou Azure ajouté à Cloudcraft. + +## Trouver l'ID du compte cloud + +Trouver l'ID de votre compte AWS ou Azure est facile ; vous pouvez le faire en effectuant un seul appel d'API. + +Pour trouver l'ID de votre compte cloud, exécutez la commande suivante : + +{{< code-block lang="shell" >}} +curl \ + --url 'https://api.cloudcraft.co/PROVIDER/account' \ + --tlsv1.2 \ + --proto '=https' \ + --compressed \ + --silent \ + --header "Authorization: Bearer API_KEY" | jq . +{{< /code-block >}} + +Remplacez `PROVIDER` par `aws` ou `azure` et `API_KEY` par votre clé d'API Cloudcraft. + +La réponse devrait ressembler à ceci pour AWS : + +{{< code-block lang="json" filename="cloudcraft-aws-response.json" >}} +{ + "accounts": [ + { + "id": "8bfc6773-7fa2-49b3-8016-5e0e9a2e2aff", + "name": "Development", + "roleArn": "arn:aws:iam::600111810075:role/cloudcraft", + "externalId": "93cf2e38-742a-4321-bcee-1d8b8fe35b8b", + "readAccess": null, + "writeAccess": null, + "createdAt": "2024-02-21T15:19:26.232Z", + "updatedAt": "2024-02-21T15:19:26.701Z", + "CreatorId": "f179a0f9-ebf6-4a6a-afd8-74d608498a1f", + "source": "aws" + } + ] +} +{{< /code-block >}} + +Et à ceci pour Azure : + +{{< code-block lang="json" filename="cloudcraft-azure-response.json" >}} +{ + "accounts": [ + { + "id": "e18da22b-330d-4091-bb57-c46654df5351", + "name": "Development", + "applicationId": "598c6f24-c2e2-4870-88bd-d42fe6f5c998", + "directoryId": "c6444a86-1cfe-4312-add5-61e2c140648b", + "subscriptionId": "74efa8fe-0997-49b0-963d-ea88bf80fe11", + "readAccess": null, + "writeAccess": null, + "createdAt": "2023-11-20T22:11:43.688Z", + "updatedAt": "2023-11-20T22:11:43.688Z", + "CreatorId": "2d95eeb8-7161-48f8-88e4-8f0d6bb7b47f", + "hint": "9NP", + "source": "azure" + } + ] +} +{{< /code-block >}} + +Le champ `id` contient l'ID de votre compte cloud. + +## Trouver l'ID de l'équipe + +Cloudcraft n'expose pas l'ID de l'équipe dans l'interface utilisateur ou via un simple appel d'API. Cependant, vous pouvez toujours trouver l'ID de l'équipe en utilisant l'interface utilisateur Cloudcraft en combinaison avec l'API. + +Pour trouver l'ID de votre équipe, suivez ces étapes : + +1. Ouvrez l'interface utilisateur Cloudcraft et créez un nouveau blueprint vide. +2. Cliquez sur le bouton **Share & Export** dans le coin supérieur droit. +3. Sous **Share with a team...**, cliquez sur le champ et sélectionnez l'équipe ou les équipes pour lesquelles vous souhaitez obtenir l'ID. + +{{< img src="cloudcraft/advanced/find-id-using-api/share-with-team.mp4" alt="Une courte vidéo montrant un utilisateur Cloudcraft sélectionnant les équipes Datadog et Cloudcraft dans le menu Share & Export." video="true">}} + +4. Copiez l'ID du plan à partir de l'URL. L'ID est la partie de l'URL qui vient après `blueprint/`. + +5. Passez au terminal et exécutez la commande suivante : + +{{< code-block lang="shell" >}} +curl \ + --url 'https://api.cloudcraft.co/blueprint/ID' \ + --tlsv1.2 \ + --proto '=https' \ + --compressed \ + --silent \ + --header "Authorization: Bearer API_KEY" | jq '.readAccess' +{{< /code-block >}} + +Remplacez `ID` par l'ID du plan que vous avez créé et `API_KEY` par votre clé d'API Cloudcraft. + +La réponse devrait ressembler à ceci : + +{{< code-block lang="json" filename="cloudcraft-blueprint-response.json" >}} +[ + "team/9e7e8b46-cfb7-486e-ade5-bd8c1ec1971a", + "team/af6b55f1-f604-4b88-8b4f-c4779cb7a799" +] +{{< /code-block >}} + +L'UUID après `team/` est l'ID de votre équipe. + +[1]: https://help.cloudcraft.co/article/85-roles-and-permissions +[2]: https://www.cloudcraft.co/pricing +[3]: https://jqlang.github.io/jq/ \ No newline at end of file diff --git a/content/fr/cloudcraft/advanced/fix-unable-to-verify-aws-account-problem.md b/content/fr/cloudcraft/advanced/fix-unable-to-verify-aws-account-problem.md new file mode 100644 index 00000000000..b83f2134160 --- /dev/null +++ b/content/fr/cloudcraft/advanced/fix-unable-to-verify-aws-account-problem.md @@ -0,0 +1,20 @@ +--- +title: Résoudre le problème « unable to verify AWS account » +--- + +Si vous obtenez une erreur « unable to verify AWS account » lors de la tentative d'ajout de votre compte AWS à Cloudcraft, cela peut être dû au fait que votre organisation a attaché une politique de contrôle de service au compte. Cela empêche les serveurs de Cloudcraft de valider le rôle IAM créé. + +Pour résoudre cette erreur, vous disposez des options suivantes : + +## Activer l'accès à la région `us-east-1` + +Vous pouvez demander à votre équipe informatique d'activer temporairement l'accès à la région `us-east-1` dans leurs politiques. C'est la région que Cloudcraft utilise pour vérifier le rôle IAM. Après avoir ajouté le compte, vous pouvez ensuite désactiver à nouveau la région, et Cloudcraft sera limité à l'analyse uniquement des composants dans les régions qui ne sont pas bloquées. + +Pour aider à faire valoir une exception dans la politique, vous pouvez offrir aux administrateurs de votre organisation l'option d'attacher une politique IAM minimale au rôle, limitant ce que Cloudcraft peut et ne peut pas lire depuis le compte AWS ajouté à l'application. Pour plus d'informations, consultez la section [Créer une politique IAM minimale à utiliser avec Cloudcraft][1]. + +## Utiliser l'API pour ajouter votre compte + +Comme alternative à l'utilisation de l'interface Web, vous pouvez utiliser l'API de Cloudcraft pour ajouter votre compte et spécifier depuis quelle région le compte doit être vérifié. Pour plus d'informations, consultez la section [Ajouter des comptes AWS via l'API Cloudcraft][2]. + +[1]: /fr/cloudcraft/advanced/minimal-iam-policy/ +[2]: /fr/cloudcraft/advanced/add-aws-account-via-api/ \ No newline at end of file diff --git a/content/fr/cloudcraft/advanced/minimal-iam-policy.md b/content/fr/cloudcraft/advanced/minimal-iam-policy.md new file mode 100644 index 00000000000..255eba72468 --- /dev/null +++ b/content/fr/cloudcraft/advanced/minimal-iam-policy.md @@ -0,0 +1,39 @@ +--- +title: Créer une politique IAM personnalisée à utiliser avec Cloudcraft +--- + +Cloudcraft utilise un rôle IAM en _lecture seule_ pour analyser votre compte AWS et effectuer une rétro-ingénierie des relations de service entre les composants afin de générer automatiquement un diagramme de votre architecture. + +Le moyen le plus simple de tout configurer est de suivre les instructions dans l'application, qui crée le rôle et configure les autorisations pour vous en quelques clics. Le rôle se voit attribuer la politique IAM `ReadOnlyAccess` gérée par AWS par défaut. + +Si vous devez contrôler plus précisément les autorisations, par exemple pour exclure certains services ou API, une politique IAM Cloudcraft personnalisée vous permettra de le faire. + +
Si vous utilisez une politique IAM personnalisée, vous devez la maintenir manuellement à jour au fur et à mesure que de nouveaux services et fonctionnalités sont ajoutés à Cloudcraft. Si vous voyez un avis dans l'application indiquant Accès AWS limité, essayez de mettre à jour votre politique IAM personnalisée avec la dernière version ci-dessous.
+ +## Créer une politique IAM personnalisée + +Commencez par ouvrir la [console des politiques IAM][1] et cliquez sur le bouton **Create Policy**. + +{{< img src="cloudcraft/advanced/minimal-iam-policy/create-policy.png" alt="Console de gestion AWS IAM mettant en évidence le bouton Create policy." responsive="true" style="width:100%;">}} + +Passez à l'onglet JSON et copiez le contenu de l'une des politiques liées ci-dessous : + +Vous pouvez également personnaliser la politique pour répondre à vos exigences uniques. + +- **[Politique IAM personnalisée Cloudcraft][2] :** cette politique est plus stricte que la politique `ReadOnlyAccess` par défaut. La politique inclut uniquement les services individuels et les autorisations en lecture seule que Cloudcraft utilise. La politique devra généralement être mise à jour lorsque Cloudcraft ajoute la prise en charge de services entièrement nouveaux. +- **[Politique IAM minimale Cloudcraft][3] :** il s'agit de la forme de politique la plus stricte. La politique répertorie chaque autorisation individuelle en lecture seule pour une fonctionnalité Cloudcraft complète. Cette politique doit être mise à jour plus fréquemment, à la fois lorsque la prise en charge de nouveaux services est ajoutée et lorsque les services existants sont améliorés. +- Vous pouvez utiliser l'une ou l'autre des politiques ci-dessus comme base pour vos propres personnalisations. Par exemple, des services ou des autorisations individuels peuvent être supprimés. Si un service ne peut pas être accessible par Cloudcraft, le service sera exclu du diagramme résultant. + +Cliquez sur le bouton **Review policy** en bas de l'écran, puis saisissez un nom et une description. Cloudcraft recommande d'utiliser les valeurs suivantes pour que les choses restent organisées et plus faciles à auditer. + +- **Policy Name :** Cloudcraft +- **Policy Description :** Politique personnalisée pour Cloudcraft. + +Ensuite, cliquez sur **Create policy** pour créer la politique. La console AWS vous redirige vers la page des politiques. + +Enfin, attachez la politique nouvellement créée au [rôle IAM Cloudcraft][4]. Si vous n'avez pas encore créé le rôle, suivez les instructions dans l'application. + +[1]: https://console.aws.amazon.com/iamv2/home#/policies +[2]: https://api.cloudcraft.co/aws/account/iamParameters/policy/custom +[3]: https://api.cloudcraft.co/aws/account/iamParameters/policy/minimal +[4]: https://console.aws.amazon.com/iam/home?#/roles/cloudcraft \ No newline at end of file diff --git a/content/fr/cloudcraft/api/aws-accounts/_index.md b/content/fr/cloudcraft/api/aws-accounts/_index.md new file mode 100644 index 00000000000..ee39e4018bf --- /dev/null +++ b/content/fr/cloudcraft/api/aws-accounts/_index.md @@ -0,0 +1,5 @@ +--- +title: Comptes AWS +--- + +{{< openapi-ref-docs url="cloudcraft.json" tag="AWS Accounts">}} \ No newline at end of file diff --git a/content/fr/cloudcraft/api/azure-accounts/_index.md b/content/fr/cloudcraft/api/azure-accounts/_index.md new file mode 100644 index 00000000000..8722d3c5d30 --- /dev/null +++ b/content/fr/cloudcraft/api/azure-accounts/_index.md @@ -0,0 +1,5 @@ +--- +title: Comptes Azure +--- + +{{< openapi-ref-docs url="cloudcraft.json" tag="Azure Accounts">}} \ No newline at end of file diff --git a/content/fr/cloudcraft/api/blueprints/_index.md b/content/fr/cloudcraft/api/blueprints/_index.md new file mode 100644 index 00000000000..c268f476153 --- /dev/null +++ b/content/fr/cloudcraft/api/blueprints/_index.md @@ -0,0 +1,5 @@ +--- +title: Blueprints +--- + +{{< openapi-ref-docs url="cloudcraft.json" tag="Blueprints">}} \ No newline at end of file diff --git a/content/fr/cloudcraft/api/budgets/_index.md b/content/fr/cloudcraft/api/budgets/_index.md new file mode 100644 index 00000000000..c3b25fbd3ec --- /dev/null +++ b/content/fr/cloudcraft/api/budgets/_index.md @@ -0,0 +1,5 @@ +--- +title: Budgets +--- + +{{< openapi-ref-docs url="cloudcraft.json" tag="Budgets">}} \ No newline at end of file diff --git a/content/fr/cloudcraft/api/teams/_index.md b/content/fr/cloudcraft/api/teams/_index.md new file mode 100644 index 00000000000..6620f5da21d --- /dev/null +++ b/content/fr/cloudcraft/api/teams/_index.md @@ -0,0 +1,5 @@ +--- +title: Équipes +--- + +{{< openapi-ref-docs url="cloudcraft.json" tag="Teams">}} \ No newline at end of file diff --git a/content/fr/cloudcraft/api/users/_index.md b/content/fr/cloudcraft/api/users/_index.md new file mode 100644 index 00000000000..fdd1007f6df --- /dev/null +++ b/content/fr/cloudcraft/api/users/_index.md @@ -0,0 +1,5 @@ +--- +title: Utilisateurs +--- + +{{< openapi-ref-docs url="cloudcraft.json" tag="Users">}} \ No newline at end of file diff --git a/content/fr/cloudcraft/components-aws/_index.md b/content/fr/cloudcraft/components-aws/_index.md new file mode 100644 index 00000000000..03117639efa --- /dev/null +++ b/content/fr/cloudcraft/components-aws/_index.md @@ -0,0 +1,76 @@ +--- +title: Composants AWS +--- + +{{< whatsnext desc="Common:" >}} + {{< nextlink href="cloudcraft/components-aws/region">}}Region{{< /nextlink >}} + {{< nextlink href="cloudcraft/components-aws/vpc">}}VPC{{< /nextlink >}} + {{< nextlink href="cloudcraft/components-aws/security-group">}}Security group{{< /nextlink >}} + {{< nextlink href="cloudcraft/components-aws/network-acl">}}Network ACL{{< /nextlink >}} + {{< nextlink href="cloudcraft/components-aws/subnet">}}Subnet{{< /nextlink >}} +{{< /whatsnext >}} + +{{< whatsnext desc="Compute:" >}} + {{< nextlink href="cloudcraft/components-aws/auto-scaling-group">}}Auto scaling{{< /nextlink >}} + {{< nextlink href="cloudcraft/components-aws/ec2">}}EC2{{< /nextlink >}} + {{< nextlink href="cloudcraft/components-aws/lambda">}}Lambda{{< /nextlink >}} + {{< nextlink href="cloudcraft/components-aws/availability-zone">}}Availability Zone{{< /nextlink >}} +{{< /whatsnext >}} + +{{< whatsnext desc="Containers:" >}} + {{< nextlink href="cloudcraft/components-aws/ecs-cluster">}}ECS cluster{{< /nextlink >}} + {{< nextlink href="cloudcraft/components-aws/ecs-service">}}ECS service{{< /nextlink >}} + {{< nextlink href="cloudcraft/components-aws/ecs-task">}}ECS task{{< /nextlink >}} + {{< nextlink href="cloudcraft/components-aws/eks-cluster">}}EKS cluster{{< /nextlink >}} + {{< nextlink href="cloudcraft/components-aws/eks-workload">}}EKS workload{{< /nextlink >}} + {{< nextlink href="cloudcraft/components-aws/eks-pod">}}EKS pod{{< /nextlink >}} + {{< nextlink href="cloudcraft/components-aws/ecr-repository">}}ECR repository{{< /nextlink >}} +{{< /whatsnext >}} + +{{< whatsnext desc="Networking and content delivery:" >}} + {{< nextlink href="cloudcraft/components-aws/cloudfront">}}CloudFront{{< /nextlink >}} + {{< nextlink href="cloudcraft/components-aws/load-balancer">}}Load balancer{{< /nextlink >}} + {{< nextlink href="cloudcraft/components-aws/waf">}}WAF{{< /nextlink >}} + {{< nextlink href="cloudcraft/components-aws/route-53">}}Route 53{{< /nextlink >}} + {{< nextlink href="cloudcraft/components-aws/api-gateway">}}API gateway{{< /nextlink >}} + {{< nextlink href="cloudcraft/components-aws/direct-connect-connection">}}Direct connect connection{{< /nextlink >}} + {{< nextlink href="cloudcraft/components-aws/vpc-endpoint">}}VPC endpoint{{< /nextlink >}} + {{< nextlink href="cloudcraft/components-aws/nat-gateway">}}NAT gateway{{< /nextlink >}} + {{< nextlink href="cloudcraft/components-aws/transit-gateway">}}Transit gateway{{< /nextlink >}} + {{< nextlink href="cloudcraft/components-aws/internet-gateway">}}Internet gateway{{< /nextlink >}} + {{< nextlink href="cloudcraft/components-aws/vpn-gateway">}}VPN gateway{{< /nextlink >}} + {{< nextlink href="cloudcraft/components-aws/customer-gateway">}}Customer gateway{{< /nextlink >}} +{{< /whatsnext >}} + +{{< whatsnext desc="Storage:" >}} + {{< nextlink href="cloudcraft/components-aws/ebs">}}EBS{{< /nextlink >}} + {{< nextlink href="cloudcraft/components-aws/s3">}}S3{{< /nextlink >}} + {{< nextlink href="cloudcraft/components-aws/efs">}}EFS{{< /nextlink >}} + {{< nextlink href="cloudcraft/components-aws/fsx">}}FSx{{< /nextlink >}} + {{< nextlink href="cloudcraft/components-aws/glacier">}}Glacier{{< /nextlink >}} +{{< /whatsnext >}} + +{{< whatsnext desc="Database:" >}} + {{< nextlink href="cloudcraft/components-aws/rds">}}RDS{{< /nextlink >}} + {{< nextlink href="cloudcraft/components-aws/documentdb">}}DocumentDB{{< /nextlink >}} + {{< nextlink href="cloudcraft/components-aws/dynamodb">}}DynamoDB{{< /nextlink >}} + {{< nextlink href="cloudcraft/components-aws/elasticache">}}ElastiCache{{< /nextlink >}} + {{< nextlink href="cloudcraft/components-aws/neptune">}}Neptune{{< /nextlink >}} + {{< nextlink href="cloudcraft/components-aws/timestream">}}Timestream{{< /nextlink >}} + {{< nextlink href="cloudcraft/components-aws/keyspaces">}}Keyspaces{{< /nextlink >}} +{{< /whatsnext >}} + +{{< whatsnext desc="Analytics:" >}} + {{< nextlink href="cloudcraft/components-aws/redshift">}}Redshift{{< /nextlink >}} + {{< nextlink href="cloudcraft/components-aws/elasticsearch">}}Elasticsearch{{< /nextlink >}} + {{< nextlink href="cloudcraft/components-aws/kinesis-stream">}}Kinesis stream{{< /nextlink >}} +{{< /whatsnext >}} + +{{< whatsnext desc="App services:" >}} + {{< nextlink href="cloudcraft/components-aws/ses">}}SES{{< /nextlink >}} + {{< nextlink href="cloudcraft/components-aws/sns">}}SNS (Deprecated){{< /nextlink >}} + {{< nextlink href="cloudcraft/components-aws/sns-subscriptions">}}SNS subscriptions{{< /nextlink >}} + {{< nextlink href="cloudcraft/components-aws/sns-topic">}}SNS topic{{< /nextlink >}} + {{< nextlink href="cloudcraft/components-aws/sqs">}}SQS{{< /nextlink >}} + {{< nextlink href="cloudcraft/components-aws/eventbridge-bus">}}EventBridge Bus{{< /nextlink >}} +{{< /whatsnext >}} \ No newline at end of file diff --git a/content/fr/cloudcraft/components-aws/auto-scaling-group.md b/content/fr/cloudcraft/components-aws/auto-scaling-group.md new file mode 100644 index 00000000000..5aaaf195843 --- /dev/null +++ b/content/fr/cloudcraft/components-aws/auto-scaling-group.md @@ -0,0 +1,59 @@ +--- +title: Composant Auto Scaling Group +--- +## Présentation + +Utilisez le composant Auto Scaling Group pour représenter les groupes Auto Scaling de votre architecture Amazon Web Services. + +{{< img src="cloudcraft/components-aws/auto-scaling-group/component-auto-scaling-group-diagram.png" alt="Capture d'écran d'un diagramme isométrique Cloudcraft montrant le composant AWS 'Auto scaling group'." responsive="true" style="width:60%;">}} + +## Barre d'outils + +Utilisez la barre d'outils pour configurer et personnaliser votre composant. Les options suivantes sont disponibles : + +- **Color** : sélectionnez une couleur prédéfinie ou saisir la valeur hexadécimale de la couleur pour le composant. Le composant peut utiliser la même couleur pour la vue 2D et 3D, ou des couleurs différentes pour chacune. +- **Layout** : sélectionner la disposition pour le groupe Auto Scaling, « even », où les membres sont répartis uniformément dans l'espace disponible, ou « manual », où les membres sont positionnés manuellement. + +## API + +Utilisez l'[API Cloudcraft][1] pour accéder de manière programmatique à vos diagrammes d'architecture et les rendre sous forme d'objets JSON. + +### Schéma + +Voici un exemple d'objet JSON d'un composant Auto Scaling Group : + +```json +{ + "type": "asg", + "id": "0998cf01-d22e-4324-83a9-b06ffbd93188", + "region": "us-east-2", + "mapPos": [-2.75, 9], + "mapSize": [3.25, 1], + "layout": "even", + "nodes": [ + "056b4f94-fe18-43de-9e55-325d31813a80", + "d037dd26-252e-4ba0-95f7-e6656cd00413" + ], + "color": { + "2d": "#f5b720", + "isometric": "#f5b720" + }, + "link": "blueprint://bbb22829-4abb-4fba-8a25-1896545eb9d1", + "locked": true +} +``` + +- **type: asg** : le type de composant. +- **id: string** : un identifiant unique pour le composant au format `uuid`. +- **region: string** : la région AWS dans laquelle le groupe Auto Scaling est déployé. Toutes les régions globales sont prises en charge, à l'exception des régions `cn-`. +- **mapPos: [nombre, nombre]** : la position du composant dans le blueprint, exprimée par une paire de coordonnées x et y. +- **mapSize: [nombre, nombre]** : la taille du groupe Auto Scaling dans le plan. +- **layout: string** : la disposition du groupe Auto Scaling. Les valeurs acceptées sont `even` ou `manual`. +- **nodes: array** : les instances EC2 à l'intérieur du groupe Auto Scaling. Doit être composé d'un tableau d'identifiants uniques émis par Cloudcraft pour les instances EC2. +- **color: object** : la couleur de remplissage du corps du composant. + - **isometric: string** : couleur de remplissage du composant dans la vue 3D. Doit être une couleur hexadécimale. + - **2d: string** : la couleur de remplissage du composant dans la vue en 2D. Doit être une couleur hexadécimale. +- **link: uri** : liez le composant à un autre diagramme en utilisant le format `blueprint://ID` ou à un site externe avec le format `https://LINK`. +- **locked: boolean** : si `true`, les modifications apportées au composant via l'application sont désactivées jusqu'à ce qu'il soit déverrouillé. + +[1]: https://developers.cloudcraft.co/ \ No newline at end of file diff --git a/content/fr/cloudcraft/components-aws/availability-zone.md b/content/fr/cloudcraft/components-aws/availability-zone.md new file mode 100644 index 00000000000..416f11abdf9 --- /dev/null +++ b/content/fr/cloudcraft/components-aws/availability-zone.md @@ -0,0 +1,53 @@ +--- +title: Composant Availability Zone +--- +## Présentation + +Utilisez le composant Availability Zone pour représenter les zones de disponibilité de votre architecture Amazon Web Services. + +{{< img src="cloudcraft/components-aws/availability-zone/component-availability-zone-diagram.png" alt="Capture d'écran d'un diagramme isométrique Cloudcraft montrant le composant AWS 'Availability zone'." responsive="true" style="width:60%;">}} + +## Barre d'outils + +Utilisez la barre d'outils pour configurer et personnaliser votre composant. Les options suivantes sont disponibles : + +- **Color** : sélectionnez une couleur prédéfinie ou saisir la valeur hexadécimale de la couleur pour le composant. Le composant peut utiliser la même couleur pour la vue 2D et 3D, ou des couleurs différentes pour chacune. +- **Raise** : élevez le composant de zone de disponibilité au-dessus des autres zones de disponibilité. +- **Lower** : abaissez le composant de zone de disponibilité en dessous des autres zones de disponibilité. + +## API + +Utilisez l'[API Cloudcraft][1] pour accéder de manière programmatique à vos diagrammes d'architecture et les rendre sous forme d'objets JSON. + +### Schéma + +Voici un exemple d'objet JSON d'un composant Availability Zone : + +```json +{ + "type": "zone", + "id": "a46cfaf2-ce78-4d44-9a41-a55fc7cd4ceb", + "region": "us-east-2", + "mapPos": [-6.75, 10.25], + "mapSize": [2.5, 2.5], + "color": { + "2d": "#000000", + "isometric": "#000000" + }, + "link": "blueprint://34b7a049-e92b-4146-b937-7eee9ae788b5", + "locked": true +} +``` + +- **type: zone** : le type de composant. +- **id: string** : un identifiant unique pour le composant au format `uuid`. +- **region: string** : la région AWS à laquelle appartient la zone de disponibilité. Toutes les régions globales sont prises en charge, à l'exception des régions `cn-`. +- **mapPos: [nombre, nombre]**. La position du composant dans le blueprint, exprimée par une paire de coordonnées x et y. +- **mapSize: [nombre, nombre]** : la taille de la zone de disponibilité dans le plan. +- **color: object**. La couleur de remplissage de la zone de disponibilité. + - **isometric: string**. La couleur de remplissage du composant dans la vue 3D. Doit être une couleur hexadécimale. + - **2d: string**. La couleur de remplissage du composant dans la vue 2D. Doit être une couleur hexadécimale. +- **link: uri**. Liez le composant à un autre diagramme en utilisant le format `blueprint://ID` ou à un site externe avec le format `https://LINK`. +- **locked: boolean**. Si `true`, les modifications apportées au composant via l'application sont désactivées jusqu'à ce qu'il soit déverrouillé. + +[1]: https://developers.cloudcraft.co/ \ No newline at end of file diff --git a/content/fr/cloudcraft/components-aws/cloudfront.md b/content/fr/cloudcraft/components-aws/cloudfront.md new file mode 100644 index 00000000000..bc7f0b26fb1 --- /dev/null +++ b/content/fr/cloudcraft/components-aws/cloudfront.md @@ -0,0 +1,54 @@ +--- +title: Composant CloudFront +--- +## Présentation + +Utilisez le composant CloudFront pour représenter CloudFront de votre architecture Amazon Web Services. + +{{< img src="cloudcraft/components-aws/cloudfront/component-cloudfront-diagram.png" alt="Capture d'écran d'un diagramme isométrique Cloudcraft montrant le composant AWS 'CloudFront'." responsive="true" style="width:60%;">}} + +## Barre d'outils + +Utilisez la barre d’outils pour configurer et personnaliser le composant. Les options suivantes sont disponibles : + +- **Color** : sélectionnez une couleur prédéfinie ou indiquez sa valeur hexadécimale pour le composant et son accent. Vous pouvez appliquer la même couleur aux vues 2D et 3D, ou choisir une couleur différente pour chaque vue. + +## API + +Utilisez l'[API Cloudcraft][1] pour accéder de manière programmatique à vos diagrammes d'architecture et les rendre sous forme d'objets JSON. + +### Schéma + +Voici un exemple d'objet JSON d'un composant CloudFront : + +```json +{ + "type": "cloudfront", + "id": "215b4ef1-dfce-4360-a0d1-e109a2e58f0c", + "mapPos": [1,2], + "color": { + "isometric": "#ececed", + "2d": "#693cc5" + }, + "accentColor": { + "isometric": "#4286c5", + "2d": "#ffffff" + }, + "link": "https://aws.amazon.com/cloudfront/", + "locked": true +} +``` + +- **type: cloudfront** : le type de composant. +- **id: string** : un identifiant unique pour le composant au format `uuid`. +- **mapPos: [nombre, nombre]** : la position du composant dans le blueprint, exprimée par une paire de coordonnées x et y. +- **color: object** : la couleur de remplissage du corps du composant. + - **isometric: string** : couleur de remplissage du composant dans la vue 3D. Doit être une couleur hexadécimale. + - **2d: string** : la couleur de remplissage du composant dans la vue en 2D. Doit être une couleur hexadécimale. +- **accentColor: object** : couleur d'accent utilisée pour afficher le logo du composant sur le bloc. + - **isometric: string** : la couleur d'accent du composant dans la vue en 3D. Doit être une couleur hexadécimale. + - **2d: string** : la couleur d'accent du composant dans la vue 2D. Doit être une couleur hexadécimale. +- **link: uri** : liez le composant à un autre diagramme en utilisant le format `blueprint://ID` ou à un site externe avec le format `https://LINK`. +- **locked: boolean** : si `true`, les modifications apportées au composant via l'application sont désactivées jusqu'à ce qu'il soit déverrouillé. + +[1]: https://developers.cloudcraft.co/ \ No newline at end of file diff --git a/content/fr/cloudcraft/components-aws/customer-gateway.md b/content/fr/cloudcraft/components-aws/customer-gateway.md new file mode 100644 index 00000000000..2ee77331a58 --- /dev/null +++ b/content/fr/cloudcraft/components-aws/customer-gateway.md @@ -0,0 +1,63 @@ +--- +title: Composant Customer Gateway +--- +## Présentation + +Utilisez le composant Customer Gateway pour représenter le périphérique de passerelle client de votre architecture Amazon Web Services. + +{{< img src="cloudcraft/components-aws/customer-gateway/component-customer-gateway-diagram.png" alt="Capture d'écran d'un diagramme isométrique Cloudcraft montrant le composant AWS 'Customer gateway'." responsive="true" style="width:60%;">}} + +## Barre d'outils + +Utilisez la barre d’outils pour configurer et personnaliser le composant. Les options suivantes sont disponibles : + +- **Color** : sélectionnez une couleur prédéfinie ou indiquez sa valeur hexadécimale pour le composant et son accent. Vous pouvez appliquer la même couleur aux vues 2D et 3D, ou choisir une couleur différente pour chaque vue. +- **Rotate** : faites pivoter le composant et modifiez son orientation. +- **Connections** : consultez, ajoutez ou supprimez des connexions VPN à cette passerelle. + +## API + +Utilisez l'[API Cloudcraft][1] pour accéder de manière programmatique à vos diagrammes d'architecture et les rendre sous forme d'objets JSON. + +### Schéma + +Voici un exemple d'objet JSON d'un composant Customer Gateway : + +```json +{ + "type": "customergateway", + "id": "677145c5-aeb4-4560-8459-112bcfc21ce3", + "region": "us-east-1", + "mapPos": [20,10], + "color": { + "isometric": "#000000", + "2d": "#000000" + }, + "accentColor": { + "isometric": "#ffeb3b", + "2d": "#ffeb3b" + }, + "direction": "down", + "link": " blueprint://58c2aeae-d5b7-4a50-83ea-b3fa9d17d3f5", + "locked": true +} +``` + +- **type: customergateway** : le type de composant. +- **id: string** : un identifiant unique pour le composant au format `uuid`. +- **region: chaîne** : la région AWS dans laquelle cette passerelle est déployée. Toutes les régions globales sont prises en charge, à l’exception des régions `cn-`. +- **mapPos: [nombre, nombre]** : la position du composant dans le blueprint, exprimée par une paire de coordonnées x et y. +- **color: object** : la couleur de remplissage du corps du composant. + - **isometric: string** : couleur de remplissage du composant dans la vue 3D. Doit être une couleur hexadécimale. + - **2d: string** : la couleur de remplissage du composant dans la vue en 2D. Doit être une couleur hexadécimale. +- **accentColor: object** : couleur d'accent utilisée pour afficher le logo du composant sur le bloc. + - **isometric: string** : la couleur d'accent du composant dans la vue en 3D. Doit être une couleur hexadécimale. + - **2d: string** : la couleur d'accent du composant dans la vue en 2D. Doit être une couleur hexadécimale. +- **direction: chaîne** : la rotation ou l'orientation du composant. Valeurs acceptées : `down` et `right`. Valeur par défaut : `down`. +- **link: uri** : liez le composant à un autre diagramme en utilisant le format `blueprint://ID` ou à un site externe avec le format `https://LINK`. +- **locked: boolean** : autoriser ou non les modifications de la position du composant via l'interface Web. Si `true`, les modifications apportées au composant à l'aide de l'application sont désactivées jusqu'au déverrouillage. + +Le composant Customer Gateway ne peut être ajouté qu'aux [VPC][2]. + +[1]: https://developers.cloudcraft.co/ +[2]: /fr/cloudcraft/components-aws/vpc \ No newline at end of file diff --git a/content/fr/cloudcraft/components-aws/direct-connect-connection.md b/content/fr/cloudcraft/components-aws/direct-connect-connection.md new file mode 100644 index 00000000000..06137d209c1 --- /dev/null +++ b/content/fr/cloudcraft/components-aws/direct-connect-connection.md @@ -0,0 +1,78 @@ +--- +title: Composant Direct Connect Connection +--- +## Présentation + +Utilisez le composant Direct Connect Connection pour visualiser les connexions entre votre réseau interne et un emplacement AWS Direct Connect. + +{{< img src="cloudcraft/components-aws/direct-connect-connection/component-direct-connect-connection-diagram.png" alt="Capture d'écran d'un diagramme isométrique Cloudcraft montrant des composants AWS interconnectés." responsive="true" style="width:60%;">}} + +## Barre d'outils + +Utilisez la barre d’outils pour configurer et personnaliser le composant. Les options suivantes sont disponibles : + +- **Color** : sélectionner une couleur de remplissage pour le corps du composant et une couleur d'accent pour son symbole. Vous pouvez utiliser les mêmes couleurs dans les vues 2D et 3D ou des couleurs différentes pour chacune. +- **Location** : sélectionner l'emplacement Direct Connect. +- **Number of Ports** : saisir le nombre de ports utilisés par Direct Connect. Disponible uniquement pour les connexions dédiées. +- **Type** : sélectionner le type de connexion. +- **Capacity (bps)** : sélectionner la capacité de connexion en bits par seconde. +- **Transfer from** : sélectionnez la région AWS à partir de laquelle transférer. +- **Data out (GB)** : saisissez le volume total de données sortantes en gigaoctets. + +## API + +Utilisez l'[API Cloudcraft][1] pour accéder de manière programmatique à vos diagrammes d'architecture et les rendre sous forme d'objets JSON. + +### Schéma + +Voici un exemple d'objet JSON d'un composant Direct Connect Connection : + +```json +{ + "type": "dxconnection", + "id": "cff376f0-b1e3-459b-af10-a7133ad10232", + "region": "us-east-1", + "mapPos": [36,21], + "site": "165HS", + "numberPorts": 1, + "connectionType": "Dedicated", + "capacity": "1G", + "transferRegion1": "us-east-1", + "transferDataGb1": 0, + "color": { + "isometric": "#ECECED", + "2d": "#693CC5" + }, + "accentColor": { + "isometric": "#4286C5", + "2d": "#FFFFFF" + }, + "link": "https://aws.amazon.com/directconnect/", + "locked": true +} +``` + +- **type: string** : le type de composant. Doit être une chaîne de valeur `dxconnection` pour ce composant. +- **id: string, uuid** : l'identifiant unique du composant. L’API utilise un UUID v4 en interne mais accepte toute chaîne unique. +- **arn: string** : identifiant global unique (ARN) du composant dans AWS, voir [Amazon Resource Names][2]. +- **region: string** : la région AWS du composant. L'API prend en charge toutes les régions globales, [à l'exception d'AWS China][3]. +- **mapPos: array** : la position du composant dans le blueprint, exprimée par une paire de coordonnées x et y. +- **site: string** : l'emplacement Direct Connect. [Consultez la documentation AWS pour plus d'informations][4]. Valeur par défaut : `165HS`. +- **numberPorts: number** : le nombre de ports utilisés par Direct Connect. Valeur par défaut : `1`. +- **connectionType: string** : le type de connexion Direct Connect. Accepte l'une des valeurs suivantes : `Dedicated` ou `Hosted`. Valeur par défaut : `Dedicated`. +- **capacity: string** : la capacité de connexion en bits par seconde. Accepte l'une des valeurs suivantes : `1G`, `10G` ou `100G`. Valeur par défaut : `1G`. +- **transferRegion1: string** : la région AWS à partir de laquelle transférer. Accepte [toutes les régions AWS prises en charge par Cloudcraft][3]. Valeur par défaut : `us-east-1`. +- **transferDataGb1: number** : le volume total de données sortantes en gigaoctets. Valeur par défaut : `0`. +- **color: object** : la couleur de remplissage du corps du composant. + - **isometric: string** : couleur hexadécimale du corps du composant en vue 3D. Par défaut `#ECECED`. + - **2d: string** : une couleur hexadécimale pour le corps du composant dans la vue 2D. Valeur par défaut : `#693CC5`. +- **accentColor: object** : la couleur d'accentuation du logo du composant. + - **isometric: string** : couleur hexadécimale du logo en vue 3D. Par défaut `#4286C5`. + - **2d: string** : la couleur hexadécimale du logo en vue 2D. La valeur par défaut est `#FFFFFF`. +- **link: string, uri** : une URI permettant de lier le composant à un autre diagramme ou à un site externe. Accepte les formats `blueprint://` ou `https://`. +- **locked: boolean** : Autorise ou non la modification de la position du composant par l'intermédiaire de l'interface web. La valeur par défaut est `false`. + +[1]: https://developers.cloudcraft.co/ +[2]: https://docs.aws.amazon.com/general/latest/gr/aws-arns-and-namespaces.html +[3]: /fr/cloudcraft/faq/scan-error-aws-china-region/ +[4]: https://aws.amazon.com/directconnect/locations/ \ No newline at end of file diff --git a/content/fr/cloudcraft/components-aws/dynamodb.md b/content/fr/cloudcraft/components-aws/dynamodb.md new file mode 100644 index 00000000000..0443e49b442 --- /dev/null +++ b/content/fr/cloudcraft/components-aws/dynamodb.md @@ -0,0 +1,77 @@ +--- +title: Composant DynamoDB +--- +## Section Overview + +Utilisez le composant DynamoDB pour représenter et visualiser les bases de données NoSQL, serverless et gérées dans votre architecture Amazon Web Services. + +{{< img src="cloudcraft/components-aws/dynamodb/component-dynamodb-diagram.png" alt="Capture d'écran d'un diagramme isométrique Cloudcraft montrant le composant AWS 'DynamoDB'." responsive="true" style="width:60%;">}} + +## Barre d'outils + +Utilisez la barre d'outils pour configurer le composant. Les options disponibles incluent : + +- **Color** : sélectionnez une couleur de remplissage pour le corps du composant et une couleur d'accent pour son symbole. Vous pouvez utiliser les mêmes couleurs pour les vues 2D et 3D, ou choisir des couleurs différentes pour chacune. +- **Table class** : sélectionnez la classe de la table DynamoDB. +- **Capacity mode** : sélectionnez le mode de capacité de la table DynamoDB. +- **Dataset (GiB)** : saisissez la taille de l'ensemble de données en GiB. +- **Read units** : saisissez le nombre d'unités de capacité de lecture. +- **Write units** : saisissez le nombre d'unités de capacité d'écriture. +- **Read consistency** : sélectionnez la cohérence de lecture de la table DynamoDB. + +## API + +Utilisez l'[API Cloudcraft][1] pour accéder de manière programmatique à vos diagrammes d'architecture et les rendre sous forme d'objets JSON. + +### Schéma + +Voici un exemple d'objet JSON d'un composant DynamoDB : + +```json +{ + "type": "dynamodb", + "id": "29c1f0fa-3f1c-4566-ad33-ae307feee4f0-0", + "region": "us-east-1", + "mapPos": [39,148], + "tableClass": "standard", + "capacityMode": "on-demand", + "datasetGb": 0, + "readUnits": 0, + "writeUnits": 0, + "readConsistency": "strong", + "color": { + "isometric": "#ececed", + "2d": "#ececed" + }, + "accentColor": { + "isometric": "#4286c5", + "2d": "#4286c5" + }, + "link": "https://aws.amazon.com/dynamodb/", + "locked": true +} +``` + +- **type: string** : le type de composant. Doit être `dynamodb`. +- **id: string, uuid** : l'identifiant unique du composant. Généralement un UUID v4. +- **arn: string** : l'[Amazon Resource Name (ARN)][2] du composant. +- **region: string** : la région AWS associée au composant. Toutes les régions globales sont prises en charge, [sauf la Chine AWS][3]. +- **mapPos: array** : la position du composant dans le plan, définie sous forme de paire de coordonnées `[x, y]`. +- **tableClass: string** : la classe de la table DynamoDB. Accepte `standard` ou `standardInfrequentAccess`. Valeur par défaut : `standard`. +- **capacityMode: string** : le mode de capacité de la table DynamoDB. Accepte `provisioned` ou `on-demand`. Valeur par défaut : `provisioned`. +- **datasetGb: number** : la taille de l'ensemble de données en GiB. Valeur par défaut : `10`. +- **readUnits: number** : le nombre d'unités de capacité de lecture. Valeur par défaut : `5`. +- **writeUnits: number** : le nombre d'unités de capacité d'écriture. Valeur par défaut : `5`. +- **readConsistency: string** : la cohérence de lecture de la table DynamoDB. Accepte `strong` ou `eventual`. Valeur par défaut : `strong`. +- **color: object** : la couleur de remplissage du corps du composant. + - **isometric: string** : couleur hexadécimale du corps du composant en vue 3D. Par défaut `#ECECED`. + - **2d: string** : une couleur hexadécimale pour le corps du composant dans la vue 2D. Valeur par défaut : `#ECECED`. +- **accentColor: object** : la couleur d'accentuation du logo du composant. + - **isometric: string** : couleur hexadécimale du logo en vue 3D. Par défaut `#4286C5`. + - **2d: string** : une couleur hexadécimale pour le logo du composant dans la vue 2D. Valeur par défaut : `#4286C5`. +- **link: string, uri** : un URI qui lie le composant à un autre diagramme ou à un site Web externe. Accepte les formats suivants : `blueprint://` ou `https://`. +- **locked : boolean** : Autorise ou non la modification de la position du composant par l'intermédiaire de l'interface web. La valeur par défaut est `false`. + +[1]: https://developers.cloudcraft.co/ +[2]: https://docs.aws.amazon.com/general/latest/gr/aws-arns-and-namespaces.html +[3]: /fr/cloudcraft/faq/scan-error-aws-china-region/ \ No newline at end of file diff --git a/content/fr/cloudcraft/components-aws/ebs.md b/content/fr/cloudcraft/components-aws/ebs.md new file mode 100644 index 00000000000..f1b4ab61aaf --- /dev/null +++ b/content/fr/cloudcraft/components-aws/ebs.md @@ -0,0 +1,73 @@ +--- +title: Composant EBS +--- +## Présentation + +Utilisez le composant EBS pour représenter les volumes EBS de votre architecture Amazon Web Services. + +{{< img src="cloudcraft/components-aws/ebs/component-ebs-diagram.png" alt="Capture d'écran d'un diagramme isométrique Cloudcraft montrant le composant AWS 'EBS'." responsive="true" style="width:60%;">}} + +## Barre d'outils + +Utilisez la barre d’outils pour configurer et personnaliser le composant. Les options suivantes sont disponibles : + +- **Color** : sélectionnez une couleur prédéfinie ou indiquez sa valeur hexadécimale pour le composant et son accent. Vous pouvez appliquer la même couleur aux vues 2D et 3D, ou choisir une couleur différente pour chaque vue. +- **Volume type** : le type de volume utilisé. +- **Storage** : quantité de stockage pour le volume en gibioctets. +- **IOPS** : limite d'IOPS pour le volume. Disponible uniquement pour les volumes SSD. +- **Throughput** : limite de débit pour le volume. Disponible uniquement pour les volumes `gp3`. +- **I/O requests per second** : limite d'E/S pour le volume. Disponible uniquement pour les volumes HDD magnétiques d'ancienne génération. +- **Snapshot** : quantité de stockage pour les snapshots en gibioctets. + + +## API + +Utilisez l'[API Cloudcraft][1] pour accéder de manière programmatique à vos diagrammes d'architecture et les rendre sous forme d'objets JSON. + +### Schéma + +Voici un exemple d'objet JSON d'un composant de volume EBS : + +```json +{ + "type": "ebs", + "id": "100b1d12-49e7-4dfb-8948-0e0abf0e5d33", + "region": "us-east-1", + "mapPos": [-1,9], + "volume": "gp3", + "storage": "200", + "iops": "4000", + "throughput": "500", + "snapshots": "0", + "color": { + "isometric": "#000000", + "2d": "#000000" + }, + "accentColor": { + "isometric": "#ffeb3b", + "2d": "#ffeb3b" + }, + "link": "blueprint://ae6349e1-fa15-41c8-8e89-d201f9fa3cc9", + "locked": true +} +``` + +- **type: ebs** : le type de composant. +- **id: string** : un identifiant unique pour le composant au format `uuid`. +- **region: string** : la région AWS dans laquelle le volume EBS est déployé. Toutes les régions globales sont prises en charge, à l'exception des régions `cn-`. +- **mapPos: [nombre, nombre]** : la position du composant dans le blueprint, exprimée par une paire de coordonnées x et y. +- **volume: string** : le type du volume. Les valeurs acceptées sont `gp3`, `gp2`, `io2`, `io1`, `st1`, `sc1` ou `magnetic`. +- **storage: number** : quantité de stockage pour le volume en gibioctets. +- **iops: number** : limite d'IOPS pour le volume. Non applicable pour les types de volume `st1` et `sc1`. +- **throughput: number** : limite de débit pour le volume. Applicable uniquement pour le type de volume `gp3`. +- **snapshots: number** : quantité de stockage pour les snapshots en gibioctets. +- **color: object** : la couleur de remplissage du corps du composant. + - **isometric: string** : couleur de remplissage du composant dans la vue 3D. Doit être une couleur hexadécimale. + - **2d: string** : la couleur de remplissage du composant dans la vue 2D. Doit être une couleur hexadécimale. +- **accentColor: object** : la couleur d'accent utilisée pour afficher le logo du composant sur le bloc. + - **isometric: string**. La couleur d'accent du composant dans la vue en 3D. Doit être une couleur hexadécimale. + - **2d: string**. La couleur d'accent du composant dans la vue en 2D. Doit être une couleur hexadécimale. +- **link: uri** : liez le composant à un autre diagramme en utilisant le format `blueprint://ID` ou à un site Web externe en utilisant le format `https://LINK`. +- **locked: boolean** : si `true`, les modifications apportées au composant via l'application sont désactivées jusqu'à ce qu'il soit déverrouillé. + +[1]: https://developers.cloudcraft.co/ \ No newline at end of file diff --git a/content/fr/cloudcraft/components-aws/ecr-repository.md b/content/fr/cloudcraft/components-aws/ecr-repository.md new file mode 100644 index 00000000000..b4cb57ebd0a --- /dev/null +++ b/content/fr/cloudcraft/components-aws/ecr-repository.md @@ -0,0 +1,66 @@ +--- +title: Composant ECR Repository +--- +## Présentation + +Utilisez le composant ECR Repository pour visualiser les référentiels de conteneurs de votre architecture Amazon Web Services. + +{{< img src="cloudcraft/components-aws/ecr-repository/component-ecr-repository-diagram.png" alt="Capture d'écran d'un diagramme isométrique Cloudcraft montrant des composants AWS interconnectés." responsive="true" style="width:60%;">}} + +## Barre d'outils + +Utilisez la barre d’outils pour configurer et personnaliser le composant. Les options suivantes sont disponibles : + +- **Color** : sélectionnez une couleur de remplissage pour le corps du composant et une couleur d'accent pour son symbole. Vous pouvez utiliser les mêmes couleurs pour les vues 2D et 3D ou des couleurs différentes. +- **Data stored (GB)** : saisir la quantité de données que vous stockez dans vos référentiels. +- **Private** : sélectionner si votre référentiel est public ou privé. + +## API + +Utilisez l'[API Cloudcraft][1] pour accéder de manière programmatique à vos diagrammes d'architecture et les rendre sous forme d'objets JSON. + +### Schéma + +Voici un exemple d'objet JSON d'un composant ECR Repository : + +```json +{ + "type": "ecr", + "id": "15e88546-33f3-40d5-b88c-e7cdae335da8", + "arn": "arn:aws:ecr:us-east-1:728720640411:repository/cloudcraft", + "region": "us-east-1", + "mapPos": [7.5,6], + "storageGB": 1, + "private": true, + "color": { + "isometric": "#ff9800", + "2d": "#ff9800" + }, + "accentColor": { + "isometric": "#ffffff", + "2d": "#ffffff" + }, + "link": "https://aws.amazon.com/ecr/", + "locked": true +} +``` + +- **type: string** : le type de composant. Doit être une chaîne de valeur `ecr` pour ce composant. +- **id: string, uuid** : l'identifiant unique du composant. L’API utilise un UUID v4 en interne mais accepte toute chaîne unique. +- **arn: string** : l'identifiant globalement unique du composant au sein d'AWS, aussi appelé [Amazon Resource Names][2]. +- **region: string** : la région AWS du composant. L'API prend en charge toutes les régions globales, [à l'exception d'AWS China][3]. +- **mapPos: array** : la position du composant dans le blueprint, exprimée par une paire de coordonnées x et y. +- **storageGB: number** : la quantité de données stockées dans les référentiels à l'intérieur du registre, en gigaoctets. Valeur par défaut : `1`. +- **private: boolean** : si le référentiel est privé. Valeur par défaut : `true`. +- **color: object** : la couleur de remplissage du corps du composant. + - **isometric: string** : une couleur hexadécimale pour le corps du composant dans la vue 3D. Valeur par défaut : `#3F7DDE`. + - **2d: string** : une couleur hexadécimale pour le corps du composant dans la vue 2D. Valeur par défaut : `#D86613`. +- **accentColor: object** : la couleur d'accentuation du logo du composant. + - **isometric: string** : une couleur hexadécimale pour le logo du composant dans la vue 3D. Valeur par défaut : `#052048`. + - **2d: string** : la couleur hexadécimale du logo en vue 2D. La valeur par défaut est `#FFFFFF`. +- **link: string, uri** : une URI permettant de lier le composant à un autre diagramme ou à un site externe. Accepte les formats `blueprint://` ou `https://`. +- **locked: boolean** : autorise ou non la modification de la position du composant par l'intermédiaire de l'interface web. La valeur par défaut est `false`. + +[1]: https://developers.cloudcraft.co/ +[2]: https://docs.aws.amazon.com/general/latest/gr/aws-arns-and-namespaces.html +[3]: /fr/cloudcraft/faq/scan-error-aws-china-region/ \ No newline at end of file diff --git a/content/fr/cloudcraft/components-aws/ecs-cluster.md b/content/fr/cloudcraft/components-aws/ecs-cluster.md new file mode 100644 index 00000000000..39ab061ce9a --- /dev/null +++ b/content/fr/cloudcraft/components-aws/ecs-cluster.md @@ -0,0 +1,80 @@ +--- +title: Composant ECS Cluster +--- +## Présentation + +Utilisez le composant ECS Cluster pour visualiser les clusters Amazon ECS de votre architecture Amazon Web Services. + +{{< img src="cloudcraft/components-aws/ecs-cluster/component-ecs-cluster-diagram.png" alt="Capture d'écran d'un diagramme isométrique Cloudcraft montrant des composants AWS interconnectés." responsive="true" style="width:60%;">}} + +## Barre d'outils + +Utilisez la barre d’outils pour configurer et personnaliser le composant. Les options suivantes sont disponibles : + +- **Color** : sélectionnez une couleur de remplissage pour le haut du composant et une couleur d'accent pour le bas. Vous pouvez utiliser les mêmes couleurs pour les vues 2D et 3D ou des couleurs différentes pour chacune. +- **Name** : saisissez un nom pour le cluster. Vous pouvez utiliser jusqu'à 255 lettres, chiffres, traits d'union et traits de soulignement. + +Vous pouvez également ajouter le composant ECS Cluster aux [VPC][1] et [sous-réseaux][2]. + +## API + +Utilisez l'[API Cloudcraft][1] pour accéder de manière programmatique à vos diagrammes d'architecture et les rendre sous forme d'objets JSON. + +### Schéma + +Voici un exemple d'objet JSON d'un composant ECS Cluster : + +```json +{ + "type": "ecscluster", + "id": "c28296e2-01b1-463c-be6d-fe748a3dba05", + "arn": "arn:aws:ecs:us-east-1:746399320916:cluster/ecs-cluster", + "region": "us-east-1", + "mapPos": [3,-1.75], + "name": "ECS Cluster", + "nodes": [ + "35578835-bb50-43f6-b9bc-d9a7ff20f667", + "adad4f6e-b1dc-4e90-a860-e6c34d1d707a", + "6321a7c4-db1f-4b47-a2dd-2d4c1a3deaff", + "bafdae24-a6af-47ad-896d-846d790c8b23", + "117a0f24-a115-4f12-8627-e8c8b9665d86", + "c4af84a8-a02d-400e-9277-ad1ed886390f", + "93a34859-a6ef-451d-96c2-4cfccab86d70", + "b0e607e8-8b01-492b-b4a0-f4eea35d19f1", + "085ca535-3b23-420c-a19c-27ae3d11a2ab", + "eb7cc62b-db25-4ce4-97dd-130bb288512a" + ], + "color": { + "isometric": "#ffeb3b", + "2d": "#ffeb3b" + }, + "accentColor": { + "isometric": "#000000", + "2d": "#000000" + }, + "link": "https://aws.amazon.com/ecs/", + "locked": true +} +``` + +- **type: string** : le type de composant. Doit être une chaîne de valeur `ecscluster` pour ce composant. +- **id: string, uuid** : l'identifiant unique du composant. L’API utilise un UUID v4 en interne mais accepte toute chaîne unique. +- **arn: string** : l'identifiant globalement unique du composant au sein d'AWS, aussi appelé [Amazon Resource Names][4]. +- **region: string** : la région AWS du composant. L'API prend en charge toutes les régions globales, [à l'exception d'AWS China][5]. +- **mapPos: array** : la position du composant dans le blueprint, exprimée par une paire de coordonnées x et y. +- **name: string** : le nom du cluster. Accepte jusqu'à 255 lettres, chiffres, traits d'union et traits de soulignement. +- **nodes: array** : les services et tâches s'exécutant dans le cluster. Accepte un tableau d'identifiants uniques pour les composants de services et de tâches. +- **color: object** : la couleur de remplissage pour le haut du corps du composant. + - **isometric: string** : une couleur hexadécimale pour le corps du composant dans la vue 3D. Valeur par défaut : `#ececed`. + - **2d: string** : une couleur hexadécimale pour le corps du composant dans la vue 2D. Valeur par défaut : `#ececed`. +- **accentColor: object** : la couleur d'accent pour le bas du corps du composant. + - **isometric: string** : couleur hexadécimale du logo en vue 3D. Par défaut `#4286c5`. + - **2d: string** : une couleur hexadécimale pour le logo du composant dans la vue 2D. Valeur par défaut : `#693cc5`. +- **link: string, uri** : une URI permettant de lier le composant à un autre diagramme ou à un site externe. Accepte les formats `blueprint://` ou `https://`. +- **locked: boolean** : autorise ou non la modification de la position du composant par l'intermédiaire de l'interface web. La valeur par défaut est `false`. + +[1]: /fr/cloudcraft/components-aws/vpc/ +[2]: /fr/cloudcraft/components-aws/subnet/ +[3]: https://developers.cloudcraft.co/ +[4]: https://docs.aws.amazon.com/general/latest/gr/aws-arns-and-namespaces.html +[5]: /fr/cloudcraft/faq/scan-error-aws-china-region/ \ No newline at end of file diff --git a/content/fr/cloudcraft/components-aws/ecs-service.md b/content/fr/cloudcraft/components-aws/ecs-service.md new file mode 100644 index 00000000000..c9b4f2553b3 --- /dev/null +++ b/content/fr/cloudcraft/components-aws/ecs-service.md @@ -0,0 +1,73 @@ +--- +title: Composant ECS Service +--- +## Présentation + +Utilisez le composant ECS Service pour visualiser les services Amazon ECS de votre architecture Amazon Web Services. + +{{< img src="cloudcraft/components-aws/ecs-service/component-ecs-service-diagram.png" alt="Capture d'écran d'un diagramme isométrique Cloudcraft montrant des composants AWS interconnectés." responsive="true" style="width:60%;">}} + +## Barre d'outils + +Utilisez la barre d’outils pour configurer et personnaliser le composant. Les options suivantes sont disponibles : + +- **Color** : sélectionner une couleur de remplissage pour le haut du composant et une couleur d'accent pour le bas. Vous pouvez utiliser les mêmes couleurs dans les vues 2D et 3D ou des couleurs différentes pour chacune. +- **Name** : saisir un nom pour le service. + +Vous pouvez également ajouter le composant **ECS Service** aux [VPC][1], [groupes de sécurité][2] et [sous-réseaux][3]. + +## API + +Utilisez l'[API Cloudcraft][1] pour accéder de manière programmatique à vos diagrammes d'architecture et les rendre sous forme d'objets JSON. + +### Schéma + +Voici un exemple d'objet JSON d'un composant ECS Service : + +```json +{ + "type": "ecsservice", + "id": "58c88e1f-b9c7-47a0-aed1-ee8324bf0fd0", + "arn": "arn:aws:ecs:us-east-1:746399320916:service/ecs-service", + "region": "us-east-1", + "mapPos": [6,1], + "name": "ECS Service", + "nodes": [ + "1005e737-2ccc-4325-abdf-b0f6c5c78ea1", + "319c40a5-d5f2-4394-8784-f613aa1d313b" + ], + "color": { + "isometric": "#000000", + "2d": "#000000" + }, + "accentColor": { + "isometric": "#03a9f4", + "2d": "#03a9f4" + }, + "link": "https://aws.amazon.com/ecs/", + "locked": true +} +``` + +- **type: string** : le type de composant. Doit être une chaîne de valeur `ecsservice` pour ce composant. +- **id: string, uuid** : l'identifiant unique du composant. L’API utilise un UUID v4 en interne mais accepte toute chaîne unique. +- **arn: string** : l'identifiant globalement unique du composant au sein d'AWS, aussi appelé [Amazon Resource Names][5]. +- **region: string** : la région AWS du composant. L'API prend en charge toutes les régions globales, [à l'exception d'AWS China][6]. +- **mapPos: array** : la position du composant dans le blueprint, exprimée par une paire de coordonnées x et y. +- **name: string** : le nom du service. Valeur par défaut : `ECS Service`. +- **nodes: array** : les tâches s'exécutant dans le service. Accepte un tableau d'identifiants uniques pour les tâches de type de lancement EC2 ou Fargate. +- **color: object** : la couleur de remplissage pour le haut du corps du composant. + - **isometric: string** : une couleur hexadécimale pour le corps du composant dans la vue 3D. Valeur par défaut : `#ffffff`. + - **2d: string** : une couleur hexadécimale pour le corps du composant dans la vue 2D. Valeur par défaut : `#ffffff`. +- **accentColor: object** : la couleur d'accent pour le bas du corps du composant. + - **isometric: string** : couleur hexadécimale du logo en vue 3D. Par défaut `#4286c5`. + - **2d: string** : une couleur hexadécimale pour le logo du composant dans la vue 2D. Valeur par défaut : `#693cc5`. +- **link: string, uri** : une URI permettant de lier le composant à un autre diagramme ou à un site externe. Accepte les formats `blueprint://` ou `https://`. +- **locked: boolean** : autorise ou non la modification de la position du composant par l'intermédiaire de l'interface web. La valeur par défaut est `false`. + +[1]: /fr/cloudcraft/components-aws/vpc/ +[2]: /fr/cloudcraft/components-aws/security-group/ +[3]: /fr/cloudcraft/components-aws/subnet/ +[4]: https://developers.cloudcraft.co/ +[5]: https://docs.aws.amazon.com/general/latest/gr/aws-arns-and-namespaces.html +[6]: /fr/cloudcraft/faq/scan-error-aws-china-region/ \ No newline at end of file diff --git a/content/fr/cloudcraft/components-aws/eks-cluster.md b/content/fr/cloudcraft/components-aws/eks-cluster.md new file mode 100644 index 00000000000..61ce52ec8c8 --- /dev/null +++ b/content/fr/cloudcraft/components-aws/eks-cluster.md @@ -0,0 +1,76 @@ +--- +title: Composant EKS Cluster +--- +## Présentation + +
L'analyse des composants Amazon EKS nécessite d'autoriser le rôle IAM de Cloudcraft pour un accès en lecture seule.
+ +Utilisez le composant EKS Cluster pour visualiser les clusters Amazon EKS de votre architecture Amazon Web Services. + +{{< img src="cloudcraft/components-aws/eks-cluster/component-eks-cluster-diagram.png" alt="Capture d'écran d'un diagramme isométrique Cloudcraft montrant des composants AWS interconnectés." responsive="true" style="width:60%;">}} + +## Barre d'outils + +Utilisez la barre d’outils pour configurer et personnaliser le composant. Les options suivantes sont disponibles : + +- **Color** : sélectionnez une couleur de remplissage pour le haut du composant et une couleur d'accent pour le bas et le logo. Vous pouvez utiliser les mêmes couleurs pour les vues 2D et 3D ou des couleurs différentes pour chacune. +- **Name** : saisissez un nom pour le cluster. + +Vous pouvez également ajouter le composant **EKS Cluster** aux [VPC][1], [groupes de sécurité][2] et [sous-réseaux][2]. + +## API + +Utilisez l'[API Cloudcraft][1] pour accéder de manière programmatique à vos diagrammes d'architecture et les rendre sous forme d'objets JSON. + +### Schéma + +Voici un exemple d'objet JSON d'un composant EKS Cluster : + +```json +{ + "type": "ekscluster", + "id": "0b9f9ea3-2ba7-46fd-bd40-cd694dc38af6", + "arn": "arn:aws:eks:us-east-1:987867537671:cluster/eks-cluster", + "region": "us-east-1", + "mapPos": [2.5,-1.75], + "name": "EKS Cluster", + "nodes": [ + "c00c8af0-d409-4a1c-9db4-e2f96128ad56", + "3d911e8b-2d8e-4cb7-8eb8-61b2e96c75b3" + ], + "color": { + "isometric": "#000000", + "2d": "#000000" + }, + "accentColor": { + "isometric": "#ff5722", + "2d": "#ff5722" + }, + "link": "https://aws.amazon.com/eks/", + "locked": true +} +``` + +- **type: string** : le type de composant. Doit être une chaîne de valeur `ekscluster` pour ce composant. +- **id: string, uuid** : l'identifiant unique du composant. L’API utilise un UUID v4 en interne mais accepte toute chaîne unique. +- **arn: string** : l'identifiant globalement unique du composant au sein d'AWS, aussi appelé [Amazon Resource Names][5]. +- **region: chaîne** : la région AWS associée au composant. Toutes les régions globales sont prises en charge, [sauf la Chine AWS][6]. +- **mapPos: array** : la position du composant dans le blueprint, exprimée par une paire de coordonnées x et y. +- **name: string** : le nom du cluster. Valeur par défaut : `EKS Cluster`. +- **nodes: array** : les charges de travail exécutées dans le cluster. Accepte un tableau d'identifiants uniques pour [le composant EKS Workload][7]. +- **color: object** : la couleur de remplissage pour le haut du corps du composant. + - **isometric: string** : couleur hexadécimale du corps du composant en vue 3D. Par défaut `#ECECED`. + - **2d: string** : une couleur hexadécimale pour le corps du composant dans la vue 2D. Valeur par défaut : `#ECECED`. +- **accentColor: object** : la couleur d'accent pour le bas du corps du composant et son logo. + - **isometric: string** : couleur hexadécimale pour le bas du corps du composant et son logo en vue 3D. Par défaut `#4286C5`. + - **2d: string** : une couleur hexadécimale pour le logo du composant dans la vue 2D. Valeur par défaut : `#693CC5`. +- **link: string, uri** : une URI permettant de lier le composant à un autre diagramme ou à un site externe. Accepte les formats `blueprint://` ou `https://`. +- **locked: boolean** : autorise ou non la modification de la position du composant par l'intermédiaire de l'interface web. La valeur par défaut est `false`. + +[1]: /fr/cloudcraft/components-aws/vpc/ +[2]: /fr/cloudcraft/components-aws/security-group/ +[3]: /fr/cloudcraft/components-aws/subnet/ +[4]: https://developers.cloudcraft.co/ +[5]: https://docs.aws.amazon.com/general/latest/gr/aws-arns-and-namespaces.html +[6]: /fr/cloudcraft/faq/scan-error-aws-china-region/ +[7]: /fr/cloudcraft/components-aws/eks-workload/ \ No newline at end of file diff --git a/content/ko/cloudcraft/components-azure/azure-table.md b/content/ko/cloudcraft/components-azure/azure-table.md index 802592ec8fb..793929d1a8f 100644 --- a/content/ko/cloudcraft/components-azure/azure-table.md +++ b/content/ko/cloudcraft/components-azure/azure-table.md @@ -4,7 +4,7 @@ title: Azure Table 구성 요소 ## 개요 -Azure Table 구성 요소를 사용해 Azure 환경에서 NoSQL 키값 스토어를 표현할 수 있습니다. +Azure Table 구성 요소를 사용해 Azure 환경에서 NoSQL 키-값 스토어를 표현 및 시각화할 수 있습니다. {{< img src="cloudcraft/components-azure/azure-table/component-azure-table-diagram.png" alt="상호 연결된 Azure 구성 요소를 보여주는 등축도법 Cloudcraft 다이어그램 스크린샷" responsive="true" style="width:60%;">}} @@ -46,7 +46,7 @@ Azure Table 구성 요소를 사용해 Azure 환경에서 NoSQL 키값 스토어 ``` - **type: string**: 구성 요소 유형. 이 구성 요소의 `azuretable` 값 문자열이어야 합니다. -- **id: string, uuid**: 구성 요소의 고유 식별자입니다. API에서는 내부적으로 UUID v4를 사용하나 다른 고유 식별자도 사용할 수 있습니다/ +- **id: string, uuid**: 구성 요소의 고유 식별자입니다. API에서는 내부적으로 UUID v4를 사용하나 다른 고유 식별자도 사용할 수 있습니다. - **resourceId: string**: Azure 구성 요소 내 전역 고유 식별자 - **region: string**: 구성 요소의 Azure 리전. API가 중국을 제외한 전역 리전을 지원합니다. - **mapPos: array**: 청사진에 있는 구성 요소 포지션. API에서는 포지션을 표현하기 위해 고유 X와 Y 좌표 쌍을 사용합니다. diff --git a/content/ko/code_analysis/software_composition_analysis/github_actions.md b/content/ko/code_analysis/software_composition_analysis/github_actions.md new file mode 100644 index 00000000000..ca71e86ac97 --- /dev/null +++ b/content/ko/code_analysis/software_composition_analysis/github_actions.md @@ -0,0 +1,73 @@ +--- +dependencies: +- https://github.com/DataDog/datadog-sca-github-action/blob/main/README.md +description: Datadog과 GitHub를 사용해 CI 파이프라인에서 Software Composition Analysis 작업을 실행하세요. +title: Software Composition Analysis 및 GitHub Actions +--- +GitHub Action 워크플로에서 Datadog [Software Composition Analysis][1] 작업을 실행합니다. +코드베이스에서 [Datadog osv-scanner][3]를 실행한 후 결과를 Datadog에 업로드합니다. + +## 라이브러리 인벤토리 생성 + +GitHub Action은 리포지토리에 선언된 라이브러리를 기반으로 라이브러리 인벤토리를 자동으로 생성합니다. + +GitHub Action은 다음 언어와 파일에서 동작합니다. + + - JavaScript/TypeScript: `package-lock.json` 및 `yarn.lock` + - Python: `requirements.txt` (버전이 정의된 경우) 및 `poetry.lock` + - Java: `pom.xml` + - C# + - 루비(Ruby) + - 및 기타 언어([설명서]에 명시됨)(https://docs.datadoghq.com/code_analysis/software_composition_analysis/)) + +## 설정 + +### 키 설정 + +[GitHub Actions Settings][2]에서 `DD_APP_KEY` 및 `DD_API_KEY`를 시크릿으로 추가합니다. Datadog 애플리케이션 키에 `code_analysis_read` 권한이 있는지 확인하세요. 자세한 내용은 [API 및 애플리케이션 키][7]를 참조하세요. + +### 워크플로 + +`.github/workflows/datadog-sca.yml`에 다음 코드 스니펫을 추가합니다. +반드시 `dd_site` 속성을 사용 중인 [Datadog 사이트][4]로 변경해야 합니다. + +```yaml +on: [push] + +name: Datadog Software Composition Analysis + +jobs: + software-composition-analysis: + runs-on: ubuntu-latest + name: Datadog SBOM Generation and Upload + steps: + - name: Checkout + uses: actions/checkout@v3 + - name: Check imported libraries are secure and compliant + id: datadog-software-composition-analysis + uses: DataDog/datadog-sca-github-action@main + with: + dd_api_key: ${{ secrets.DD_API_KEY }} + dd_app_key: ${{ secrets.DD_APP_KEY }} + dd_site: "datadoghq.com" +``` + +## 관련 Datadog 툴 + +[Datadog Static Analysis][5]는 코드를 분석하고 IDE, GitHub PR 또는 Datadog 환경 내에서 피드백을 제공합니다. +Datadog Static Analysis는 [`datadog-static-analyzer-github-action`][6] +GitHub Action을 사용하여 설정할 수 있습니다. + +## 참고 자료 + +기타 유용한 문서, 링크 및 기사: + +- [Software Composition Analysis에 대해 알아보기][1] + +[1]: https://docs.datadoghq.com/ko/code_analysis/software_composition_analysis +[2]: https://docs.github.com/en/actions/security-guides/using-secrets-in-github-actions#creating-secrets-for-a-repository +[3]: https://github.com/DataDog/osv-scanner +[4]: https://docs.datadoghq.com/ko/getting_started/site/ +[5]: https://docs.datadoghq.com/ko/code_analysis/static_analysis +[6]: https://github.com/DataDog/datadog-static-analyzer-github-action +[7]: https://docs.datadoghq.com/ko/account_management/api-app-keys/ \ No newline at end of file diff --git a/content/ko/code_analysis/static_analysis_rules/_index.md b/content/ko/code_analysis/static_analysis_rules/_index.md new file mode 100644 index 00000000000..b3f04c29fd8 --- /dev/null +++ b/content/ko/code_analysis/static_analysis_rules/_index.md @@ -0,0 +1,267 @@ +--- +title: Static Analysis 규칙 +description: Static Analysis에 대한 여러 언어의 규칙을 확인하세요. +aliases: +- /continuous_integration/static_analysis/rules +- /static_analysis/rules +is_beta: false +type: static-analysis +rulesets: + csharp-best-practices: + title: "C# 모범 사례" + description: | + C# 모범 사례 준수를 위한 규칙. + csharp-code-style: + title: "C# 코드 스타일 패턴 준수" + description: | + C# 코드 스타일 준수를 위한 규칙. + csharp-inclusive: + title: "C#에서 포괄적 언어 사용" + description: | + C# 코드를 더 포괄적으로 만드는 규칙. + csharp-security: + title: "안전하고 보안이 강화된 C# 코드 작성" + description: | + C# 코드 보안 문제 식별 규칙. + docker-best-practices: + title: Docker를 사용하여 모범 사례 준수 + description: | + Docker 사용 모범 사례 + github-actions: + title: GitHub Actions 보안 강화 + description: | + GitHub Actions에서 권한 설정, 버전 고정 등 위험 패턴을 확인하는 규칙. + go-best-practices: + title: Go 모범 사례 + description: | + Go 코드를 더 빠르고 쉽게 작성할 수 있게 해주는 규칙. 코드 스타일 관리부터 버그 예방까지, 성능과 유지보수성을 갖춘 효율적인 Go 코드 작성에 도움을 줍니다. + go-inclusive: + title: Go에서 포괄적 언어 사용 + description: | + Go 코드 문구 오류 점검. + go-security: + title: Go 코드의 안전성과 보안성 확인 + description: | + Go 코드베이스에서 일반적인 보안 문제(SQL 주입, XSS, 셸 주입 등) 감지. + java-best-practices: + title: Java 모범 사례 준수 + description: | + Java 모범 사례 준수를 위한 규칙. + java-code-style: + title: Java 코드 스타일 패턴 준수 + description: | + Java 코드 스타일 준수 규칙. + java-inclusive: + title: Java에서 포괄적 언어 사용 + description: | + 코드와 주석에서 부적절한 표현을 피하기 위한 Java 규칙. + java-security: + title: Java 코드 안전성 확인 + description: | + Java 코드 보안 문제 식별 규칙. + javascript-best-practices: + title: JavaScript 코드 작성 시 모범 사례 준수 + description: | + JavaScript 모범 사례 준수 규칙. + javascript-browser-security: + title: JavaScript 웹 애플리케이션용 보안 규칙 + description: | + JavaScript 웹 애플리케이션 보안 문제 식별 규칙. + javascript-code-style: + title: JavaScript 코드 스타일 준수 + description: | + JavaScript 코드 스타일 준수 규칙. + javascript-common-security: + title: JavaScript용 일반 보안 규칙 + description: | + JavaScript 코드 보안 문제 식별 규칙. + javascript-express: + title: Express.js 모범 사례 및 보안 확인 + description: | + Express.js 모범 사례 및 보안 관련 규칙. + javascript-inclusive: + title: JavaScript 코드에서 표현 문제 확인 + description: | + JavaScript의 코드와 주석에서 부적절한 표현을 피하기 위한 규칙. + javascript-node-security: + title: Node에서 잠재적인 보안 핫스팟 식별 + description: | + Node에서 잠재적인 보안 취약 지점을 식별하는 규칙. 여기에는 추가 분류가 필요한 오탐지가 포함될 수 있습니다. + jsx-react: + title: React 전용 린팅 규칙 + description: | + 이 플러그인은 React 모범 사례를 준수하는 `recommended` 구성을 내보냅니다. + kotlin-best-practices: + title: Kotlin 코드 작성 시 모범 사례 준수 + description: | + Kotlin 모범 사례 준수 규칙. + kotlin-code-style: + title: Kotlin 코드 스타일 준수 + description: | + Kotlin 코드 스타일 준수 규칙. + php-best-practices: + title: PHP 코드 작성 시 모범 사례 준수 + description: | + PHP 모범 사례 적용 규칙. 코드 스타일 개선, 버그 방지, 성능과 유지보수성을 갖춘 효율적인 PHP 코드 작성을 지원합니다. + php-code-style: + title: PHP 코드 스타일 적용 + description: | + PHP 코드 스타일 적용 규칙. + php-security: + title: PHP용 보안 규칙 + description: | + PHP 코드 보안 문제 식별 규칙. + python-best-practices: + title: 모범 사례를 따라 Python 코드 작성하기 + description: | + 효율적이고 버그 없는 코드를 작성하기 위한 Python 모범 사례. + python-code-style: + title: Python 코드 스타일 적용 + description: | + Python 코드 스타일 적용 규칙. + python-design: + title: Python 프로그램 구조 확인 + description: | + 중첩 루프 등을 포함하여 Python 프로그램 구조를 점검하는 규칙 + python-django: + title: Django 모범 사례 및 보안 확인 + description: | + Django 모범 사례 및 보안 관련 규칙. + python-flask: + title: Flask 모범 사례 및 보안 확인 + description: | + Flask 모범 사례 및 보안 관련 규칙. + python-inclusive: + title: Python 코드에 표현 문제가 있는지 확인 + description: | + Python의 코드와 주석에서 부적절한 표현을 피하기 위한 규칙. + python-pandas: + title: pandas를 사용한 데이터 과학 모범 사례 + description: | + 판다스 코드가 적절하게 사용되었는지 확인하는 규칙 세트. + + - `import` 선언이 코딩 가이드라인을 따르도록 합니다. + - 더 이상 사용되지 않는 코드와 메서드를 사용하지 마세요. + - 가능한 한 비효율적인 코드 사용을 피하세요. + python-security: + title: Python 코드의 안전성과 보안성 확인 + description: | + OWASP10 및 SANS25에서 발견된 문제 등 Python 코드에서 보안 및 취약성 문제 식별을 위한 규칙. + + - 잘못된 암호화 및 해싱 프로토콜 사용 + - 접근 제어 부족 + - 보안 설정 오류 + - SQL 삽입 + - 하드코딩된 크리덴셜 + - Shell 삽입 + - 안전하지 않은 역직렬화 + rails-best-practices: + title: Ruby on Rails 커뮤니티에서 많이 사용되는 패턴 + description: | + Ruby on Rails 코드 작성 모범 사례 + ruby-best-practices: + title: Ruby 모범 사례 준수 + description: | + Ruby 모범 사례 적용 규칙. + ruby-code-style: + title: Ruby 코드 스타일 적용 규칙. + description: | + 기존 코딩 표준을 따르는 Ruby 규칙 작성을 위한 Code Analysis 규칙. + ruby-inclusive: + title: 포괄적인 Ruby 코드에 대한 규칙 + description: | + 포괄적인 Ruby 코드 작성 + ruby-security: + title: Ruby 보안 규칙 + description: | + Ruby 코드 보안 문제 식별 규칙. + terraform-aws: + title: Terraform AWS + description: | + AWS에 대한 Terraform 모범 사례 적용 규칙. + tsx-react: + title: TypeScript React 코드 품질 + description: | + 이 플러그인은 React 모범 사례를 준수하는 `recommended` 구성을 내보냅니다. + typescript-best-practices: + title: TypeScript 코드 작성 시 모범 사례 준수 + description: | + TypeScript 모범 사례 적용 규칙. + typescript-browser-security: + title: TypeScript 웹 애플리케이션용 보안 규칙 + description: | + TypeScript 웹 애플리케이션 보안 문제 식별 규칙. + typescript-code-style: + title: TypeScript 권장 코드 패턴 + description: | + 최신 TypeScript 코드베이스 모범 사례로 간주되지만 프로그램 로직에는 영향을 미치지 않는 규칙. 이 규칙은 대체로 더 단순한 코드 패턴을 적용하도록 권장합니다. + typescript-common-security: + title: TypeScript용 일반 보안 규칙 + description: | + TypeScript 코드 보안 문제 식별 규칙. + typescript-express: + title: Express.js TypeScript 모범 사례 및 보안 확인 + description: | + Express.js TypeScript 모범 사례 및 보안 관련 규칙. + typescript-inclusive: + title: TypeScript 코드에 표현 문제가 있는지 확인 + description: | + TypeScript의 코드와 주석에서 부적절한 표현을 피하기 위한 규칙. + typescript-node-security: + title: Node에서 잠재적인 보안 핫스팟 식별 + description: | + Node에서 잠재적인 보안 취약 지점을 식별하는 규칙. 여기에는 추가 분류가 필요한 오탐지가 포함될 수 있습니다. +cascade: + modal: + title: 이 규칙을 사용해 Datadog Code Analysis로 코드를 분석하세요 + top_box: + title: 규칙 사용 방법 + steps: + - 리포지토리 루트에 위의 내용을 포함하는 static-analysis.datadog.yml을 만듭니다. + - 무료 IDE 플러그인을 사용하거나 CI 파이프라인에 Code Analysis 스캔을 추가합니다 + - 코드에 대한 피드백을 받습니다 + footer: 자세한 내용은 Code Analysis 문서를 참고하세요 + bottom_boxes: + - title: VS Code 확장 프로그램 + icon: vscode + subtitle:
VS Code 에디터에서 직접 코드 취약점을 식별하세요 + cta_title: 확장 프로그램 다운로드 + cta_url: "https://marketplace.visualstudio.com/items?itemName=Datadog.datadog-vscode" + - title: JetBrains 플러그인 + icon: jetbrains + subtitle:
JetBrain 제품에서 직접 코드 취약점을 식별하세요 + cta_title: 플러그인 다운로드 + cta_url: "https://plugins.jetbrains.com/plugin/19495-datadog" + footer: + text: Datadog Code Analysis를 ​​사용하여 개발 프로세스의 모든 단계에서 코드 문제를 파악하세요 + link: + name: Datadog Code Analysis + url: "https://www.datadoghq.com/code-analysis/" + + banner: + title: 원활한 통합을 제공해 드립니다. Datadog Code Analysis를 경험해 보세요 + link: + name: Datadog Code Analysis + url: "https://www.datadoghq.com/code-analysis/" + +further_reading: + - link: /code_analysis/ + tag: 설명서 + text: Datadog Code Analysis에 대해 알아보기 +--- + +{{< callout url="#" btn_hidden="true" header="Join the Preview!" >}} +코드 분석은 미리 보기에 있습니다. +{{< /callout >}} + +{{% site-region region="gov" %}} +
+ {{< region-param key="dd_site_name" >}} 사이트에서는 코드 분석 기능을 사용할 수 없습니다. +
+{{% /site-region %}} + +## 개요 + +Datadog Static Analysis는 코드 리뷰에서 CI/CD 파이프라인의 위반 사항을 감지하고, 버그, 보안, 유지 관리 문제를 파악하도록 도와 드리는 즉시 사용 가능한 규칙을 제공합니다. 자세한 정보는 [설정 설명서][1]를 참조하세요. + +[1]: /code_analysis/static_analysis/setup diff --git a/content/ko/continuous_testing/troubleshooting.md b/content/ko/continuous_testing/troubleshooting.md index 3787a552239..b4b68e69e3d 100644 --- a/content/ko/continuous_testing/troubleshooting.md +++ b/content/ko/continuous_testing/troubleshooting.md @@ -34,17 +34,21 @@ CI 배치 실행 규칙 : [실행 규칙][4]은 테스트 실패가 CI/CD 파이프라인에 미치는 영향이 가장 큰 것부터 가장 작은 것까지를 정의합니다: `skipped`, `non_blocking`, `blocking`. 이러한 옵션은 가중치를 매겨 기본값은 가장 영향력이 큰 것으로 설정되어 있습니다. UI에서 테스트가 `skipped`로 설정되어 있고 설정 파일에서 `blocking`으로 설정되어 있으면, 테스트 실행 중에 건너뜁니다.

테스트 속성, 글로벌 설정 파일, 개별 테스트의 재정의 파일에서 실행 규칙을 설정할 수 있습니다. -## 익스플로러 +## 결과 탐색기 ### CI 메타데이터가 나타나지 않음 -API 엔드포인트를 사용하여 CI/CD 테스트 실행을 트리거하고 있는지 확인하세요. CI Results Explorer에 CI 메타데이터를 입력하려면 Datadog의 [네이티브 통합][5] 또는 [NPM 패키지][6] 중 하나를 사용해야 합니다. +API 엔드포인트를 사용하여 CI/CD 테스트 실행을 트리거하는지 확인하세요. Synthetic Monitoring 및 Continuous Testing Results Explorer에 CI 메타데이터를 입력하려면, Datadog의 [네이티브 통합][5] 또는 [NPM 패키지][6] 중 하나를 반드시 사용해야 합니다. ## CI/CD 파이프라인 내 ### CI 파이프라인에서 테스트가 시간 초과됨 -가장 먼저 [글로벌 설정 파일][10]에서 어떤 실패 모드 플래그를 전달하고 있는지 확인해야 합니다. 여러 테스트가 포함된 CI 실행의 경우 일부 테스트는 [Continuous Testing 설정 페이지][9]에 정의된 병렬화 설정에 따라 대기합니다. 조직의 필요에 따라 설정과 병렬화 모두를 조정해야 할 수 있습니다. +가장 먼저 [글로벌 설정 파일][3]에서 어떤 실패 모드 플래그를 전달하고 있는지 확인합니다. 여러 테스트가 포함된 CI 실행의 경우, 일부 테스트는 [Continuous Testing 설정 페이지][9]에 정의된 병렬화 설정에 따라 대기합니다. 조직의 필요에 따라 설정과 병렬화 모두를 조정해야 할 수 있습니다. + +## Synthetic Monitoring 모니터 + +CI는 Synthetic Monitoring 모니터를 트리거하거나 모니터 평가에 통합하지 않지만, 실행에 실패하면 CI 상태가 빨간색으로 표시됩니다. ## 참고 자료 @@ -52,11 +56,10 @@ API 엔드포인트를 사용하여 CI/CD 테스트 실행을 트리거하고 [1]: /ko/help/ [2]: /ko/api/latest/synthetics/#trigger-tests-from-cicd-pipelines -[3]: /ko/continuous_testing/cicd_integrations/configuration/?tab=npm#additional-configuration -[4]: /ko/continuous_testing/cicd_integrations/configuration/?tab=npm#execution-rule +[3]: /ko/continuous_testing/cicd_integrations/configuration/?tab=npm#global-configuration-file-options +[4]: /ko/continuous_testing/cicd_integrations/configuration/?tab=npm#test-files [5]: /ko/continuous_testing/cicd_integrations [6]: /ko/continuous_testing/cicd_integrations#use-the-cli [7]: /ko/synthetics/api_tests/ [8]: /ko/synthetics/browser_tests/?tab=requestoptions -[9]: /ko/continuous_testing/settings -[10]: /ko/continuous_testing/cicd_integrations/configuration/?tab=npm#global-configuration-file-options \ No newline at end of file +[9]: /ko/continuous_testing/settings \ No newline at end of file diff --git a/content/ko/database_monitoring/setup_postgres/rds/quick_install.md b/content/ko/database_monitoring/setup_postgres/rds/quick_install.md new file mode 100644 index 00000000000..14f064aae96 --- /dev/null +++ b/content/ko/database_monitoring/setup_postgres/rds/quick_install.md @@ -0,0 +1,34 @@ +--- +further_reading: +- link: /database_monitoring/setup_postgres/ + tag: 설명서 + text: Postgres 설정 +- link: /database_monitoring/setup_postgres/rds + tag: 설명서 + text: Amazon RDS 관리형 Postgres에서 데이터베이스 모니터링 설정 +title: Postgres RDS용 Database Monitoring 빠른 설치 +--- + +RDS용 Database Monitoring 빠른 설치로 Agent를 빠르게 설정하여 RDS Postgres 인스턴스를 모니터링합니다. 몇 가지 옵션을 지정하면, Datadog은 모니터링할 수 있도록 인스턴스를 구성하는 CloudFormation 템플릿을 생성합니다. 또한 Amazon ECS를 사용하여 Agent를 권장 DBM 구성으로 RDS 인스턴스에 배포합니다. + +## 사전 필수 조건 + +- 인스턴스의 VPC 인바운드 연결과 인터넷 아웃바운드 연결을 허용하려면 인스턴스에서 보안 그룹을 구성해야 합니다. +- RDS 인스턴스의 관리자 액세스 사용자 이름과 비밀번호는 AWS Secrets Manager의 AWS Secret에 저장해야 합니다. Datadog은 설정 및 운영 중 자격 증명에 액세스하는 데 이 시크릿을 사용하므로, 해당 시크릿의 Amazon Resource Name(ARN)을 기록해 두세요. + +
Datadog은 관리자 자격 증명을 저장하지 않습니다. Agent에 연결하기 위해 일시적으로만 사용하며, 프로세스가 완료된 후에는 데이터를 보관하지 않습니다.
+ +## 설치 + +1. [Database Monitoring Setup][1] 페이지로 이동합니다. +1. **Unmonitored Hosts** 탭에서 Agent를 설치하려는 RDS 인스턴스의 **Add Agent**를 클릭합니다. +1. 계정 및 리전에 ECS 클러스터가 설치되어 있지 않은 경우 **Create Cluster**를 클릭합니다. +1. **Security Group** 드롭다운 목록에서 보안 그룹을 선택합니다. +1. **Select API Key**를 클릭하고 목록에서 API 키를 선택한 후 **Use API Key**를 클릭합니다. +1. **Launch CloudFormation Stack in AWS Console**를 클릭합니다. 그러면 AWS CloudFormation 화면이 표시된 새 페이지가 열립니다. 제공된 CloudFormation 템플릿을 사용하여 스택을 생성합니다. 해당 템플릿에는 Agent를 배포하여 RDS 인스턴스를 모니터링하는 데 필요한 구성이 포함됩니다. + +## 참고 자료 + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: https://app.datadoghq.com/databases/setup \ No newline at end of file diff --git a/content/ko/glossary/terms/trace_context_propagation.md b/content/ko/glossary/terms/trace_context_propagation.md new file mode 100644 index 00000000000..e844a58618b --- /dev/null +++ b/content/ko/glossary/terms/trace_context_propagation.md @@ -0,0 +1,9 @@ +--- +core_product: +- APM +short_definition: 트레이스 컨텍스트 전파는 분산 시스템에서 서비스 간에 트레이스 식별자를 전달하는 방법입니다. +title: 트레이스 컨텍스트 전파 +--- +트레이스 컨텍스트 전파는 분산 시스템에서 서비스 간에 트레이스 식별자를 전달하는 방법입니다. Datadog은 이를 통해 여러 서비스의 개별 스팬을 하나의 분산 트레이스로 통합할 수 있습니다. 트레이스 컨텍스트 전파는 요청이 시스템을 통과할 때 트레이스 ID 및 상위 스팬 ID와 같은 식별자를 HTTP 헤더에 삽입하는 방식으로 작동합니다. 그러면 다운스트림 서비스가 이러한 식별자를 추출하고 트레이스를 계속합니다. 이를 통해 Datadog은 여러 서비스에 걸쳐 요청의 전체 경로를 재구성할 수 있습니다. + +자세한 내용은 애플리케이션 언어에 관한 트레이스 컨텍스트 전파를 참고하세요. \ No newline at end of file diff --git a/content/ko/integrations/akamai_datastream_2.md b/content/ko/integrations/akamai_datastream_2.md new file mode 100644 index 00000000000..f880911dfb2 --- /dev/null +++ b/content/ko/integrations/akamai_datastream_2.md @@ -0,0 +1,122 @@ +--- +app_id: akamai-datastream-2 +app_uuid: 9a772881-d31a-4ffb-92bb-7beef1088a55 +assets: + dashboards: + Akamai DataStream 2: assets/dashboards/akamai_datastream_2_overview.json + integration: + auto_install: true + configuration: {} + events: + creates_events: false + metrics: + check: [] + metadata_path: metadata.csv + prefix: akamai_datastream. + service_checks: + metadata_path: assets/service_checks.json + source_type_id: 10273 + source_type_name: Akamai DataStream 2 +author: + homepage: https://github.com/DataDog/integrations-extras + name: Datadog + sales_email: help@datadoghq.com + support_email: help@datadoghq.com +categories: +- 캐싱(caching) +- 로그 수집 +custom_kind: integration +dependencies: +- https://github.com/DataDog/integrations-extras/blob/master/akamai_datastream_2/README.md +display_on_public_website: true +draft: false +git_integration_title: akamai_datastream_2 +integration_id: akamai-datastream-2 +integration_title: Akamai DataStream 2 +integration_version: '' +is_public: true +manifest_version: 2.0.0 +name: akamai_datastream_2 +public_title: Akamai DataStream 2 +short_description: Akamai DataStream 로그를 Datadog으로 전송하기 +supported_os: +- 리눅스 +- windows +- macos +tile: + changelog: CHANGELOG.md + classifier_tags: + - 카테고리::캐싱(Caching) + - Category::Log Collection + - Supported OS::Linux + - Supported OS::Windows + - Supported OS::macOS + - 제공::통합 + configuration: README.md#Setup + description: Akamai DataStream 로그를 Datadog으로 전송하기 + media: [] + overview: README.md#Overview + resources: + - resource_type: 블로그 + url: https://www.datadoghq.com/blog/monitor-akamai-datastream2/ + support: README.md#Support + title: Akamai DataStream 2 +--- + + + + +## 개요 + +Akamai DataStream 2는 프로퍼티의 성능, 보안, CDN 상태 로그를 Akamai Intelligent Edge Platform에서 캡처합니다. 본 통합은 데이터를 거의 실시간으로 Datadog으로 스트리밍합니다. + +Akamai DataStream 2 로그를 사용하여 장기적인 트렌드의 인사이트를 얻고, 성능 및 보안 문제를 해결하세요. 고처리량 데이터 전송 스트림을 모니터링할 수도 있습니다. 자세한 내용과 사용 사례는 [DataStream 2 설명서][1]를 참조하세요. + +## 설정 + +### 설치 + +**Install Integration**를 클릭하면 프리셋 대시보드가 활성화되어 Akamai DataStream 2 로그 및 메트릭을 볼 수 있습니다. + +### 구성 + +로그를 Datadog으로 전송하도록 Akamai DataStream 2를 구성하려면 [Akamai Techdocs 사이트의 다음 지침을 따르세요] +(https://techdocs.akamai.com/datastream2/docs/stream-datadog). 로그 소스를 `akamai.datastream`로, 로그 형식을 `JSON`로 설정해야 합니다. + +페이지 우측의 Datadog Site Selector가 [Datadog 사이트][2]로 설정되어 있는지 확인하고 하단의 로그 엔드포인트 URL을 복사합니다. + +`https://{{< region-param key="http_endpoint" code="true" >}}/v1/input` + +### 검증 + +본 통합이 올바르게 구성되었는지 확인하려면 [소스 `akamai.datastream`로 로그를 검색합니다][3]. Akamai에서 데이터 스트림을 구성한 후 로그가 Datadog에 표시되기까지 몇 분 정도 기다려야 할 수 있습니다. + +## 수집한 데이터 + +### 메트릭 + +Akamai DataStream 2는 메트릭을 포함하지 않습니다. + +### 서비스 점검 + +Akamai DataStream 2는 서비스 점검을 포함하지 않습니다. + +### 이벤트 + +Akamai DataStream 2는 이벤트를 포함하지 않습니다. + +## 트러블슈팅 + +도움이 필요하신가요? [Datadog 지원 팀][4]에 문의하세요. + +## 참고 자료 + +기타 유용한 문서, 링크 및 기사: + +- [Datadog으로 Akamai DataStream 2 모니터링][5] + +[1]: https://techdocs.akamai.com/datastream2/docs +[2]: https://docs.datadoghq.com/ko/getting_started/site/ +[3]: https://app.datadoghq.com/logs?query=source%3Aakamai.datastream +[4]: https://docs.datadoghq.com/ko/help/ +[5]: https://www.datadoghq.com/blog/monitor-akamai-datastream2/ \ No newline at end of file diff --git a/content/ko/integrations/argo_rollouts.md b/content/ko/integrations/argo_rollouts.md new file mode 100644 index 00000000000..563d85bea5c --- /dev/null +++ b/content/ko/integrations/argo_rollouts.md @@ -0,0 +1,178 @@ +--- +app_id: argo-rollouts +app_uuid: 28d531ac-954c-4c5a-8769-589589f793e0 +assets: + dashboards: + Argo Rollouts Overview: assets/dashboards/argo_rollouts_overview.json + integration: + auto_install: true + configuration: + spec: assets/configuration/spec.yaml + events: + creates_events: false + metrics: + check: argo_rollouts.go.threads + metadata_path: metadata.csv + prefix: argo_rollouts. + process_signatures: + - rollouts-controller + service_checks: + metadata_path: assets/service_checks.json + source_type_id: 8465752 + source_type_name: Argo Rollouts + monitors: + Argo Rollout is in Non Running or Completed State: assets/monitors/rollout_phase.json + saved_views: + Argo Rollouts Error Logs Overview: assets/saved_views/error_logs_overview.json + Argo Rollouts Logs Overview: assets/saved_views/logs_overview.json +author: + homepage: https://www.datadoghq.com + name: Datadog + sales_email: info@datadoghq.com + support_email: help@datadoghq.com +categories: +- 메트릭 +- 쿠버네티스(Kubernetes) +- 개발 툴 +- 로그 수집 +custom_kind: integration +dependencies: +- https://github.com/DataDog/integrations-core/blob/master/argo_rollouts/README.md +display_on_public_website: true +draft: false +git_integration_title: argo_rollouts +integration_id: argo-rollouts +integration_title: Argo Rollouts +integration_version: 2.2.0 +is_public: true +manifest_version: 2.0.0 +name: argo_rollouts +public_title: Argo Rollouts +short_description: Argo Rollouts의 상태 및 성능 모니터링 +supported_os: +- linux +- windows +- macos +tile: + changelog: CHANGELOG.md + classifier_tags: + - 지원 OS::Linux + - 지원 OS::Windows + - 지원 OS::macOS + - Category::Metrics + - Category::Kubernetes + - Category::Developer Tools + - 카테고리::로그 수집 + - Submitted Data Type::Metrics + - 제출한 데이터 유형::로그 + - 제공::통합 + configuration: README.md#Setup + description: Argo Rollouts의 상태 및 성능 모니터링 + media: [] + overview: README.md#Overview + support: README.md#Support + title: Argo Rollouts +--- + + + + +## 개요 + +본 점검은 Datadog Agent를 통해 [Argo Rollouts][1]를 모니터링합니다. + +## 설정 + +아래 지침에 따라 Kubernetes 환경에서 실행되는 Agent의 본 점검을 설치 및 구성합니다. 컨테이너화된 환경에서의 구성에 관한 자세한 정보는 [Autodiscovery 통합 템플릿][2] 지침을 참조하세요. + +### 설치 + +Agent 릴리스 7.53.0부터 Argo Rollouts 점검이 [Datadog Agent][3] 패키지에 포함되었습니다. 환경에 추가 설치가 필요하지 않습니다. + +본 점검은 Argo Rollouts가 노출할 수 있는 OpenMetrics 엔드포인트에서 메트릭을 수집하기 위해 [OpenMetrics][4]를 사용하며, 이를 위해 Python 3이 필요합니다. + +### 구성 + +Argo Rollouts 컨트롤러를 통해 포트 `8090`의 `/metrics` 에서 Prometheus 형식의 메트릭을 쉽게 사용할 수 있습니다. Agent에서 메트릭 수집을 시작하려면 Argo Rollouts 포드에 주석 처리를 해야 합니다. 어노테이션에 관한 자세한 내용은 [Autodiscovery 통합 템플릿][2] 지침을 참조하세요. [샘플 argo_rollouts.d/conf.yaml][5]을 검토하여 추가 구성 옵션을 확인할 수 있습니다. + +**참고**: 목록에 표시된 메트릭은 사용 가능한 경우에만 수집할 수 있습니다. 일부 메트릭은 특정 작업을 수행할 때만 생성됩니다. 예를 들어, `argo_rollouts.info.replicas.updated` 메트릭은 복제본이 업데이트된 후에만 노출됩니다. + +다음은 Argo Rollouts 점검을 구성하는 데 필요한 유일한 파라미터입니다. +- `openmetrics_endpoint`: 본 파라미터는 Prometheus 형식의 메트릭이 노출되는 위치로 설정해야 합니다. 기본 포트는 `8090`입니다. 컨테이너화된 환경에서는 [호스트 자동 감지][2]에 `%%host%%`을 사용해야 합니다. + +```yaml +apiVersion: v1 +kind: Pod +# (...) +metadata: + name: '' + annotations: + ad.datadoghq.com/argo-rollouts.checks: | + { + "argo_rollouts": { + "init_config": {}, + "instances": [ + { + "openmetrics_endpoint": "http://%%host%%:8090/metrics" + } + ] + } + } + # (...) +spec: + containers: + - name: 'argo-rollouts' +# (...) +``` + +#### 로그 수집 + +_Agent 버전 6.0 이상에서 사용 가능_ + +Argo Rollouts 로그는 Kubernetes를 통해 여러 Argo Rollouts 포드에서 수집할 수 있습니다. Datadog Agent에는 로그 수집 기능이 기본적으로 비활성화되어 있습니다. 활성화하려면 [Kubernetes 로그 수집][6]을 참고하세요. + +아래 파라미터를 적용하는 방법은 [Autodiscovery 통합 템플릿][2]을 참고하세요. + +| 파라미터 | 값 | +| -------------- | ------------------------------------------------------- | +| `` | `{"source": "argo_rollouts", "service": ""}` | + +### 검증 + +[Agent 상태 하위 명령을 실행][7]하고 Checks 섹션에서 `argo_rollouts`를 찾으세요. + +## 수집한 데이터 + +### 메트릭 +{{< get-metrics-from-git "argo_rollouts" >}} + + +### 이벤트 + +Argo Rollouts 통합에는 이벤트가 포함되지 않습니다. + +### 서비스 점검 +{{< get-service-checks-from-git "argo_rollouts" >}} + + +## 트러블슈팅 + +도움이 필요하신가요? [Datadog 고객 지원팀][10]에 문의해주세요. + +## 참고 자료 + +기타 유용한 문서, 링크 및 기사: + +- [컨테이너 네이티브 CI/CD 파이프라인의 상태 및 성능 모니터링하기][11] + +[1]: https://argoproj.github.io/rollouts/ +[2]: https://docs.datadoghq.com/ko/agent/kubernetes/integrations/ +[3]: https://app.datadoghq.com/account/settings/agent/latest +[4]: https://docs.datadoghq.com/ko/integrations/openmetrics/ +[5]: https://github.com/DataDog/integrations-core/blob/master/argo_rollouts/datadog_checks/argo_rollouts/data/conf.yaml.example +[6]: https://docs.datadoghq.com/ko/agent/kubernetes/log/ +[7]: https://docs.datadoghq.com/ko/agent/guide/agent-commands/#agent-status-and-information +[8]: https://github.com/DataDog/integrations-core/blob/master/argo_rollouts/metadata.csv +[9]: https://github.com/DataDog/integrations-core/blob/master/argo_rollouts/assets/service_checks.json +[10]: https://docs.datadoghq.com/ko/help/ +[11]: https://www.datadoghq.com/blog/container-native-ci-cd-integrations/ \ No newline at end of file diff --git a/content/ko/integrations/argo_workflows.md b/content/ko/integrations/argo_workflows.md new file mode 100644 index 00000000000..e64dfdc59f5 --- /dev/null +++ b/content/ko/integrations/argo_workflows.md @@ -0,0 +1,172 @@ +--- +app_id: argo-workflows +app_uuid: f96fd144-a3c0-4fed-adcc-53f11f80ec04 +assets: + dashboards: + Argo Workflows: assets/dashboards/argo_workflows.json + integration: + auto_install: true + configuration: + spec: assets/configuration/spec.yaml + events: + creates_events: false + metrics: + check: + - argo_workflows.go.info + metadata_path: metadata.csv + prefix: argo_workflows. + process_signatures: + - workflow-controller + service_checks: + metadata_path: assets/service_checks.json + source_type_id: 8511369 + source_type_name: Argo Workflows + monitors: + New errors detected in Argo Workflows: assets/monitors/errors.json + saved_views: + errors: assets/saved_views/errors.json + overview: assets/saved_views/overview.json +author: + homepage: https://www.datadoghq.com + name: Datadog + sales_email: info@datadoghq.com + support_email: help@datadoghq.com +categories: +- 개발 툴 +- 로그 수집 +custom_kind: integration +dependencies: +- https://github.com/DataDog/integrations-core/blob/master/argo_workflows/README.md +display_on_public_website: true +draft: false +git_integration_title: argo_workflows +integration_id: argo-workflows +integration_title: Argo Workflows +integration_version: 2.3.0 +is_public: true +manifest_version: 2.0.0 +name: argo_workflows +public_title: Argo Workflows +short_description: Argo Workflows의 상태 및 성능 모니터링 +supported_os: +- linux +- windows +- macos +tile: + changelog: CHANGELOG.md + classifier_tags: + - 지원 OS::Linux + - 지원 OS::Windows + - 지원 OS::macOS + - Category::Developer Tools + - 카테고리::로그 수집 + - 제공::통합 + configuration: README.md#Setup + description: Argo Workflows의 상태 및 성능 모니터링 + media: [] + overview: README.md#Overview + support: README.md#Support + title: Argo Workflows +--- + + + + +## 개요 + +본 점검은 Datadog Agent를 통해 [Argo Workflows][1]를 모니터링합니다. + +## 설정 + +아래 지침에 따라 Kubernetes 환경에서 실행되는 Agent에 대한 본 점검을 설치 및 설정합니다. 컨테이너화된 환경의 경우 구성에 대한 자세한 정보는 [Autodiscovery 통합 템플릿][2]을 참조하세요. + +### 설치 + +Agent 릴리스 7.53.0부터 Argo Workflows 점검이 [Datadog Agent][3] 패키지에 포함되었습니다. 환경에 추가 설치가 필요하지 않습니다. + +본 점검은 [OpenMetrics][4]를 사용하여 OpenMetrics 엔드포인트에서 메트릭을 수집합니다. + +### 구성 + +Argo Workflows Workflow Controller를 통해 포트 `9090`의 `/metrics`에서 [Prometheus 형식의 메트릭][5]을 사용할 수 있습니다. Agent에서 메트릭 수집을 시작하려면 Workflow Controller 포드에 주석 처리를 해야 합니다. 어노테이션에 대한 자세한 내용은 [Autodiscovery 통합 템플릿][2] 지침을 참조하세요. [샘플 argo_workflows.d/conf.yaml][6]을 검토하여 추가 구성 옵션을 확인할 수 있습니다. + +다음은 Argo Workflows 점검을 구성하는 데 필요한 유일한 파라미터입니다. +- `openmetrics_endpoint`: 본 파라미터는 Prometheus 형식의 메트릭이 노출되는 위치로 설정해야 합니다. 기본 포트는 `9090`입니다. 컨테이너화된 환경에서는 [호스트 자동 감지][2]에 `%%host%%`을 사용해야 합니다. + +```yaml +apiVersion: v1 +kind: Pod +# (...) +metadata: + name: '' + annotations: + ad.datadoghq.com/argo-workflows.checks: | + { + "argo_workflows": { + "init_config": {}, + "instances": [ + { + "openmetrics_endpoint": "http://%%host%%:9090/metrics" + } + ] + } + } + # (...) +spec: + containers: + - name: 'argo-workflows' +# (...) +``` + +#### 로그 수집 + +_Agent 버전 6.0 이상에서 사용 가능_ + +Argo Workflows 로그는 Kubernetes를 통해 여러 Argo Workflows 포드에서 수집할 수 있습니다. Datadog Agent에는 로그 수집 기능이 기본적으로 비활성화되어 있습니다. 활성화하려면 [Kubernetes 로그 수집][7]을 참고하세요. + +아래 파라미터를 적용하는 방법은 [Autodiscovery 통합 템플릿][2]을 참고하세요. + +| 파라미터 | 값 | +| -------------- | ------------------------------------------------------- | +| `` | `{"source": "argo_workflows", "service": ""}` | + +### 검증 + +[Agent 상태 하위 명령을 실행][8]하고 점검 섹션에서 `argo_workflows`를 검색합니다. + +## 수집한 데이터 + +### 메트릭 +{{< get-metrics-from-git "argo_workflows" >}} + + +### 이벤트 + +Argo Workflows 통합은 이벤트를 포함하지 않습니다. + +### 서비스 점검 +{{< get-service-checks-from-git "argo_workflows" >}} + + +## 트러블슈팅 + +도움이 필요하신가요? [Datadog 고객 지원팀][11]에 문의하세요. + +## 참고 자료 + +기타 유용한 문서, 링크 및 기사: + +- [컨테이너 네이티브 CI/CD 파이프라인의 상태 및 성능 모니터링하기][12] + +[1]: https://argo-workflows.readthedocs.io/en/stable/ +[2]: https://docs.datadoghq.com/ko/agent/kubernetes/integrations/ +[3]: https://app.datadoghq.com/account/settings/agent/latest +[4]: https://docs.datadoghq.com/ko/integrations/openmetrics/ +[5]: https://argo-workflows.readthedocs.io/en/stable/metrics/ +[6]: https://github.com/DataDog/integrations-core/blob/master/argo_workflows/datadog_checks/argo_workflows/data/conf.yaml.example +[7]: https://docs.datadoghq.com/ko/agent/kubernetes/log/ +[8]: https://docs.datadoghq.com/ko/agent/guide/agent-commands/#agent-status-and-information +[9]: https://github.com/DataDog/integrations-core/blob/master/argo_workflows/metadata.csv +[10]: https://github.com/DataDog/integrations-core/blob/master/argo_workflows/assets/service_checks.json +[11]: https://docs.datadoghq.com/ko/help/ +[12]: https://www.datadoghq.com/blog/container-native-ci-cd-integrations/ \ No newline at end of file diff --git a/content/ko/integrations/aws_neuron.md b/content/ko/integrations/aws_neuron.md new file mode 100644 index 00000000000..2473c7f0052 --- /dev/null +++ b/content/ko/integrations/aws_neuron.md @@ -0,0 +1,175 @@ +--- +app_id: aws-neuron +app_uuid: fff4d15b-0953-41c9-8139-ef0a8d718d93 +assets: + dashboards: + AWS Neuron Overview: assets/dashboards/aws_neuron_overview.json + integration: + auto_install: true + configuration: + spec: assets/configuration/spec.yaml + events: + creates_events: false + metrics: + check: aws_neuron.neuron_runtime.memory_used_bytes + metadata_path: metadata.csv + prefix: aws_neuron. + service_checks: + metadata_path: assets/service_checks.json + source_type_id: 21046822 + source_type_name: AWS Neuron + monitors: + Execution errors: assets/monitors/execution_errors.json + Execution latency: assets/monitors/execution_latency.json + Neuron Runtime vCPU usage: assets/monitors/neuron_runtime_vcpu.json + saved_views: + AWS Neuron Error Logs Overview: assets/saved_views/error_logs_overview.json + AWS Neuron Logs Overview: assets/saved_views/logs_overview.json +author: + homepage: https://www.datadoghq.com + name: Datadog + sales_email: info@datadoghq.com + support_email: help@datadoghq.com +categories: +- ai/ml +- aws +- 클라우드 +- 로그 수집 +custom_kind: 통합 +dependencies: +- https://github.com/DataDog/integrations-core/blob/master/aws_neuron/README.md +display_on_public_website: true +draft: false +git_integration_title: aws_neuron +integration_id: aws-neuron +integration_title: AWS Inferentia 및 AWS Trainium 모니터링 +integration_version: 2.1.0 +is_public: true +manifest_version: 2.0.0 +name: aws_neuron +public_title: AWS Inferentia 및 AWS Trainium 모니터링 +short_description: AWS Inferentia/Trainium 인스턴스 및 Neuron SDK의 성능 및 사용을 모니터링합니다. +supported_os: +- linux +- 윈도우즈(Windows) +- macos +tile: + changelog: CHANGELOG.md + classifier_tags: + - Supported OS::Linux + - Supported OS::Windows + - Supported OS::macOS + - Category::AI/ML + - Category::AWS + - Category::Cloud + - Category::Log Collection + - Offering::Integration + - Queried Data Type::Metrics + - Submitted Data Type::Metrics + configuration: README.md#Setup + description: AWS Inferentia/Trainium 인스턴스 및 Neuron SDK의 성능 및 사용을 모니터링합니다. + media: [] + overview: README.md#Overview + support: README.md#Support + title: AWS Inferentia 및 AWS Trainium 모니터링 +--- + + + + +## 개요 + +본 검사는 Datadog Agent를 통해 [AWS Neuron][1]를 모니터링합니다. Inferentia 및 Trainium 장치를 모니터링하고 머신 러닝 모델의 성능에 관한 인사이트를 제공해 드립니다. + +## 설정 + +아래 지침을 따라 EC2 인스턴스에서 실행되는 Agent에 이 점검을 설치 및 설정하세요. 컨테이너화된 환경의 경우, 이러한 지침을 적용하는 데 가이드가 필요하다면 [Autodiscovery 통합 템플릿][2]을 참조하세요. + +### 설치 + +AWS Neuron 검사는 [Datadog Agent][3] 패키지에 포함되어 있습니다. + +또한 [AWS Neuron Tools][4] 패키지를 설치해야 합니다. + +서버에 추가 설치가 필요하지 않습니다. + +### 설정 + +#### 메트릭 + +1. [Neuron Monitor][5]를 Prometheus 엔드포인트를 노출하는 데 사용하고 있는지 확인합니다. + +2. AWS Neuron 성능 데이터 수집을 시작하려면 [Agent 구성 디렉터리][6] 루트에 있는 `conf.d/` 폴더에서 `aws_neuron.d/conf.yaml` 파일을 편집합니다. 사용 가능한 모든 구성 옵션은 [샘플 aws_neuron.d/conf.yaml][7]을 참조하세요. + +3. [에이전트를 재시작합니다][8]. + +#### 로그 + +AWS Neuron 통합으로 Neuron 컨테이너에서 로그를 수집하여 Datadog으로 전달할 수 있습니다. + +{{< tabs >}} +{{% tab "호스트" %}} + +1. Datadog Agent에서 로그 수집은 기본적으로 비활성화되어 있으므로 `datadog.yaml` 파일에서 활성화합니다. + + ```yaml + logs_enabled: true + ``` + +2. `aws_neuron.d/conf.yaml` 파일에서 로그 구성 블록의 주석 처리를 제거하고 편집하세요. 예를 들면 다음과 같습니다. + + ```yaml + logs: + - type: docker + source: aws_neuron + service: aws_neuron + ``` + +{{% /tab %}} +{{% tab "쿠버네티스" %}} + +Datadog Agent에서는 로그 수집 기능이 기본적으로 비활성화되어 있습니다. 활성화하려면 [Kubernetes 로그 수집][1]을 참고하세요. + +그런 다음 로그 통합을 포드 애노테이션으로 설정합니다. 파일, 구성 맵, 키-값 저장소를 사용하여 구성할 수도 있습니다. 자세한 내용은 [Kubernetes 로그 수집][2]의 구성 섹션을 참고하세요. + +[1]: https://docs.datadoghq.com/ko/agent/kubernetes/log/#setup +[2]: https://docs.datadoghq.com/ko/agent/kubernetes/log/#configuration +{{% /tab %}} +{{< /tabs >}} + +### 검증 + +[Agent의 상태 하위 명령을 실행][9]하고 Checks 섹션에서 `aws_neuron`를 찾습니다. + +## 수집한 데이터 + +### 메트릭 +{{< get-metrics-from-git "aws_neuron" >}} + + +### 이벤트 + +AWS Neuron 통합은 이벤트를 포함하지 않습니다. + +### 서비스 점검 +{{< get-service-checks-from-git "aws_neuron" >}} + + +## 트러블슈팅 + +컨테이너화된 환경에서는 Agent가 `aws_neuron.d/conf.yaml` 파일에 지정된 엔드포인트에 대한 네트워크 액세스 권한이 있는지 확인하세요. + +도움이 필요하신가요? [Datadog 고객 지원팀][10]에 문의해주세요. + + + +[1]: https://awsdocs-neuron.readthedocs-hosted.com/en/latest/index.html +[2]: https://docs.datadoghq.com/ko/agent/kubernetes/integrations/ +[3]: https://app.datadoghq.com/account/settings/agent/latest +[4]: https://awsdocs-neuron.readthedocs-hosted.com/en/latest/tools/index.html +[5]: https://awsdocs-neuron.readthedocs-hosted.com/en/latest/tools/neuron-sys-tools/neuron-monitor-user-guide.html#using-neuron-monitor-prometheus-py +[6]: https://docs.datadoghq.com/ko/agent/configuration/agent-configuration-files/#agent-configuration-directory +[7]: https://github.com/DataDog/integrations-core/blob/master/aws_neuron/datadog_checks/aws_neuron/data/conf.yaml.example +[8]: https://docs.datadoghq.com/ko/agent/guide/agent-commands/#start-stop-and-restart-the-agent +[9]: https://docs.datadoghq.com/ko/agent/guide/agent-commands/#agent-status-and-information +[10]: https://docs.datadoghq.com/ko/help/ \ No newline at end of file diff --git a/content/ko/integrations/continuous_ai_netsuite.md b/content/ko/integrations/continuous_ai_netsuite.md new file mode 100644 index 00000000000..a051ca869aa --- /dev/null +++ b/content/ko/integrations/continuous_ai_netsuite.md @@ -0,0 +1,139 @@ +--- +algolia: + subcategory: Marketplace 통합 +app_id: continuous-ai-netsuite +app_uuid: e458cb71-5229-4385-bfb1-0089221ff276 +assets: + dashboards: + Netsuite Continuous AI Overview: assets/dashboards/netsuite_continuous_ai_overview.json + Netsuite System, Script, Audit Logs: assets/dashboards/netsuite_continuous_ai_suiteql.json + integration: + auto_install: false + configuration: + spec: assets/configuration/spec.yaml + events: + creates_events: false + service_checks: + metadata_path: assets/service_checks.json + source_type_id: 26840441 + source_type_name: Continuous AI NetSuite +author: + homepage: https://www.continuous-ai.com + name: Continuous AI + sales_email: sales@continuous-ai.com + support_email: support@continuous-ai.com + vendor_id: continuous-ai +categories: +- 로그 수집 +- marketplace +- cost management +custom_kind: 통합 +dependencies: [] +display_on_public_website: true +draft: false +git_integration_title: continuous_ai_netsuite +integration_id: continuous-ai-netsuite +integration_title: NetSuite +integration_version: '' +is_public: true +legal_terms: + eula: assets/continuous_ai_netsuite_eula.pdf +manifest_version: 2.0.0 +name: continuous_ai_netsuite +pricing: +- billing_type: flat_fee + includes_assets: true + product_id: netsuite + short_description: NetSuite 로그 데이터의 양과 관계없이 정액 구독료가 부과됩니다. + unit_price: 299 +public_title: NetSuite +short_description: NetSuite SuiteScript 성능 및 로그 수집 모니터링 +supported_os: +- linux +- 윈도우즈(Windows) +- macos +tile: + changelog: CHANGELOG.md + classifier_tags: + - Category::Log Collection + - Category::Marketplace + - Category::Cost Management + - Offering::Integration + - Supported OS::Linux + - Supported OS::Windows + - Supported OS::macOS + - Submitted Data Type::Logs + configuration: README.md#Setup + description: NetSuite SuiteScript 성능 및 로그 수집 모니터링 + media: + - caption: NetSuite 개요 대시보드 + image_url: images/dashboard_overview.png + media_type: 이미지 + - caption: NetSuite 개요 대시보드 - 성능 분석 + image_url: images/dashboard_perf.png + media_type: 이미지 + - caption: NetSuite 개요 대시보드 - 스크립트 추적 + image_url: images/dashboard_exec.png + media_type: 이미지 + - caption: NetSuite 개요 대시보드 - 원시 로그 + image_url: images/dashboard_raw.png + media_type: 이미지 + - caption: NetSuite 시스템 로그 + image_url: images/dashboard_suiteql1.png + media_type: 이미지 + - caption: NetSuite 시스템 로그 상세 정보 + image_url: images/dashboard_suiteql2.png + media_type: 이미지 + - caption: NetSuite 로그인 감사 및 스크립트 로그 + image_url: images/dashboard_suiteql3.png + media_type: 이미지 + overview: README.md#Overview + support: README.md#Support + title: NetSuite + uninstallation: README.md#Uninstallation +--- + + + + +## 개요 + +NetSuite는 기업에 재무 관리, 고객 관계 관리, 전자상거래를 위한 통합 플랫폼을 제공하는 클라우드 기반 ERP 소프트웨어 제품군입니다. 본 통합은 NetSuite에서 다음과 같은 표준 및 커스텀 기능에 관한 메트릭과 로그를 수집하고 보고합니다. + ++ 표준 및 커스텀 SuiteScripts ++ Suitelets 및 Restlets ++ 스크립트 로그 ++ 성능 및 스크립트 실행 시간 ++ 오류 및 호환성 변경 사항 ++ 사용자 활동 + +Datadog이 해당 텔레메트리 데이터를 추적하면 NetSuite 스크립트 실행에서 문제를 발견하고 성능을 추적하는 데 도움이 됩니다. + +### 대시보드 + +본 통합은 즉시 사용할 수 있는 **Continuous AI NetSuite 대시보드**를 제공합니다. 해당 대시보드에는 시간이 지남에 따라 Datadog에 제출된 NetSuite 데이터가 표시되며, 특정 NetSuite 계정, 자회사 또는 부서로 검색 범위를 좁힐 수 있는 환경 변수가 포함되어 있습니다. + +## 지원 + +지원이나 기능 요청이 있으시면 다음 채널을 통해 Continuous AI에 문의하세요. + +- 고객지원: [support@continuous-ai.com][2] +- 영업: [sales@continuous-ai.com][4] + +### 필수 조건 + +논의하고 싶은 구체적인 요구 사항이 있으신가요? 저희가 도와드리겠습니다! [sales@continuous-ai.com][4]로 문의하세요. + +--- + +고객의 옵저버빌리티를 중요하게 생각합니다. Continuous AI. + +[1]: https://docs.datadoghq.com/ko/getting_started/agent/ +[2]: mailto:support@continuous-ai.com +[3]: https://system.netsuite.com/pages/customerlogin.jsp?country=US +[4]: mailto:sales@continuous-ai.com +[5]: https://docs.datadoghq.com/ko/agent/guide/agent-commands/?tab=agentv6v7#restart-the-agent +[6]: https://docs.datadoghq.com/ko/agent/guide/agent-commands/#agent-status-and-information +[7]: https://docs.datadoghq.com/ko/agent/configuration/agent-configuration-files/#agent-configuration-directory +--- +이 애플리케이션은 Datadog Marketplace를 통해 제공되며 Datadog Technology Partner의 지원을 받습니다. 사용하려면 Marketplace에서 구매하세요. \ No newline at end of file diff --git a/content/ko/integrations/crest_data_systems_armis.md b/content/ko/integrations/crest_data_systems_armis.md new file mode 100644 index 00000000000..940ee03645b --- /dev/null +++ b/content/ko/integrations/crest_data_systems_armis.md @@ -0,0 +1,144 @@ +--- +algolia: + subcategory: Marketplace 통합 +app_id: crest-data-systems-armis +app_uuid: a9673290-7000-49d9-9f19-bbf049e6b746 +assets: + dashboards: + Armis - Alerts: assets/dashboards/crest_data_systems_armis_alerts.json + Armis - Device Application: assets/dashboards/crest_data_systems_armis_device_applications.json + Armis - Devices: assets/dashboards/crest_data_systems_armis_devices.json + Armis - Overview: assets/dashboards/crest_data_systems_armis_overview.json + Armis - Policies: assets/dashboards/crest_data_systems_armis_policies.json + Armis - Users: assets/dashboards/crest_data_systems_armis_users.json + Armis - Vulnerabilities: assets/dashboards/crest_data_systems_armis_vulnerabilities.json + integration: + auto_install: false + configuration: + spec: assets/configuration/spec.yaml + events: + creates_events: true + service_checks: + metadata_path: assets/service_checks.json + source_type_id: 20667054 + source_type_name: crest_data_systems_armis + logs: + source: crest-data-systems-armis + monitors: + Total Critical Alerts Exceeds Limit: assets/monitors/crest_data_systems_total_critical_alerts_exceeds_limit.json + Total Open Critical Vulnerabilities Exceeds Limit: assets/monitors/crest_data_systems_total_open_critical_vulnerabilities_exceeds_limit.json +author: + homepage: https://www.crestdata.ai + name: Crest Data + sales_email: datadog-sales@crestdata.ai + support_email: datadog.integrations@crestdata.ai + vendor_id: crest-data-systems +categories: +- 클라우드 +- marketplace +- 로그 수집 +- security +custom_kind: 통합 +dependencies: [] +display_on_public_website: true +draft: false +git_integration_title: crest_data_systems_armis +integration_id: crest-data-systems-armis +integration_title: Armis Centrix +integration_version: '' +is_public: true +legal_terms: + eula: assets/EULA.pdf +manifest_version: 2.0.0 +name: crest_data_systems_armis +pricing: +- billing_type: tag_count + includes_assets: true + metric: datadog.marketplace.crest_data_systems.armis + product_id: armis + short_description: 호스트당 월별 + tag: cds_armis_tenant + unit_label: Armis tenant + unit_price: 195.0 +public_title: Armis Centrix +short_description: Armis에서 알림, 취약성, 장치, 장치 애플리케이션, 정책, 사용자 로그를 수집합니다. +supported_os: +- linux +- 윈도우즈(Windows) +- macos +tile: + changelog: CHANGELOG.md + classifier_tags: + - Supported OS::Linux + - Supported OS::Windows + - Supported OS::macOS + - Category::Cloud + - Category::Marketplace + - Category::Log Collection + - Category::Security + - Offering::Integration + - Submitted Data Type::Logs + - Submitted Data Type::Events + configuration: README.md#Setup + description: Armis에서 알림, 취약성, 장치, 장치 애플리케이션, 정책, 사용자에 대한 로그를 수집합니다. + media: + - caption: Armis - 알림 + image_url: images/crest-data-systems-armis-alerts.png + media_type: 이미지 + - caption: Armis - 장치 + image_url: images/crest-data-systems-armis-devices.png + media_type: 이미지 + - caption: Armis - 장치 애플리케이션 + image_url: images/crest-data-systems-armis-device-applications.png + media_type: 이미지 + - caption: Armis - 정책 + image_url: images/crest-data-systems-armis-policies.png + media_type: 이미지 + - caption: Armis - 사용자 + image_url: images/crest-data-systems-armis-users.png + media_type: 이미지 + - caption: Armis - 취약성 + image_url: images/crest-data-systems-armis-vulnerabilities.png + media_type: 이미지 + - caption: Armis - 개요 + image_url: images/crest-data-systems-armis-overview.png + media_type: 이미지 + overview: README.md#Overview + support: README.md#Support + title: Armis Centrix + uninstallation: README.md#Uninstallation +--- + + + + +## 개요 + +사이버 노출 관리 플랫폼인 Armis CentrixTM는 Armis AI-driven Asset Intelligence Engine에 기반하여 전 세계 수십억 개의 에셋을 실시간으로 확인, 보호, 방어, 관리합니다. 클라우드 기반 플랫폼은 사이버 에셋 위험을 사전에 완화하고, 취약점을 수정하며, 위협을 차단하고, 전체 공격 표면을 보호합니다. + +본 통합은 사이버 위험에 관한 실시간 감독 및 사전 대응 관리 기능을 제공하여 고객의 역량을 강화함으로써, 디지털 에셋을 지속적으로 보호하고 잠재적 위협을 방어합니다. 알림, 활동, 취약성, 장치, 장치 애플리케이션, 정책, 사용자를 Armis에서 모니터링할 수 있습니다. + +## 지원 + +지원이나 기능 요청이 있을 경우 다음 채널로 Crest Data Systems에 연락하세요. + +- 고객지원 이메일: [datadog.integrations@crestdata.ai][2] +- 영업 이메일: [datadog-sales@crestdata.ai][3] +- 웹사이트: [crestdata.ai][4] +- FAQ: [Crest Data Datadog Marketplace 통합 FAQ][12] + + +[1]: https://integration-crestdata.armis.com/settings/api-management +[2]: mailto:datadog.integrations@crestdata.ai +[3]: mailto:datadog-sales@crestdata.ai +[4]: https://www.crestdata.ai/ +[5]: https://docs.datadoghq.com/ko/agent/guide/agent-configuration-files/?tab=agentv6v7 +[6]: https://docs.datadoghq.com/ko/agent/guide/agent-commands/?tab=agentv6v7#start-stop-and-restart-the-agent +[7]: https://docs.datadoghq.com/ko/help/ +[8]: https://docs.datadoghq.com/ko/agent/guide/agent-commands/#agent-status-and-information +[9]: https://docs.datadoghq.com/ko/agent/?tab=Linux +[10]: https://docs.datadoghq.com/ko/account_management/api-app-keys +[11]: https://www.crestdatasys.com/datadog-integrations-readme/Armis.pdf +[12]: https://www.crestdatasys.com/datadog-integrations-readme/Crest_Data_Datadog_Integrations_FAQ.pdf +--- +이 애플리케이션은 Datadog Marketplace를 통해 제공되며 Datadog Technology Partner가 지원합니다. 사용하려면 Marketplace에서 구매하세요. \ No newline at end of file diff --git a/content/ko/integrations/crest_data_systems_cisco_secure_workload.md b/content/ko/integrations/crest_data_systems_cisco_secure_workload.md new file mode 100644 index 00000000000..cd09183ab40 --- /dev/null +++ b/content/ko/integrations/crest_data_systems_cisco_secure_workload.md @@ -0,0 +1,159 @@ +--- +algolia: + subcategory: Marketplace 통합 +app_id: crest-data-systems-cisco-secure-workload +app_uuid: 5014e003-b478-4094-b618-69e9e3cf507a +assets: + dashboards: + Cisco Secure Workload - Enforcement: assets/dashboards/crest_data_systems_cisco_secure_workload_enforcement.json + Cisco Secure Workload - Scope and Inventory: assets/dashboards/crest_data_systems_cisco_secure_workload_scope_and_inventory.json + Cisco Secure Workload - Traffic Flow: assets/dashboards/crest_data_systems_cisco_secure_workload_traffic_flow.json + Cisco Secure Workload - Vulnerabilities: assets/dashboards/crest_data_systems_cisco_secure_workload_vulnerabilities.json + Cisco Secure Workload - Workload Details: assets/dashboards/crest_data_systems_cisco_secure_workload_workload_details.json + Cisco Secure Workload - Workload Overview: assets/dashboards/crest_data_systems_cisco_secure_workload_workload_overview.json + Cisco Secure Workload Overview: assets/dashboards/crest_data_systems_cisco_secure_workload_overview.json + integration: + auto_install: false + configuration: + spec: assets/configuration/spec.yaml + events: + creates_events: true + metrics: + check: cd.cisco.secure.workload.workload_stats_details.tx_packet_count + metadata_path: metadata.csv + prefix: cd.cisco.secure.workload + service_checks: + metadata_path: assets/service_checks.json + source_type_id: 23600016 + source_type_name: crest_data_systems_cisco_secure_workload + logs: + source: crest-data-systems-cisco-secure-workload + monitors: + Agent Failed to Upgrade: assets/monitors/crest_data_systems_agent_upgrade_status_failed.json + Agent Registration Failed: assets/monitors/crest_data_systems_agent_enforcer_registration_status_failed.json + Potential Malicious Activity Detected from Consumer: assets/monitors/crest_data_systems_potential_malicious_activity_detected_from_consumer.json + Potential Malicious Activity Detected from Provider: assets/monitors/crest_data_systems_potential_malicious_activity_detected_from_provider.json + Total Active Internet Breach Vulnerabilities Exceeded Limit: assets/monitors/crest_data_systems_total_active_internet_breach_vulnerabilities_exceeds_limit.json + Total Critical Vulnerabilities Exceeded Limit: assets/monitors/crest_data_systems_total_critical_vulnerabilities_exceeds_limit.json + Total Easily Exploitable Vulnerabilities Exceeded Limit: assets/monitors/crest_data_systems_total_easily_exploitable_vulnerabilities_exceeds_limit.json + Total High Vulnerabilities Exceeded Limit: assets/monitors/crest_data_systems_total_high_vulnerabilities_exceeds_limit.json + Total Malware Exploitable Vulnerabilities Exceeded Limit: assets/monitors/crest_data_systems_total_malware_exploitable_vulnerabilities_exceeds_limit.json +author: + homepage: https://www.crestdata.ai + name: Crest Data + sales_email: datadog-sales@crestdata.ai + support_email: datadog.integrations@crestdata.ai + vendor_id: crest-data-systems +categories: +- security +- marketplace +custom_kind: 통합 +dependencies: [] +display_on_public_website: true +draft: false +git_integration_title: crest_data_systems_cisco_secure_workload +integration_id: crest-data-systems-cisco-secure-workload +integration_title: Cisco Secure Workload +integration_version: '' +is_public: true +legal_terms: + eula: assets/EULA.pdf +manifest_version: 2.0.0 +name: crest_data_systems_cisco_secure_workload +pricing: +- billing_type: tag_count + includes_assets: true + metric: datadog.marketplace.crest_data_systems.cisco_secure_workload + product_id: cisco-secure-workload + short_description: 워크로드당 월별 + tag: cds_cisco_secure_workload_workload + unit_label: Cisco Secure Workload의 워크로드 + unit_price: 1.0 +public_title: Cisco Secure Workload +short_description: Cisco Secure Workload의 워크로드, 시행, 트래픽, 인벤토리에 관한 로그와 메트릭을 모니터링하세요. +supported_os: +- linux +- 윈도우즈(Windows) +- macos +tile: + changelog: CHANGELOG.md + classifier_tags: + - Supported OS::Linux + - Supported OS::Windows + - Supported OS::macOS + - Category::Security + - Category::Marketplace + - Offering::Integration + - Submitted Data Type::Logs + - Submitted Data Type::Metrics + - Submitted Data Type::Events + configuration: README.md#Setup + description: Cisco Secure Workload의 워크로드, 시행, 트래픽, 인벤토리에 대한 로그와 메트릭을 모니터링하세요. + media: + - caption: Cisco Secure Workload - 워크로드 세부 정보 + image_url: images/crest-data-systems-cisco-secure-workload-workload-details.png + media_type: 이미지 + - caption: Cisco Secure Workload - 트래픽 플로 + image_url: images/crest-data-systems-cisco-secure-workload-traffic-flow.png + media_type: 이미지 + - caption: Cisco Secure Workload - 취약성 + image_url: images/crest-data-systems-cisco-secure-workload-vulnerabilities.png + media_type: 이미지 + - caption: Cisco Secure Workload 개요 + image_url: images/crest-data-systems-cisco-secure-workload-overview.png + media_type: 이미지 + - caption: Cisco Secure Workload - 범위 및 인벤토리 + image_url: images/crest-data-systems-cisco-secure-workload-scope-and-inventory.png + media_type: 이미지 + - caption: Cisco Secure Workload - 워크로드 개요 + image_url: images/crest-data-systems-cisco-secure-workload-workload-overview.png + media_type: 이미지 + - caption: Cisco Secure Workload - 시행 + image_url: images/crest-data-systems-cisco-secure-workload-enforcement.png + media_type: 이미지 + overview: README.md#Overview + support: README.md#Support + title: Cisco Secure Workload + uninstallation: README.md#Uninstallation +--- + + + + +## 개요 + +Cisco Secure Workload는 온프레미스 및 클라우드 인프라를 비롯한 다양한 환경의 애플리케이션과 워크로드를 위협 및 침해로부터 보호하도록 설계된 종합 보안 솔루션입니다. + +이 통합은 다음 데이터 소스를 로그로 모니터링 및 시각화합니다. +* 인벤토리 데이터 +* 트래픽 플로 +* 워크로드 세부 정보 +* 워크로드 패키지 +* 워크로드 취약성 +* 시행 데이터 + +아울러, 워크로드 및 인벤토리 통계에 관한 메트릭도 본 통합의 일부로써 수집됩니다. + +## 지원 + +지원이나 기능 요청이 있을 경우 다음 채널로 Crest Data Systems에 연락하세요. + +- 고객지원 이메일: [datadog.integrations@crestdata.ai][2] +- 영업 이메일: [datadog-sales@crestdata.ai][3] +- 웹사이트: [crestdata.ai][4] +- FAQs: [Crest Data Datadog Marketplace 통합 FAQ][11] + + +[1]: https://www.cisco.com/c/en/us/td/docs/security/workload_security/secure_workload/user-guide/3_9/cisco-secure-workload-user-guide-on-prem-v39/secure-workload-openapis.html#task_911065 +[2]: mailto:datadog.integrations@crestdata.ai +[3]: mailto:datadog-sales@crestdata.ai +[4]: https://www.crestdata.ai/ +[5]: https://docs.datadoghq.com/ko/agent/guide/agent-configuration-files/?tab=agentv6v7 +[6]: https://docs.datadoghq.com/ko/agent/guide/agent-commands/?tab=agentv6v7#start-stop-and-restart-the-agent +[7]: https://docs.datadoghq.com/ko/agent/guide/agent-commands/#agent-status-and-information +[8]: https://docs.datadoghq.com/ko/agent/?tab=Linux +[9]: https://docs.datadoghq.com/ko/account_management/api-app-keys +[10]: https://www.crestdatasys.com/datadog-integrations-readme/Cisco_Secure_Workload.pdf +[11]: https://www.crestdatasys.com/datadog-integrations-readme/Crest_Data_Datadog_Integrations_FAQ.pdf +--- +이 애플리케이션은 Datadog Marketplace를 통해 제공되며 Datadog Technology Partner가 지원합니다. 사용하려면 Marketplace에서 구매하세요. \ No newline at end of file diff --git a/content/ko/integrations/crest_data_systems_integration_backup_and_restore_tool.md b/content/ko/integrations/crest_data_systems_integration_backup_and_restore_tool.md new file mode 100644 index 00000000000..30624258c53 --- /dev/null +++ b/content/ko/integrations/crest_data_systems_integration_backup_and_restore_tool.md @@ -0,0 +1,123 @@ +--- +algolia: + subcategory: Marketplace 통합 +app_id: crest-data-systems-integration-backup-and-restore-tool +app_uuid: bac70338-c588-4766-90ea-3ca10fe259d1 +assets: + integration: + auto_install: false + configuration: + spec: assets/configuration/spec.yaml + events: + creates_events: false + service_checks: + metadata_path: assets/service_checks.json + source_type_id: 28271702 + source_type_name: crest_data_systems_integration_backup_and_restore_tool +author: + homepage: https://www.crestdata.ai + name: Crest Data + sales_email: datadog-sales@crestdata.ai + support_email: datadog.integrations@crestdata.ai + vendor_id: crest-data-systems +categories: +- marketplace +custom_kind: 통합 +dependencies: [] +display_on_public_website: true +draft: false +git_integration_title: crest_data_systems_integration_backup_and_restore_tool +integration_id: crest-data-systems-integration-backup-and-restore-tool +integration_title: 백업 및 복원 도구 +integration_version: '' +is_public: true +legal_terms: + eula: assets/EULA.pdf +manifest_version: 2.0.0 +name: crest_data_systems_integration_backup_and_restore_tool +pricing: +- billing_type: flat_fee + includes_assets: true + product_id: integration-backup-and-restore-tool + short_description: 통합 백업 및 복원 도구(IBRT) 통합의 월별 정액 요금입니다. + unit_price: 499.0 +public_title: 통합 백업 및 복원 도구 +short_description: 모든 Agent 구성 파일, 통합, 종속성을 백업하고 신속하게 복원하세요. +supported_os: +- linux +- 윈도우즈(Windows) +- macos +tile: + changelog: CHANGELOG.md + classifier_tags: + - Supported OS::Linux + - Supported OS::Windows + - Supported OS::macOS + - Category::Marketplace + - Offering::Integration + configuration: README.md#Setup + description: 모든 Agent 구성 파일, 통합, 종속성을 백업하고 신속하게 복원하세요. + media: + - caption: 통합 백업 및 복원 개요 + image_url: images/integration_backup_restore_overview.png + media_type: 이미지 + overview: README.md#Overview + support: README.md#Support + title: 통합 백업 및 복원 도구 + uninstallation: README.md#Uninstallation +--- + + + + +## 개요 + +통합 백업 및 복원 도구(IBRT)로 Datadog 환경을 한 단계 업그레이드하세요. 이 강력한 도구로 Datadog 구성의 백업을 쉽게 생성하여 워크플로를 간소화할 수 있습니다. 이를 통해 Agent 업그레이드 또는 마이그레이션 후 설정을 신속하게 복원합니다. + +### 기능 + +- 다음을 포함하여 Datadog 구성의 전체 백업을 생성합니다. + - 통합 + - 종속성 + - 구성 파일(예: 통합의 `datadog.yaml` 및 `conf.yaml` 파일) +- 여러 백업 위치를 지원하여 가장 적합한 위치에 백업을 저장할 수 있습니다. +- 유연한 백업 일정 예약: + - 필요에 따라 온디맨드 백업 실행 + - 특정 요구 사항에 따라 자동 실행되는 주기적 백업 일정 예약 +- 복구 중 다음 옵션을 제공합니다. + 1. **Agent 마이그레이션 또는 재설치**: 원활한 마이그레이션 환경을 위해 통합 `conf.yaml` 및 `datadog.yaml`을 포함한 모든 통합을 설치하고 YAML 파일을 복사합니다. + 2. **Agent 업그레이드**: 통합을 YAML 구성으로 설치하고 업그레이드 프로세스 중에 종속성을 유지합니다. + +### 지원되는 백업 위치 + +- 로컬 머신 +- 원격 머신 +- 클라우드 서비스: + - AWS S3 버킷 + - Azure Blob 스토리지 + - Google Cloud Storage + +### 사용 편의성 + +수동 설치 및 구성이 필요한 기존 백업 방법과 달리, IBRT는 간단하고 편리하게 백업을 생성하는 방법을 제공합니다. Agent 수준에서 온디맨드 명령을 실행하거나 주기적 백업 자동 실행을 예약하여 Datadog 구성의 백업을 쉽게 생성합니다. 백업을 복원하는 것 또한 간단하여 단일 스크립트만으로 구성을 다시 실행할 수 있습니다. + +## 지원 + +지원이나 기능 요청이 있을 경우 다음 채널로 Crest Data에 연락하세요. + +* Support Email: [datadog.integrations@crestdata.ai][7] +* Sales Email: [datadog-sales@crestdata.ai][8] +* 웹사이트: [crestdata.ai][3] +* FAQ: [Crest Data Datadog Marketplace 통합 FAQ][6] + +[1]: https://docs.datadoghq.com/ko/agent/guide/agent-commands/?tab=agentv6v7#start-stop-and-restart-the-agent +[2]: https://docs.datadoghq.com/ko/agent/guide/agent-commands/#agent-status-and-information +[3]: https://www.crestdata.ai/ +[4]: https://docs.crestdata.ai/datadog-integrations-readme/IBRT.pdf +[5]: https://docs.datadoghq.com/ko/agent/ +[6]: https://docs.crestdata.ai/datadog-integrations-readme/Crest_Data_Datadog_Integrations_FAQ.pdf +[7]: mailto:datadog.integrations@crestdata.ai +[8]: mailto:datadog-sales@crestdata.ai + +--- +이 애플리케이션은 Datadog Marketplace를 통해 제공되며 Datadog Technology Partner가 지원합니다. 사용하려면 Marketplace에서 구매하세요. \ No newline at end of file diff --git a/content/ko/integrations/crest_data_systems_sybase.md b/content/ko/integrations/crest_data_systems_sybase.md new file mode 100644 index 00000000000..df97efd877a --- /dev/null +++ b/content/ko/integrations/crest_data_systems_sybase.md @@ -0,0 +1,130 @@ +--- +algolia: + subcategory: Marketplace 통합 +app_id: crest-data-systems-sybase +app_uuid: 3aafbab1-a91b-4566-a6ce-88323867cb8b +assets: + dashboards: + SAP Sybase ASE - Overview: assets/dashboards/crest_data_sybase_overview.json + integration: + auto_install: false + configuration: + spec: assets/configuration/spec.yaml + events: + creates_events: true + metrics: + check: cds.sybase.monNetworkIO.BytesSent + metadata_path: metadata.csv + prefix: cds.sybase + service_checks: + metadata_path: assets/service_checks.json + source_type_id: 8061915 + source_type_name: crest_data_systems_sybase + monitors: + Sybase CPU Utilization is high: assets/monitors/crest_data_cpu_utilization_for_sybase.json + Sybase CPU Utilization is reaching its limit: assets/monitors/crest_data_forecast_cpu_utilization_for_sybase.json + Sybase Disk Utilization is high: assets/monitors/crest_data_disk_utilization_for_sybase.json + Sybase Disk Utilization is reaching its limit: assets/monitors/crest_data_forecast_disk_utilization_for_sybase.json + Sybase Global Heap Utilization is high: assets/monitors/crest_data_global_heap_utilization_for_sybase.json + Sybase Global Heap Utilization is reaching its limit: assets/monitors/crest_data_forecast_global_heap_utilization_for_sybase.json + Sybase I/O Utilization is high: assets/monitors/crest_data_io_utilization_for_sybase.json + Sybase I/O Utilization is reaching its limit: assets/monitors/crest_data_forecast_io_utilization_for_sybase.json + Sybase Memory Utilization is high: assets/monitors/crest_data_memroy_utilization_for_sybase.json + Sybase Memory Utilization is reaching its limit: assets/monitors/crest_data_forecast_memory_utilization_for_sybase.json +author: + homepage: https://www.crestdata.ai + name: Crest Data + sales_email: datadog-sales@crestdata.ai + support_email: datadog.integrations@crestdata.ai + vendor_id: crest-data-systems +categories: +- 데이터 저장 +- marketplace +- 경고 +- sap +custom_kind: integration +dependencies: [] +display_on_public_website: true +draft: false +git_integration_title: crest_data_systems_sybase +integration_id: crest-data-systems-sybase +integration_title: SAP Sybase ASE +integration_version: '' +is_public: true +legal_terms: + eula: assets/EULA.pdf +manifest_version: 2.0.0 +name: crest_data_systems_sybase +pricing: +- billing_type: tag_count + includes_assets: true + metric: datadog.marketplace.crest_data_systems.sybase + product_id: sybase + short_description: Sybase 인스턴스당 월별 + tag: cds_sybase_host + unit_label: 활성 Sybase 인스턴스 + unit_price: 195.0 +public_title: SAP Sybase ASE +short_description: SAP Sybase ASE 서버의 성능 및 사용량 모니터링 +supported_os: +- linux +- windows +tile: + changelog: CHANGELOG.md + classifier_tags: + - 지원 OS::Linux + - 지원 OS::Windows + - 카테고리::데이터 저장 + - Category::Marketplace + - Category::Alerting + - Category::SAP + - 제공::통합 + - Submitted Data Type::Metrics + - Submitted Data Type::Events + configuration: README.md#Setup + description: SAP Sybase ASE 서버의 성능 및 사용량 모니터링 + media: + - caption: SAP Sybase ASE - 개요 + image_url: images/crest_data_sybase_overview.png + media_type: image + overview: README.md#Overview + support: README.md#Support + title: SAP Sybase ASE + uninstallation: README.md#Uninstallation +--- + + + + +## 개요 + +Sybase라고도 불리는 SAP Adaptive Server Enterprise(ASE)는 관계형 데이터베이스 관리 시스템으로, 관계형 관리 모델을 사용하여 모든 산업에서 성능, 신뢰성, 효율성 면에서 증가하는 수요를 충족하는 고성능 SQL 데이터베이스 서버입니다. + +본 통합은 시스템 CPU 사용률, I/O CPU 사용률, 네트워크 통계 등과 같은 실시간 서버 통계를 가져와서 Datadog 대시보드에서 데이터베이스 서버 상태를 시각화합니다. + +## 지원 + +지원이나 기능 요청이 있을 경우 다음 채널로 Crest Data에 연락하세요. + +- Support Email: [datadog.integrations@crestdata.ai][7] +- Sales Email: [datadog-sales@crestdata.ai][8] +- 웹사이트: [crestdata.ai][3] +- FAQ: [Crest Data Datadog Marketplace 통합 FAQ][11] + + + +[1]: https://docs.datadoghq.com/ko/agent/guide/agent-commands/?tab=agentv6v7#start-stop-and-restart-the-agent +[2]: https://docs.datadoghq.com/ko/agent/guide/agent-commands/#agent-status-and-information +[3]: https://www.crestdata.ai/ +[4]: https://docs.datadoghq.com/ko/agent/guide/agent-configuration-files/?tab=agentv6v7 +[5]: https://docs.datadoghq.com/ko/help/ +[6]: https://www.devart.com/odbc/ase/ +[7]: mailto:datadog.integrations@crestdata.ai +[8]: mailto:datadog-sales@crestdata.ai +[9]: https://docs.crestdata.ai/datadog-integrations-readme/Sybase.pdf +[10]: https://docs.datadoghq.com/ko/account_management/api-app-keys +[11]: https://docs.crestdata.ai/datadog-integrations-readme/Crest_Data_Datadog_Integrations_FAQ.pdf +[12]: https://docs.datadoghq.com/ko/agent/?tab=Linux + +--- +이 애플리케이션은 Datadog Marketplace를 통해 제공되며 Datadog Technology Partner가 지원합니다. 사용하려면 Marketplace에서 구매하세요. \ No newline at end of file diff --git a/content/ko/integrations/google_eventarc.md b/content/ko/integrations/google_eventarc.md new file mode 100644 index 00000000000..ae3cea8aa3b --- /dev/null +++ b/content/ko/integrations/google_eventarc.md @@ -0,0 +1,112 @@ +--- +app_id: google-eventarc +app_uuid: a10c14f9-f630-439f-a181-c49a1ac79dc5 +assets: + integration: + auto_install: false + events: + creates_events: false + service_checks: + metadata_path: assets/service_checks.json + source_type_id: 346 + source_type_name: Google Eventarc +author: + homepage: https://www.datadoghq.com + name: Datadog + sales_email: info@datadoghq.com + support_email: help@datadoghq.com +categories: +- cloud +- google cloud +custom_kind: integration +dependencies: [] +display_on_public_website: true +draft: false +git_integration_title: google_eventarc +integration_id: google-eventarc +integration_title: Google Eventarc +integration_version: '' +is_public: true +manifest_version: 2.0.0 +name: google_eventarc +public_title: Google Eventarc +short_description: Eventarc로 Google 서비스, SaaS 및 자체 앱에서 이벤트를 가져옵니다. +supported_os: [] +tile: + changelog: CHANGELOG.md + classifier_tags: + - 카테고리::클라우드 + - Category::Google Cloud + - 제공::통합 + configuration: README.md#Setup + description: Eventarc로 Google 서비스, SaaS 및 자체 앱에서 이벤트를 가져옵니다. + media: [] + overview: README.md#Overview + resources: + - resource_type: 블로그 + url: https://www.datadoghq.com/blog/incident-response-eventarc-datadog/ + support: README.md#Support + title: Google Eventarc +--- + + +## 개요 + +Datadog 이벤트를 [Eventarc][1]로 전송하여 Google 서비스에 전달하면 Datadog 모니터 알림을 통해 Eventarc 기반 워크플로를 시작할 수 있습니다. + +## 설정 + +1. 알림을 수신하는 각 GCP 프로젝트에 기본 [GCP 통합][2]이 설치되어 있는지 확인합니다. + +2. Google Cloud Console에서 [Eventarc 채널을 생성][3]합니다 + +3. Datadog 애플리케이션 내에서 아래 예시의 구문을 사용하여 모니터의 [알림 섹션][4]에 채널 이름과 활성화 토큰을 설정합니다. + +![Datadog 모니터 구성 페이지의 'Say what’s happening' 섹션에 HDD Disk Size Above Capacity라는 제목과, 알림 본문에 다음 예시와 같이 Eventarc 채널로 이벤트를 전송하는 문장이 포함되어 있습니다. '알림은 @eventarc-datadog-sandbox_us-central1_my-channel로 전송되며, 이 채널은 Cloud Function: Bump Quota를 트리거합니다.'][5] + +### 검증 + +통합이 활성화되면 Google Cloud Console의 채널이 **Pending**에서 **Active**으로 바뀝니다. + +### 자동화된 액션 + +모니터용 신규 아웃바운드 알림 채널을 설정해 GCP Eventarc 통합으로 자동화 작업을 시작합니다. 자동화 작업으로 GCP 리소스를 다음과 같이 구성할 수 있습니다. + + - Datadog 모니터를 사용하여 Eventarc 워크플로 시작하기 + - Google 환경에서 Cloud Functions, BigQuery 등을 Datadog 모니터와 연결합니다. + - 알림 이벤트 내의 정보를 사용하여 자동 복구 파이프라인 및 런북을 실행하고, 분석 쿼리 등을 실행합니다. + +대상으로 지정할 수 있는 리소스 전체 목록은 [GCP 문서][6]에서 확인할 수 있습니다. + +## 수집한 데이터 + +### 메트릭 + +Google Eventarc 통합은 메트릭을 포함하지 않습니다. + +### 이벤트 + +Google Eventarc 통합은 이벤트를 포함하지 않습니다. + +### 서비스 점검 + +Google Eventarc 통합은 서비스 점검을 포함하지 않습니다. + +## 트러블슈팅 + +도움이 필요하신가요? [Datadog 지원팀][7]에 문의하세요. + +## 추가 읽기 + +기타 유용한 문서, 링크 및 기사: + +- [Eventarc 및 Datadog으로 인시던트 응답 워크플로 자동화하기][8] + +[1]: https://cloud.google.com/eventarc/docs +[2]: https://docs.datadoghq.com/ko/integrations/google_cloud_platform/ +[3]: https://cloud.google.com/eventarc/docs/third-parties/create-channels +[4]: https://docs.datadoghq.com/ko/monitors/notify/ +[5]: images/eventarc_channel_notification.png +[6]: https://cloud.google.com/eventarc/docs/targets +[7]: https://docs.datadoghq.com/ko/help/ +[8]: https://www.datadoghq.com/blog/incident-response-eventarc-datadog/ \ No newline at end of file diff --git a/content/ko/integrations/ibm_ace.md b/content/ko/integrations/ibm_ace.md new file mode 100644 index 00000000000..aba2f5805dc --- /dev/null +++ b/content/ko/integrations/ibm_ace.md @@ -0,0 +1,195 @@ +--- +app_id: ibm-ace +app_uuid: 81e0df5f-8778-4558-88c3-884dcab5ce89 +assets: + dashboards: + IBM ACE Overview: assets/dashboards/overview.json + integration: + auto_install: true + configuration: + spec: assets/configuration/spec.yaml + events: + creates_events: false + metrics: + check: ibm_ace.messages.current + metadata_path: metadata.csv + prefix: ibm_ace. + service_checks: + metadata_path: assets/service_checks.json + source_type_id: 10262 + source_type_name: IBM ACE +author: + homepage: https://www.datadoghq.com + name: Datadog + sales_email: info@datadoghq.com + support_email: help@datadoghq.com +categories: +- 로그 수집 +custom_kind: integration +dependencies: +- https://github.com/DataDog/integrations-core/blob/master/ibm_ace/README.md +display_on_public_website: true +draft: false +git_integration_title: ibm_ace +integration_id: ibm-ace +integration_title: IBM ACE +integration_version: 4.1.0 +is_public: true +manifest_version: 2.0.0 +name: ibm_ace +public_title: IBM ACE +short_description: IBM ACE 리소스 통계 및 메시지 플로 모니터링 +supported_os: +- 리눅스 +- windows +- macos +tile: + changelog: CHANGELOG.md + classifier_tags: + - Category::Log Collection + - Supported OS::Linux + - Supported OS::Windows + - Supported OS::macOS + - 제공::통합 + configuration: README.md#Setup + description: IBM ACE 리소스 통계 및 메시지 플로 모니터링 + media: [] + overview: README.md#Overview + support: README.md#Support + title: IBM ACE +--- + + + + +## 개요 + +본 점검은 Datadog Agent를 통해 [IBM ACE][1]를 모니터링합니다. + +## 설정 + +아래 지침을 따라 호스트에서 실행되는 에이전트에 대해 이 점검을 설치하고 설정하세요. 컨테이너화된 환경의 경우 이러한 지침을 적용하는 데 가이드가 필요하면 [오토파일럿 통합 템플릿][3]을 참조하세요. + +### IBM MQ + +IBM ACE에서 메트릭 메시지를 받아 처리하려면 [IBM MQ][3] 서버가 필요합니다. + +
+Linux의 경우 계속하기 전에 IBM MQ 설정에 설명된 대로 LD_LIBRARY_PATH 환경 변수를 설정해야 합니다. +
+ +### IBM ACE + +1. 최소 12.0.2.0 버전 이상이 설치되어 있는지 확인합니다. +2. 다음과 같이 `.policyxml` 형식으로 이름이 지정된 [MQEndpoint 정책][4] 파일을 적용합니다. + ```xml + + + + CLIENT + ... + ... + 1414 + ... + + + + ``` +3. `mqsisetdbparms -n mq:: -u -p `를 실행하여 자격 증명을 [설정][5]합니다. +4. `server.conf.yaml` 파일을 다음 설정으로 업데이트하세요. + ```yaml + remoteDefaultQueueManager: '{DefaultPolicies}:' + Events: + OperationalEvents: + MQ: + enabled: true + BusinessEvents: + MQ: + enabled: true + outputFormat: json + Statistics: + Resource: + reportingOn: true + Snapshot: + publicationOn: active + outputFormat: json + accountingOrigin: basic + nodeDataLevel: advanced + threadDataLevel: basic + Monitoring: + MessageFlow: + publicationOn: active + eventFormat: MonitoringEventV2 + AdminLog: + enabled: true + fileLog: true + consoleLog: true + consoleLogFormat: ibmjson + ``` +5. IBM ACE를 다시 시작합니다. + +### 설치 + +IBM ACE 점검은 [Datadog Agent][6] 패키지에 포함되어 있습니다. +서버에 추가 설치가 필요하지 않습니다. + +### 구성 + +1. Agent의 구성 디렉터리 루트에 있는 `conf.d/` 폴더에서 `ibm_ace.d/conf.yaml` 파일을 편집하여 ibm_ace 성능 데이터 수집을 시작하세요. 사용 가능한 모든 구성 옵션은 [샘플 ibm_ace.d/conf.yaml][7]을 참조하세요. + +2. [Agent를 재시작합니다][8]. + +### 검증 + +[Agent의 상태 하위 명령을 실행][9]하고 Checks 섹션에서 `ibm_ace`를 찾습니다. + +## 수집한 데이터 + +### 메트릭 +{{< get-metrics-from-git "ibm_ace" >}} + + +### 이벤트 + +IBM ACE 통합은 이벤트를 포함하지 않습니다. + +### 서비스 점검 +{{< get-service-checks-from-git "ibm_ace" >}} + + +### 로그 수집 + +1. Datadog Agent에서 로그 수집은 기본적으로 비활성화되어 있으므로 `datadog.yaml` 파일에서 활성화합니다. + + ```yaml + logs_enabled: true + ``` + +2. IBM ACE 로그 수집을 시작하려면 `ibm_ace.d/conf.yaml` 파일에 이 구성 블록을 추가하세요. + + ```yaml + logs: + - type: file + path: /home/aceuser/ace-server/log/integration_server.txt + source: ibm_ace + ``` + + `path` 파라미터 값을 환경에 맞게 바꾸세요. 사용할 수 있는 설정 옵션을 모두 보려면 [샘플 `ibm_ace.d/conf.yaml`][7]을 참고하세요. + +## 트러블슈팅 + +도움이 필요하신가요? [Datadog 고객 지원팀][12]에 문의해주세요. + + +[1]: https://www.ibm.com/docs/en/app-connect/12.0?topic=overview-app-connect-enterprise-introduction +[2]: https://docs.datadoghq.com/ko/agent/kubernetes/integrations/ +[3]: https://www.ibm.com/products/mq +[4]: https://www.ibm.com/docs/en/app-connect/12.0?topic=properties-mqendpoint-policy +[5]: https://www.ibm.com/docs/en/app-connect/12.0?topic=mq-connecting-secured-queue-manager +[6]: https://app.datadoghq.com/account/settings/agent/latest +[7]: https://github.com/DataDog/integrations-core/blob/master/ibm_ace/datadog_checks/ibm_ace/data/conf.yaml.example +[8]: https://docs.datadoghq.com/ko/agent/guide/agent-commands/#start-stop-and-restart-the-agent +[9]: https://docs.datadoghq.com/ko/agent/guide/agent-commands/#agent-status-and-information +[10]: https://github.com/DataDog/integrations-core/blob/master/ibm_ace/metadata.csv +[11]: https://github.com/DataDog/integrations-core/blob/master/ibm_ace/assets/service_checks.json +[12]: https://docs.datadoghq.com/ko/help/ \ No newline at end of file diff --git a/content/ko/integrations/ibm_db2.md b/content/ko/integrations/ibm_db2.md new file mode 100644 index 00000000000..a0ad2b40ed6 --- /dev/null +++ b/content/ko/integrations/ibm_db2.md @@ -0,0 +1,348 @@ +--- +app_id: ibm-db2 +app_uuid: e588293a-833f-4888-a7b4-2208e087059a +assets: + dashboards: + IBM Db2 Overview: assets/dashboards/overview.json + integration: + auto_install: true + configuration: + spec: assets/configuration/spec.yaml + events: + creates_events: true + metrics: + check: ibm_db2.connection.active + metadata_path: metadata.csv + prefix: ibm_db2. + service_checks: + metadata_path: assets/service_checks.json + source_type_id: 10054 + source_type_name: IBM Db2 +author: + homepage: https://www.datadoghq.com + name: Datadog + sales_email: info@datadoghq.com + support_email: help@datadoghq.com +categories: +- 데이터 스토어 +- 로그 수집 +custom_kind: integration +dependencies: +- https://github.com/DataDog/integrations-core/blob/master/ibm_db2/README.md +display_on_public_website: true +draft: false +git_integration_title: ibm_db2 +integration_id: ibm-db2 +integration_title: IBM Db2 +integration_version: 4.0.1 +is_public: true +manifest_version: 2.0.0 +name: ibm_db2 +public_title: IBM Db2 +short_description: IBM Db2 데이터베이스에서 테이블스페이스, 버퍼 풀 및 기타 메트릭을 모니터링하세요. +supported_os: +- 리눅스 +- macos +- windows +tile: + changelog: CHANGELOG.md + classifier_tags: + - Supported OS::Linux + - Supported OS::macOS + - Supported OS::Windows + - 카테고리::데이터 저장 + - Category::Log Collection + - 제공::통합 + configuration: README.md#Setup + description: IBM Db2 데이터베이스에서 테이블 공간, 버퍼 풀 및 기타 메트릭을 모니터링하세요. + media: [] + overview: README.md#Overview + resources: + - resource_type: 블로그 + url: https://www.datadoghq.com/blog/monitor-db2-with-datadog + support: README.md#Support + title: IBM Db2 +--- + + + + +![default dashboard][1] + +## 개요 + +이 검사는 Datadog Agent를 통해 [IBM Db2][2]를 모니터링합니다. + +## 설정 + +### 설치 + +IBM Db2 검사는 [Datadog Agent][3] 패키지에 포함되어 있습니다. + +#### 종속성 + +[ibm_db][4] 클라이언트 라이브러리가 필요합니다. 설치하려면 작동하는 컴파일러가 있는지 확인하고 다음을 실행하세요. + +##### Unix + +```text +sudo -Hu dd-agent /opt/datadog-agent/embedded/bin/pip install ibm_db==3.2.3 +``` + +참고: Python 2를 실행하는 Agent의 경우 `ibm_db=3.1.0` 대신 `ibm_db==3.0.1`을 사용하세요. + +##### Windows + +에이전트 버전 6.11 미만인 경우: + +```text +"C:\Program Files\Datadog\Datadog Agent\embedded\python.exe" -m pip install ibm_db==3.0.1 +``` + +Agent 버전 6.12 이상 및 7.0 미만인 경우: + +```text +"C:\Program Files\Datadog\Datadog Agent\embedded\python.exe" -m pip install ibm_db==3.0.1 +``` + +Agent 버전 7.0 이상 7.58 미만의 경우, + +```text +"C:\Program Files\Datadog\Datadog Agent\embedded3\python.exe" -m pip install ibm_db==3.1.4 +``` + +Agent 버전 7.58 이상인 경우, + +```text +"C:\Program Files\Datadog\Datadog Agent\embedded3\python.exe" -m pip install ibm_db==3.2.3 +``` + +Linux에서는 XML 기능이 필요할 수 있습니다. 빌드 과정 중에 오류가 발생하는 경우 `libxslt-dev`(또는 RPM의 경우 `libxslt-devel`)를 설치하세요. + +#### 모니터링 활성화 + +IBM Db2 통합은 다음 테이블 함수를 사용하여 데이터를 가져옵니다. +* `MON_GET_TABLESPACE` +* `MON_GET_TRANSACTION_LOG` +* `MON_GET_BUFFERPOOL` +* `MON_GET_DATABASE` +* `MON_GET_INSTANCE` + +이러한 테이블 함수에 대한 자세한 내용은 [공식 IBM 문서][5]를 참조하세요. + +Db2 인스턴스를 모니터링하려면 위의 5개 테이블 함수에 대한 `EXECUTE` 권한이 있는 Db2 사용자를 생성하거나 Db2 사용자에게 다음 역할 중 하나를 부여합니다. +* `DATAACCESS` 권한 +* `DBADM` 권한 +* `SQLADM` 권한 + +인스턴스, 연결된 데이터베이스 및 데이터베이스 개체의 상태를 모니터링하려면, 모니터링하려는 각 개체에 데이터베이스 시스템 모니터 스위치를 활성화합니다. +* Statement +* Lock +* 테이블 +* Buffer pool + +인스턴스 마스터 사용자로 전환하고 `db2` 프롬프트에서 다음 명령을 실행합니다. + +```text +update dbm cfg using HEALTH_MON on +update dbm cfg using DFT_MON_STMT on +update dbm cfg using DFT_MON_LOCK on +update dbm cfg using DFT_MON_TABLE on +update dbm cfg using DFT_MON_BUFPOOL on +``` + +다음으로 `get dbm cfg`를 실행하면 다음이 표시됩니다. + +```text + Default database monitor switches + Buffer pool (DFT_MON_BUFPOOL) = ON + Lock (DFT_MON_LOCK) = ON + Sort (DFT_MON_SORT) = OFF + Statement (DFT_MON_STMT) = ON + Table (DFT_MON_TABLE) = ON + Timestamp (DFT_MON_TIMESTAMP) = ON + Unit of work (DFT_MON_UOW) = OFF + Monitor health of instance and databases (HEALTH_MON) = ON +``` + +### 구성 + +{{< tabs >}} +{{% tab "호스트" %}} + +#### 호스트 + +호스트에서 실행 중인 에이전트에 이 점검을 구성하는 방법: + +##### 메트릭 수집 + +1. Agent의 구성 디렉터리 루트에 있는 `conf.d/` 폴더에서 `ibm_db2.d/conf.yaml` 파일을 편집하여 `ibm_db2` 성능 데이터 수집을 시작하세요. 사용 가능한 모든 구성 옵션은 [샘플 ibm_db2.d/conf.yaml][1]을 참조하세요. + +2. [에이전트를 재시작합니다][2]. + +##### 로그 수집 + +_에이전트 버전 > 6.0에서 사용 가능_ + +1. 로그 수집은 Datadog 에이전트에서 기본적으로 비활성화되어 있습니다. `datadog.yaml` 파일에서 활성화합니다. + + ```yaml + logs_enabled: true + ``` + +2. IBM Db2 로그 수집을 시작하려면 `ibm_db2.d/conf.yaml` 파일에 다음 구성 블록을 추가하세요. + + ```yaml + logs: + - type: file + path: /home/db2inst1/sqllib/db2dump/db2diag.log + source: ibm_db2 + service: db2sysc + log_processing_rules: + - type: multi_line + name: new_log_start_with_date + pattern: \d{4}\-(0?[1-9]|[12][0-9]|3[01])\-(0?[1-9]|1[012]) + ``` + +3. [에이전트를 재시작합니다][2]. + +[1]: https://github.com/DataDog/integrations-core/blob/master/ibm_db2/datadog_checks/ibm_db2/data/conf.yaml.example +[2]: https://docs.datadoghq.com/ko/agent/guide/agent-commands/#start-stop-restart-the-agent +{{% /tab %}} +{{% tab "컨테이너화된 환경" %}} + +#### 컨테이너화된 환경 + +컨테이너화된 환경의 경우 [자동탐지 통합 템플릿][1]에 아래 파라미터를 적용하는 방법이 안내되어 있습니다. + +##### 메트릭 수집 + +| 파라미터 | 값 | +| -------------------- | ------------------------------------------------------------------------------------------------------------- | +| `` | `ibm_db2` | +| `` | 비어 있음 또는 `{}` | +| `` | `{"db": "", "username":"", "password":"", "host":"%%host%%", "port":"%%port%%"}` | + +##### 로그 수집 + +_에이전트 버전 > 6.0에서 사용 가능_ + +Datadog 에이전트에서 로그 수집은 기본값으로 비활성화되어 있습니다. 이를 활성화하려면 [쿠버네티스(Kubernetes) 로그 수집][2]을 참조하세요. + +| 파라미터 | 값 | +| -------------- | ---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------- | +| `` | `{"source": "ibm_db2", "service": "", "log_processing_rules": {"type":"multi_line","name":"new_log_start_with_date", "pattern":"\d{4}\-(0?[1-9]|[12][0-9]|3[01])\-(0?[1-9]|1[012])"}}` | + +[1]: https://docs.datadoghq.com/ko/agent/kubernetes/integrations/ +[2]: https://docs.datadoghq.com/ko/agent/kubernetes/log/ +{{% /tab %}} +{{< /tabs >}} + +### 검증 + +[Agent의 상태 하위 명령을 실행][6]하고 Checks 섹션에서 `ibm_db2`를 찾습니다. + +## 수집한 데이터 + +### 메트릭 +{{< get-metrics-from-git "ibm_db2" >}} + + +### 이벤트 + +- 테이블스페이스 상태가 변경될 때마다 `ibm_db2.tablespace_state_change`가 트리거됩니다. + +### 서비스 점검 +{{< get-service-checks-from-git "ibm_db2" >}} + + +## 트러블슈팅 + +### CLI Driver SQL1531N 오류 + +다음과 같은 오류 로그를 생성하는 문제가 발생하는 경우: + +``` +2023-08-10 23:34:47 UTC | CORE | ERROR | (pkg/collector/python/datadog_agent.go:129 in LogMessage) | ibm_db2:c051131490335a94 | (ibm_db2.py:563) | Unable to connect to database `datadog` as user `db2inst1`: [IBM][CLI Driver] SQL1531N The connection failed because the name specified with the DSN connection string keyword could not be found in either the db2dsdriver.cfg configuration file or the db2cli.ini configuration file. Data source name specified in the connection string: "DATADOG". SQLCODE=-1531 +``` + +다음 시나리오 중 하나로 인해 발생할 가능성이 높습니다. +- 구성(conf.yaml)에 호스트 및 포트 구성이 누락되었습니다. +- CLI 드라이버는 `db2cli.ini` 및 `db2dsdriver.cfg`가 없기 때문에 데이터베이스를 찾을 수 없습니다. + +Agent는 데이터베이스에 적절하게 연결할 위치를 결정하기 위해 위의 두 시나리오 모두에 대한 정보가 필요합니다. 이 문제를 해결하려면 이 문제가 발생한 모든 `ibm_db2` 검사 인스턴스에 대해 호스트 또는 포트 파라미터를 포함할 수 있습니다. 다른 방법으로는 `db2cli.ini` 또는 `db2dsdriver.cfg` 파일에 정의된 DSN을 사용하려는 경우 Agent가 사용하는 `clidriver` 디렉터리에 해당 파일을 복사할 수 있습니다. 일반적인 상황에서 해당 디렉터리는 Linux의 경우에 `/opt/datadog-agent/embedded/lib/python3.9/site-packages/clidriver/cfg`에 있습니다. + +### `ibm_db` 클라이언트 라이브러리를 오프라인으로 설치 + +Air-Gapped 환경에 있거나 `pip install ibm_db==x.y.z`(버전 번호: `x.y.z`) 실행이 불가능한 제한된 네트워크에 있는 경우 다음 방법을 사용하여 `ibm_db`를 설치할 수 있습니다. + + +1. 네트워크 액세스가 가능한 머신에서 [`ibm_db` 라이브러리][7] 및 [ODBC 및 CLI][8]에 대한 소스 tarball을 다운로드합니다. ODBC와 CLI는 `ibm_db` 라이브러리에서 필요하기 때문에 별도로 다운로드해야 하지만 `pip`를 통해서는 다운로드할 수 없습니다. 다음 스크립트는 Linux 시스템에 `ibm_db==x.y.z`(버전 번호: `x.y.z`)에 대한 아카이브 파일을 설치합니다. + + ``` + curl -Lo ibm_db.tar.gz https://github.com/ibmdb/python-ibmdb/archive/refs/tags/vx.y.z.tar.gz + + curl -Lo linuxx64_odbc_cli.tar.gz https://public.dhe.ibm.com/ibmdl/export/pub/software/data/db2/drivers/odbc_cli/linuxx64_odbc_cli.tar.gz + ``` + +1. 두 파일을 제한된 호스트로 전송한 다음 아카이브를 추출합니다. + + ``` + tar -xvf ibm_db.tar.gz + + tar -xvf linuxx64_odbc_cli.tar.gz + ``` + +1. `linuxx64_odbc_cli.tar.gz`에서 `/clidriver`가 추출된 위치로 `IBM_DB_HOME` 환경 변수를 설정합니다. 이렇게 하면 설치가 실패하므로 `ibm_db` 라이브러리가 새 버전의 ODBC 및 CLI를 설치하는 것을 방지할 수 있습니다. + + ``` + export IBM_DB_HOME=/path/to/clidriver + ``` + +1. Agent에 내장된 [`pip`][9]를 사용하여 `ibm_db` 라이브러리를 로컬로 설치합니다. 이 라이브러리의 파일은 `ibm_db.tar.gz`에서 추출된 `python-ibmdb-x.y.z` 내에 포함되어 있습니다. + + ``` + /opt/datadog-agent/embedded/bin/pip install --no-index --no-deps --no-build-isolation /path/to/python-ibmdb-x.y.z/IBM_DB/ibm_db/ + ``` + +다음 오류가 나타나는 경우: + +``` + error: subprocess-exited-with-error + + × Preparing metadata (pyproject.toml) did not run successfully. + | exit code: 1 + -> [8 lines of output] + Detected 64-bit Python + Detected platform = linux, uname = x86_64 + Downloading https://public.dhe.ibm.com/ibmdl/export/pub/software/data/db2/drivers/odbc_cli/linuxx64_odbc_cli.tar.gz + Downloading DSDriver from url = https://public.dhe.ibm.com/ibmdl/export/pub/software/data/db2/drivers/odbc_cli/linuxx64_odbc_cli.tar.gz + Pre-requisite check [which gcc] : Failed + + No Gcc installation detected. + Please install gcc and continue with the installation of the ibm_db. + [end of output] +``` + +`gcc` 설치가 필요할 수 있습니다. + +도움이 필요하신가요? [Datadog 고객 지원팀][10]에 문의해주세요. + +## 참고 자료 + +기타 유용한 문서, 링크 및 기사: + +- [Datadog으로 IBM DB2 모니터링][11] + + +[1]: https://raw.githubusercontent.com/DataDog/integrations-core/master/ibm_db2/images/dashboard_overview.png +[2]: https://www.ibm.com/analytics/us/en/db2 +[3]: https://app.datadoghq.com/account/settings/agent/latest +[4]: https://github.com/ibmdb/python-ibmdb +[5]: https://www.ibm.com/docs/en/db2oc?topic=views-monitor-procedures-functions +[6]: https://docs.datadoghq.com/ko/agent/guide/agent-commands/#agent-status-and-information +[7]: https://pypi.org/project/ibm-db/#files +[8]: https://public.dhe.ibm.com/ibmdl/export/pub/software/data/db2/drivers/odbc_cli/ +[9]: https://docs.datadoghq.com/ko/developers/guide/custom-python-package/?tab=linux +[10]: https://docs.datadoghq.com/ko/help/ +[11]: https://www.datadoghq.com/blog/monitor-db2-with-datadog \ No newline at end of file diff --git a/content/ko/integrations/kubevirt_controller.md b/content/ko/integrations/kubevirt_controller.md new file mode 100644 index 00000000000..be73cbd174b --- /dev/null +++ b/content/ko/integrations/kubevirt_controller.md @@ -0,0 +1,159 @@ +--- +app_id: kubevirt-controller +app_uuid: f213050d-a54c-4a72-bf51-e9290a7d050c +assets: + integration: + auto_install: true + configuration: + spec: assets/configuration/spec.yaml + events: + creates_events: false + metrics: + check: + - kubevirt_controller.virt_controller.leading_status + - kubevirt_controller.virt_controller.ready_status + metadata_path: metadata.csv + prefix: kubevirt_controller. + process_signatures: + - virt-controller + service_checks: + metadata_path: assets/service_checks.json + source_type_id: 22545001 + source_type_name: KubeVirt Controller +author: + homepage: https://www.datadoghq.com + name: Datadog + sales_email: info@datadoghq.com + support_email: help@datadoghq.com +categories: +- 컨테이너 +- kubernetes +custom_kind: 통합 +dependencies: +- https://github.com/DataDog/integrations-core/blob/master/kubevirt_controller/README.md +display_on_public_website: true +draft: false +git_integration_title: kubevirt_controller +integration_id: kubevirt-controller +integration_title: KubeVirt Controller +integration_version: 1.1.0 +is_public: true +manifest_version: 2.0.0 +name: kubevirt_controller +public_title: KubeVirt Controller +short_description: 주요 메트릭을 수집하여 KubeVirt Controller 서비스의 상태를 모니터링합니다. +supported_os: +- linux +- 윈도우즈(Windows) +- macos +tile: + changelog: CHANGELOG.md + classifier_tags: + - Category::Containers + - Category::Kubernetes + - Supported OS::Linux + - Supported OS::Windows + - Supported OS::macOS + - Offering::Integration + - Submitted Data Type::Metrics + configuration: README.md#Setup + description: 주요 메트릭을 수집하여 KubeVirt Controller 서비스의 상태를 모니터링합니다. + media: [] + overview: README.md#Overview + support: README.md#Support + title: KubeVirt Controller +--- + + + + +
+본 통합은 퍼블릭 베타 단계이므로 프로덕션 워크로드에서는 신중하게 사용해야 합니다. +
+ +## 개요 + +이 검사는 Datadog Agent를 통해 [KubeVirt Controller][1]를 모니터링합니다. + +## 설정 + +아래 지침을 따라 호스트에서 실행되는 에이전트에 대해 이 점검을 설치 및 설정하세요. 컨테이너화된 환경의 경우, 이러한 지침을 적용하는 데 가이드가 필요하다면 [자동탐지 통합 템플릿][2]을 참조하세요. + +### 설치 + +KubeVirt Controller 점검은 [Datadog Agent][3] 패키지에 포함되어 있습니다. +서버에 추가 설치가 필요하지 않습니다. + +### 설정 + +`kubevirt_controller` 점검을 실행하는 주요 사용 사례는 [클러스터 레벨 점검][4]입니다. + +이를 실행하려면 아래 단계에 따라 일부 RBAC 권한을 업데이트하여 `datadog-agent` 서비스 계정에`KubeVirt` 리소스에 대한 읽기 전용 액세스 권한을 부여합니다. + +1. `kubevirt.io:view` 클러스터 역할을 `datadog-agent` 서비스 계정에 바인딩합니다. + +```yaml +apiVersion: rbac.authorization.k8s.io/v1 +kind: ClusterRoleBinding +metadata: + name: datadog-agent-kubevirt +roleRef: + apiGroup: rbac.authorization.k8s.io + kind: ClusterRole + name: kubevirt.io:view +subjects: + - kind: ServiceAccount + name: datadog-agent + namespace: default +``` + +2. `KubeVirt` 리소스를 다음과 같이 패치하여 `virt-controller` 배포의 포드 템플릿에 주석을 추가합니다. + +```yaml +apiVersion: kubevirt.io/v1 +kind: KubeVirt +metadata: + name: kubevirt + namespace: kubevirt +spec: + certificateRotateStrategy: {} + configuration: {} + customizeComponents: + patches: + - resourceType: Deployment + resourceName: virt-controller + patch: '{"spec": {"template":{"metadata":{"annotations":{ "ad.datadoghq.com/virt-controller.check_names": "[\"kubevirt_controller\"]", "ad.datadoghq.com/virt-controller.init_configs": "[{}]", "ad.datadoghq.com/virt-controller.instances": "[{ \"kubevirt_controller_metrics_endpoint\": \"https://%%host%%:%%port%%/metrics\",\"kubevirt_controller_healthz_endpoint\": \"https://%%host%%:%%port%%/healthz\", \"kube_namespace\":\"%%kube_namespace%%\", \"kube_pod_name\":\"%%kube_pod_name%%\", \"tls_verify\": \"false\"}]"}}}}}' + type: strategic +``` + +``을 원하는 클러스터 이름으로 변경합니다. + +### 검증 + +[클러스터 Agent의 `clusterchecks` 하위 명령][5]을 클러스터 Agent 컨테이너 내에서 실행하고, Checks 섹션에서 `kubevirt_controller` 점검을 찾습니다. + +## 수집한 데이터 + +### 메트릭 +{{< get-metrics-from-git "kubevirt_controller" >}} + + +### 이벤트 + +KubeVirt Controller 통합은 이벤트를 포함하지 않습니다. + +### 서비스 점검 + +KubeVirt Controller 통합은 서비스 점검을 포함하지 않습니다. + +## 트러블슈팅 + +도움이 필요하신가요? [Datadog 지원팀][7]에 문의하세요. + +[1]: https://docs.datadoghq.com/ko/integrations/kubevirt_controller +[2]: https://docs.datadoghq.com/ko/agent/kubernetes/integrations/ +[3]: https://app.datadoghq.com/account/settings/agent/latest +[4]: https://docs.datadoghq.com/ko/containers/cluster_agent/clusterchecks/?tab=datadogoperator +[5]: https://docs.datadoghq.com/ko/containers/troubleshooting/cluster-and-endpoint-checks/#dispatching-logic-in-the-cluster-agent +[6]: https://github.com/DataDog/integrations-core/blob/master/kubevirt_controller/metadata.csv +[7]: https://docs.datadoghq.com/ko/help/ \ No newline at end of file diff --git a/content/ko/integrations/kubevirt_handler.md b/content/ko/integrations/kubevirt_handler.md new file mode 100644 index 00000000000..a9921d9a468 --- /dev/null +++ b/content/ko/integrations/kubevirt_handler.md @@ -0,0 +1,123 @@ +--- +app_id: kubevirt-handler +app_uuid: 751006a9-b87a-4f54-acc5-2886ec49073e +assets: + integration: + auto_install: true + configuration: + spec: assets/configuration/spec.yaml + events: + creates_events: false + metrics: + check: + - kubevirt_handler.can_connect + - kubevirt_handler.vmi.cpu_system_usage_seconds.count + metadata_path: metadata.csv + prefix: kubevirt_handler. + process_signatures: + - virt-handler + service_checks: + metadata_path: assets/service_checks.json + source_type_id: 22778164 + source_type_name: KubeVirt Handler +author: + homepage: https://www.datadoghq.com + name: Datadog + sales_email: info@datadoghq.com + support_email: help@datadoghq.com +categories: +- 컨테이너 +- kubernetes +custom_kind: 통합 +dependencies: +- https://github.com/DataDog/integrations-core/blob/master/kubevirt_handler/README.md +display_on_public_website: true +draft: false +git_integration_title: kubevirt_handler +integration_id: kubevirt-handler +integration_title: KubeVirt Handler +integration_version: 1.1.0 +is_public: true +manifest_version: 2.0.0 +name: kubevirt_handler +public_title: KubeVirt Handler +short_description: 주요 메트릭을 수집하여 KubeVirt Handler Daemon의 상태를 모니터링합니다. +supported_os: +- linux +- 윈도우즈(Windows) +- macos +tile: + changelog: CHANGELOG.md + classifier_tags: + - Category::Containers + - Category::Kubernetes + - Supported OS::Linux + - Supported OS::Windows + - Supported OS::macOS + - Offering::Integration + - Submitted Data Type::Metrics + configuration: README.md#Setup + description: 주요 메트릭을 수집하여 KubeVirt Handler Daemon의 상태를 모니터링합니다. + media: [] + overview: README.md#Overview + support: README.md#Support + title: KubeVirt Handler +--- + + + + +
+본 통합은 퍼블릭 베타 단계이므로 프로덕션 워크로드에서는 신중하게 사용해야 합니다. +
+ +## 개요 + +이 검사는 Datadog Agent를 통해 [KubeVirt Handler][1]를 모니터링합니다. + +## 설정 + +아래 지침을 따라 호스트에서 실행되는 에이전트에 대해 이 점검을 설치 및 설정하세요. 컨테이너화된 환경의 경우, 이러한 지침을 적용하는 데 가이드가 필요하다면 [자동탐지 통합 템플릿][2]을 참조하세요. + +### 설치 + +KubeVirt Handler 점검은 [Datadog Agent][3] 패키지에 포함되어 있습니다. +서버에 추가 설치가 필요하지 않습니다. + +### 설정 + +1. Agent의 설정 디렉터리 루트의 `conf.d/` 폴더에 있는 `kubevirt_handler.d/conf.yaml` 파일을 편집하여 kubevirt_handler 성능 데이터 수집을 시작합니다. 사용 가능한 모든 설정 옵션은 [샘플 kubevirt_handler.d/conf.yaml][4]을 참조하세요. + +2. [에이전트를 재시작하세요][5]. + +### 검증 + +[Agent의 상태 하위 명령을 실행][6]하고 Checks 섹션에서 `kubevirt_handler`를 찾습니다. + +## 수집한 데이터 + +### 메트릭 +{{< get-metrics-from-git "kubevirt_handler" >}} + + +### 이벤트 + +KubeVirt Handler 통합은 이벤트를 포함하지 않습니다. + +### 서비스 점검 + +KubeVirt Handler 통합은 서비스 점검을 포함하지 않습니다. + +## 트러블슈팅 + +도움이 필요하신가요? [Datadog 지원팀][8]에 문의하세요. + + +[1]: https://docs.datadoghq.com/ko/integrations/kubevirt_handler +[2]: https://docs.datadoghq.com/ko/agent/kubernetes/integrations/ +[3]: https://app.datadoghq.com/account/settings/agent/latest +[4]: https://github.com/DataDog/integrations-core/blob/master/kubevirt_handler/datadog_checks/kubevirt_handler/data/conf.yaml.example +[5]: https://docs.datadoghq.com/ko/agent/guide/agent-commands/#start-stop-and-restart-the-agent +[6]: https://docs.datadoghq.com/ko/agent/guide/agent-commands/#agent-status-and-information +[7]: https://github.com/DataDog/integrations-core/blob/master/kubevirt_handler/metadata.csv +[8]: https://docs.datadoghq.com/ko/help/ \ No newline at end of file diff --git a/content/ko/integrations/oci_database.md b/content/ko/integrations/oci_database.md new file mode 100644 index 00000000000..5bf10477985 --- /dev/null +++ b/content/ko/integrations/oci_database.md @@ -0,0 +1,196 @@ +--- +app_id: oci-database +app_uuid: 9091c2d3-1ce1-4b02-bd68-57660acd766a +assets: + dashboards: + OCI-Database-Overview: assets/dashboards/oci-database-overview-dashboard.json + integration: + auto_install: true + events: + creates_events: false + metrics: + check: + - oci.database.block_changes + - oci.database.cpu_utilization + - oci.database.current_logons + - oci.database.execute_count + - oci.database.parse_count + - oci.database.storage_allocated + - oci.database.storage_allocated_by_tablespace + - oci.database.storage_used + - oci.database.storage_used_by_tablespace + - oci.database.storage_utilization + - oci.database.storage_utilization_by_tablespace + - oci.database.transaction_count + - oci.database.user_calls + - oci.database_cluster.asmdiskgroup_utilization + - oci.database_cluster.cpu_utilization + - oci.database_cluster.filesystem_utilization + - oci.database_cluster.load_average + - oci.database_cluster.memory_utilization + - oci.database_cluster.node_status + - oci.database_cluster.ocpus_allocated + - oci.database_cluster.swap_utilization + - oci.oracle_oci_database.allocated_storage_utilization_by_tablespace + - oci.oracle_oci_database.apply_lag + - oci.oracle_oci_database.apply_lag_data_refresh_elapsed_time + - oci.oracle_oci_database.avg_gc_cr_block_receive_time + - oci.oracle_oci_database.backup_duration + - oci.oracle_oci_database.backup_size + - oci.oracle_oci_database.block_changes + - oci.oracle_oci_database.blocking_sessions + - oci.oracle_oci_database.cputime + - oci.oracle_oci_database.cpu_utilization + - oci.oracle_oci_database.current_logons + - oci.oracle_oci_database.dbtime + - oci.oracle_oci_database.estimated_failover_time + - oci.oracle_oci_database.execute_count + - oci.oracle_oci_database.fraspace_limit + - oci.oracle_oci_database.frautilization + - oci.oracle_oci_database.gc_cr_blocks_received + - oci.oracle_oci_database.gc_current_blocks_received + - oci.oracle_oci_database.iops + - oci.oracle_oci_database.io_throughput + - oci.oracle_oci_database.interconnect_traffic + - oci.oracle_oci_database.invalid_objects + - oci.oracle_oci_database.logical_blocks_read + - oci.oracle_oci_database.max_tablespace_size + - oci.oracle_oci_database.memory_usage + - oci.oracle_oci_database.monitoring_status + - oci.oracle_oci_database.non_reclaimable_fra + - oci.oracle_oci_database.ocpus_allocated + - oci.oracle_oci_database.parse_count + - oci.oracle_oci_database.parses_by_type + - oci.oracle_oci_database.problematic_scheduled_dbmsjobs + - oci.oracle_oci_database.process_limit_utilization + - oci.oracle_oci_database.processes + - oci.oracle_oci_database.reclaimable_fra + - oci.oracle_oci_database.reclaimable_fraspace + - oci.oracle_oci_database.recovery_window + - oci.oracle_oci_database.redo_apply_rate + - oci.oracle_oci_database.redo_generation_rate + - oci.oracle_oci_database.redo_size + - oci.oracle_oci_database.session_limit_utilization + - oci.oracle_oci_database.sessions + - oci.oracle_oci_database.storage_allocated + - oci.oracle_oci_database.storage_allocated_by_tablespace + - oci.oracle_oci_database.storage_used + - oci.oracle_oci_database.storage_used_by_tablespace + - oci.oracle_oci_database.storage_utilization + - oci.oracle_oci_database.storage_utilization_by_tablespace + - oci.oracle_oci_database.transaction_count + - oci.oracle_oci_database.transactions_by_status + - oci.oracle_oci_database.transport_lag + - oci.oracle_oci_database.transport_lag_data_refresh_elapsed_time + - oci.oracle_oci_database.unprotected_data_window + - oci.oracle_oci_database.unusable_indexes + - oci.oracle_oci_database.usable_fra + - oci.oracle_oci_database.used_fraspace + - oci.oracle_oci_database.user_calls + - oci.oracle_oci_database.wait_time + - oci.oracle_oci_database.dbmgmt_job_executions_count + metadata_path: metadata.csv + prefix: oci. + service_checks: + metadata_path: assets/service_checks.json + source_type_id: 24362850 + source_type_name: OCI 데이터베이스 + monitors: + An OCI Database is approaching CPU saturation: assets/monitors/oci-db-cpu.json +author: + homepage: https://www.datadoghq.com + name: Datadog + sales_email: info@datadoghq.com + support_email: help@datadoghq.com +categories: +- 데이터 저장소 +- 클라우드 +- oracle +- 메트릭 +custom_kind: 통합 +dependencies: [] +display_on_public_website: true +draft: false +git_integration_title: oci_database +integration_id: oci-database +integration_title: OCI 데이터베이스 +integration_version: '' +is_public: true +manifest_version: 2.0.0 +name: oci_database +public_title: OCI 데이터베이스 +short_description: OCI 데이터베이스(Base, RAC, Exadata)는 모든 애플리케이션에 안정적이고 확장 가능하며 안전한 데이터베이스 + 솔루션을 제공합니다. +supported_os: [] +tile: + changelog: CHANGELOG.md + classifier_tags: + - Category::Data Stores + - Category::Cloud + - Category::Oracle + - Category::Metrics + - Offering::Integration + configuration: README.md#Setup + description: OCI 데이터베이스(Base, RAC, Exadata)는 모든 애플리케이션에 안정적이고 확장 가능하며 안전한 데이터베이스 + 솔루션을 제공합니다. + media: [] + overview: README.md#Overview + support: README.md#Support + title: OCI 데이터베이스 +--- + + + + +## 개요 + +Oracle Cloud Infrastructure(OCI)는 모든 워크로드를 위한 유연하고 안전한 고성능 데이터베이스를 제공합니다. + +본 통합은 주요 메트릭을 수집하여 CPU 및 스토리지 사용량, 데이터베이스 로그온 및 연결 시도 성공 및 실패 횟수, 데이터베이스 작업, SQL 쿼리 및 트랜잭션을 모니터링하고 알림을 제공합니다. + +다음 네임스페이스의 [Oracle Base Database][1] 및 [Exadata VM Cluster][2] 리소스에서 태그와 메트릭을 수집합니다. + +- [`oci_database`][3] +- [`oci_database_cluster`][3] + +[Oracle Database Management][4]가 활성화된 경우, 이 통합은 [`oracle_oci_database`][3] 네임스페이스를 통해 플릿 모니터링 및 SQL Tuning Advisor와 같은 기능의 메트릭도 수신합니다. + +Oracle Database에 [Datadog Agent][5]를 설치하면 활성 세션, 디스크 사용량, 테이블 공간 사용량 등과 같은 추가 메트릭에 관한 실시간 인사이트를 얻을 수 있습니다. + +Datadog의 [Database Monitoring (DBM)][6]을 활성화하여 쿼리 성능 및 데이터베이스 상태에 관한 향상된 인사이트를 얻으세요. Datadog DBM은 표준 통합 기능 외에도 쿼리 수준 메트릭, 실시간 및 과거 쿼리 스냅샷, 대기 이벤트 분석, 데이터베이스 부하, 쿼리 실행 계획, 차단 쿼리 인사이트를 제공합니다. + +## 설정 + +### 설치 + +[Oracle Cloud Infrastructure][7] 통합을 설정한 후 `oci_database` 및 `oci_database_cluster` 네임스페이스가 [Connector Hub][8]에 포함되어 있는지 확인하세요. + +## 수집한 데이터 + +### 메트릭 +{{< get-metrics-from-git "oci_database" >}} + + +### 이벤트 + +OCI 데이터베이스 통합은 이벤트를 포함하지 않습니다. + +### 서비스 점검 + +OCI 데이터베이스 통합은 서비스 점검을 포함하지 않습니다. + +## 트러블슈팅 + +도움이 필요하신가요? [Datadog 고객 지원팀][10]에 문의해주세요. + + +[1]: https://www.oracle.com/database/base-database-service/ +[2]: https://www.oracle.com/engineered-systems/exadata/database-service/ +[3]: https://docs.oracle.com/en-us/iaas/database-management/doc/oracle-cloud-database-metrics.html +[4]: https://www.oracle.com/manageability/database-management/ +[5]: https://docs.datadoghq.com/ko/integrations/oracle +[6]: https://docs.datadoghq.com/ko/database_monitoring/ +[7]: https://docs.datadoghq.com/ko/integrations/oracle_cloud_infrastructure/ +[8]: https://cloud.oracle.com/connector-hub/service-connectors +[9]: https://github.com/DataDog/integrations-internal-core/blob/main/oci_database/metadata.csv +[10]: https://docs.datadoghq.com/ko/help/ \ No newline at end of file diff --git a/content/ko/integrations/oci_load_balancer.md b/content/ko/integrations/oci_load_balancer.md new file mode 100644 index 00000000000..d42fc08d984 --- /dev/null +++ b/content/ko/integrations/oci_load_balancer.md @@ -0,0 +1,149 @@ +--- +app_id: oci-load-balancer +app_uuid: 4a90a892-952b-4b20-8152-c2d53da59a7d +assets: + dashboards: + OCI-Load-Balancer-Overview: assets/dashboards/oci-load-balancer-overview-dashboard.json + integration: + auto_install: true + events: + creates_events: false + metrics: + check: + - oci.lbaas.accepted_connections + - oci.lbaas.accepted_sslhandshake + - oci.lbaas.active_connections + - oci.lbaas.active_sslconnections + - oci.lbaas.backend_servers + - oci.lbaas.backend_timeouts + - oci.lbaas.bytes_received + - oci.lbaas.bytes_sent + - oci.lbaas.closed_connections + - oci.lbaas.failed_sslclient_cert_verify + - oci.lbaas.failed_sslhandshake + - oci.lbaas.handled_connections + - oci.lbaas.http_requests + - oci.lbaas.http_responses + - oci.lbaas.http_responses_200 + - oci.lbaas.http_responses_2xx + - oci.lbaas.http_responses_3xx + - oci.lbaas.http_responses_4xx + - oci.lbaas.http_responses_502 + - oci.lbaas.http_responses_504 + - oci.lbaas.http_responses_5xx + - oci.lbaas.http_responses_200 + - oci.lbaas.http_responses_2xx + - oci.lbaas.http_responses_3xx + - oci.lbaas.http_responses_4xx + - oci.lbaas.http_responses_502 + - oci.lbaas.http_responses_504 + - oci.lbaas.http_responses_5xx + - oci.lbaas.invalid_header_responses + - oci.lbaas.keep_alive_connections + - oci.lbaas.peak_bandwidth + - oci.lbaas.response_time_first_byte + - oci.lbaas.response_time_http_header + - oci.lbaas.unhealthy_backend_servers + - oci.nlb.active_connections + - oci.nlb.egress_packets_dropped_by_sl + - oci.nlb.healthy_backends_per_nlb + - oci.nlb.ingress_packets_dropped_by_sl + - oci.nlb.nlbvtap_fwd_drops + - oci.nlb.nlbvtap_received_bytes + - oci.nlb.nlbvtap_received_packets + - oci.nlb.nlbvtap_transmitted_bytes + - oci.nlb.nlbvtap_transmitted_packets + - oci.nlb.new_connections + - oci.nlb.new_connections_tcp + - oci.nlb.new_connections_udp + - oci.nlb.processed_bytes + - oci.nlb.processed_packets + - oci.nlb.unhealthy_backends_per_nlb + metadata_path: metadata.csv + prefix: oci. + service_checks: + metadata_path: assets/service_checks.json + source_type_id: 24434732 + source_type_name: OCI Load Balancer + monitors: + A Load Balancer is experiencing an abnormally high error rate: assets/monitors/high-error-volume.json +author: + homepage: https://www.datadoghq.com + name: Datadog + sales_email: info@datadoghq.com + support_email: help@datadoghq.com +categories: +- network +- 클라우드 +- oracle +- 메트릭 +custom_kind: 통합 +dependencies: [] +display_on_public_website: true +draft: false +git_integration_title: oci_load_balancer +integration_id: oci-load-balancer +integration_title: OCI Load Balancer +integration_version: '' +is_public: true +manifest_version: 2.0.0 +name: oci_load_balancer +public_title: OCI Load Balancer +short_description: OCI Load Balancer는 수신 트래픽을 여러 컴퓨팅 인스턴스에 분산하여 높은 신뢰성과 가용성을 제공합니다. +supported_os: [] +tile: + changelog: CHANGELOG.md + classifier_tags: + - Category::Network + - Category::Cloud + - Category::Oracle + - Category::Metrics + - Offering::Integration + configuration: README.md#Setup + description: OCI Load Balancer는 수신 트래픽을 여러 컴퓨팅 인스턴스에 분산하여 높은 신뢰성과 가용성을 제공합니다. + media: [] + overview: README.md#Overview + support: README.md#Support + title: OCI Load Balancer +--- + + + + +## 개요 + +Oracle Cloud Infrastructure (OCI) Flexible Load Balancer는 회복성과 성능을 향상하기 위해 여러 컴퓨팅 리소스에 애플리케이션 연결을 분산하도록 설계된 클라우드 네이티브 서비스입니다. + +본 통합으로 [`oci_lbaas`][1] 및 [`oci_nlb`][2] 네임스페이스에서 메트릭과 태그를 수집하여 Load Balancer 서비스의 처리량, 성능, 상태를 모니터링하고 알림을 받을 수 있습니다. + +## 설정 + +### 설치 + +[Oracle Cloud Infrastructure][3] 통합을 설정한 후 `oci_lbaas` 및 `oci_nlb` 네임스페이스가 [Connector Hub][4]에 포함되어 있는지 확인하세요. + +## 수집한 데이터 + +### 메트릭 +{{< get-metrics-from-git "oci_load_balancer" >}} + + +### 이벤트 + +OCI 데이터베이스 통합은 이벤트를 포함하지 않습니다. + +### 서비스 점검 + +OCI 데이터베이스 통합은 서비스 점검을 포함하지 않습니다. + +## 트러블슈팅 + +도움이 필요하신가요? [Datadog 지원팀][6]에 문의하세요. + + +[1]: https://docs.oracle.com/en-us/iaas/Content/Balance/Reference/loadbalancermetrics.htm +[2]: https://docs.oracle.com/en-us/iaas/Content/NetworkLoadBalancer/Metrics/metrics.htm +[3]: https://docs.datadoghq.com/ko/integrations/oracle_cloud_infrastructure/ +[4]: https://cloud.oracle.com/connector-hub/service-connectors +[5]: https://github.com/DataDog/integrations-internal-core/blob/main/oci_load_balancer/metadata.csv +[6]: https://docs.datadoghq.com/ko/help/ \ No newline at end of file diff --git a/content/ko/integrations/rapdev_redhat_satellite.md b/content/ko/integrations/rapdev_redhat_satellite.md new file mode 100644 index 00000000000..48757d9923d --- /dev/null +++ b/content/ko/integrations/rapdev_redhat_satellite.md @@ -0,0 +1,142 @@ +--- +algolia: + subcategory: Marketplace 통합 +app_id: rapdev-redhat-satellite +app_uuid: fad53c37-82aa-466c-a2b6-cfa27a6c7d45 +assets: + dashboards: + RapDev RedHat Satellite Inventory Dashboard: assets/dashboards/inventory_dashboard.json + RapDev RedHat Satellite OpenMetrics Dashboard: assets/dashboards/openmetrics_dashboard.json + RapDev RedHat Satellite Tasks & Jobs Dashboard: assets/dashboards/tasks_&_jobs_dashboard.json + integration: + auto_install: false + configuration: + spec: assets/configuration/spec.yaml + events: + creates_events: false + metrics: + check: + - rapdev.redhat_satellite.openmetrics.http_requests.count + - rapdev.redhat_satellite.organization.count + metadata_path: metadata.csv + prefix: rapdev.redhat_satellite. + service_checks: + metadata_path: assets/service_checks.json + source_type_id: 14094169 + source_type_name: RapDev RedHat Satellite + logs: + source: rapdev_redhat_satellite + monitors: + RedHat Satellite Foreman Task Failed: assets/monitors/foreman_task_failure.json + RedHat Satellite HTTP has 5xx Errors: assets/monitors/5xx_errors.json + RedHat Satellite Job has failed: assets/monitors/job_invocation_failure.json + RedHat Satellite Prometheus Connection Failing: assets/monitors/openmetrics_connection.json +author: + homepage: https://www.rapdev.io + name: RapDev + sales_email: ddsales@rapdev.io + support_email: support@rapdev.io + vendor_id: rapdev +categories: +- marketplace +- 개발 툴 +- 설정 및 배포 +- log collection +- 메트릭 +custom_kind: integration +dependencies: [] +display_on_public_website: true +draft: false +git_integration_title: rapdev_redhat_satellite +integration_id: rapdev-redhat-satellite +integration_title: RedHat Satellite +integration_version: '' +is_public: true +legal_terms: + eula: assets/EULA.pdf +manifest_version: 2.0.0 +name: rapdev_redhat_satellite +pricing: +- billing_type: tag_count + includes_assets: true + metric: datadog.marketplace.rapdev.redhat_satellite + product_id: redhat-satellite + short_description: RedHat Satellite 인스턴스당 단위 요금 + tag: satellite_host + unit_label: RedHat Satellite 인스턴스 + unit_price: 1000 +public_title: RedHat Satellite +short_description: RedHat Satellite 상태 및 성능 모니터링 +supported_os: +- linux +- windows +- macos +tile: + changelog: CHANGELOG.md + classifier_tags: + - Category::Marketplace + - Category::Developer Tools + - 카테고리::설정 및 배포 + - 카테고리::로그 수집 + - Category::Metrics + - 제공::통합 + - 지원 OS::Linux + - 지원 OS::Windows + - 지원 OS::macOS + - Submitted Data Type::Metrics + - 제출한 데이터 유형::로그 + configuration: README.md#Setup + description: RedHat Satellite 상태 및 성능 모니터링 + media: + - caption: Satellite OpenMetrics 대시보드 + image_url: images/openmetrics_dashboard.png + media_type: 이미지 + - caption: Satellite Inventory 대시보드 + image_url: images/inventory_dashboard.png + media_type: 이미지 + - caption: Satellite Tasks & Jobs 대시보드 + image_url: images/tasks_jobs_dashboard.png + media_type: 이미지 + overview: README.md#Overview + support: README.md#Support + title: RedHat Satellite + uninstallation: README.md#Uninstallation +--- + + + + +## 개요 + +RedHat Satellite는 인프라 관리 제품으로 조직이 관리 기준을 준수하고 보안을 유지하면서 RedHat 인프라를 효율적으로 실행할 수 있도록 해줍니다. 본 통합에는 기본 제공 대시보드 여러 개가 포함되어 있어, 콘텐츠 호스트 수정 사항, Foreman 작업, 작업 호출 상태, Satellite 서비스 상태 등, RedHat Satellite의 다양한 구성 요소의 전반적인 상태를 알 수 있습니다. + +RedHat Satellite 애플리케이션 모니터링을 시작할 수 있도록, 본 통합에는 또한 기본 제공 모니터와 Satellite 관련 로그 파일 처리용 로그 파이프라인이 포함되어 있습니다. + +본 통합은 Foreman v1.24.1.32를 실행하는 Satellite v6.7.5에서 테스트되었으며, 이전 주 버전에서의 작동을 보장하지 않습니다. + + +## 지원 +지원 또는 기능 요청은 다음 채널을 통해 RapDev.io에 문의해 주세요. + +- 고객지원: [support@rapdev.io][7] +- 영업 팀: sales@rapdev.io +- 채팅: [rapdev.io][8] +- 전화: 855-857-0222 + +--- +Made with ❤️ in Boston + +*원하는 통합을 찾을 수 없나요? 조직에 필요한 중요 기능이 빠져 있나요? RapDev에 [메시지][7]를 보내 주시면 빌드해 드립니다!!* + +[0]: https://docs.datadoghq.com/ko/agent/kubernetes/integrations/ +[1]: https://access.redhat.com/documentation/en-us/red_hat_satellite/6.7/html/monitoring_red_hat_satellite/installing-pcp-packages_monitoring-guide#configure-pcp-data-collection_monitoring-guide +[2]: https://access.redhat.com/documentation/en-us/red_hat_satellite/6.7/html-single/administering_red_hat_satellite/index#creating-a-user_admin +[3]: https://access.redhat.com/documentation/en-us/red_hat_satellite/6.7/html-single/administering_red_hat_satellite/index#creating-a-role_admin +[4]: https://docs.datadoghq.com/ko/agent/guide/agent-commands/#start-stop-and-restart-the-agent +[5]: https://docs.datadoghq.com/ko/agent/guide/agent-commands/#agent-status-and-information +[6]: https://docs.datadoghq.com/ko/agent/guide/agent-commands/?tab=agentv6v7#restart-the-agent +[7]: mailto:support@rapdev.io +[8]: https://www.rapdev.io/#Get-in-touch +[9]: mailto:sales@rapdev.io +--- +이 애플리케이션은 Datadog Marketplace를 통해 제공되며 Datadog 기술 파트너의 지원을 받습니다. 사용하려면 Marketplace에서 이 애플리케이션을 구매하세요. \ No newline at end of file diff --git a/content/ko/integrations/rapdev_snaplogic.md b/content/ko/integrations/rapdev_snaplogic.md new file mode 100644 index 00000000000..aa4ea0d3adc --- /dev/null +++ b/content/ko/integrations/rapdev_snaplogic.md @@ -0,0 +1,117 @@ +--- +algolia: + subcategory: Marketplace 통합 +app_id: rapdev-snaplogic +app_uuid: c3f2e4a6-a17f-4b66-b72d-4be62b648fb8 +assets: + dashboards: + RapDev SnapLogic Snaplex Dashboard: assets/dashboards/snaplex_dashboard.json + integration: + auto_install: false + configuration: + spec: assets/configuration/spec.yaml + events: + creates_events: false + metrics: + check: rapdev.snaplogic.snaplex_node.running + metadata_path: metadata.csv + prefix: rapdev.snaplogic. + service_checks: + metadata_path: assets/service_checks.json + source_type_id: 6643655 + source_type_name: RapDev SnapLogic + monitors: + Can't Connect to SnapLogic: assets/monitors/snaplogic_can_connect.json +author: + homepage: https://www.rapdev.io + name: RapDev + sales_email: ddsales@rapdev.io + support_email: datadog-engineering@rapdev.io + vendor_id: rapdev +categories: +- marketplace +- 개발 툴 +custom_kind: integration +dependencies: [] +display_on_public_website: true +draft: false +git_integration_title: rapdev_snaplogic +integration_id: rapdev-snaplogic +integration_title: SnapLogic +integration_version: '' +is_public: true +legal_terms: + eula: assets/EULA.pdf +manifest_version: 2.0.0 +name: rapdev_snaplogic +pricing: +- billing_type: tag_count + includes_assets: true + metric: datadog.marketplace.rapdev.snaplogic + product_id: snaplogic + short_description: Snaplex당 단위 비용 + tag: snaplex_label + unit_label: SnapLogic Snaplexes + unit_price: 10 +public_title: SnapLogic +short_description: SnapLogic Pipelines 및 Snaplexes 모니터링 +supported_os: +- linux +- windows +- macos +tile: + changelog: CHANGELOG.md + classifier_tags: + - Category::Marketplace + - Offering::Integration + - Supported OS::Linux + - Supported OS::Windows + - Supported OS::macOS + - Category::Developer Tools + - 제출한 데이터 유형::메트릭 + - 제출한 데이터 유형::로그 + configuration: README.md#Setup + description: SnapLogic Pipelines 및 Snaplexes 모니터링 + media: + - caption: SnapLogic 대시보드 + image_url: images/dashboard.png + media_type: image + overview: README.md#Overview + support: README.md#Support + title: SnapLogic + uninstallation: README.md#Uninstallation +--- + + + + +## 개요 +SnapLogic은 클라우드 데이터 소스, SaaS 애플리케이션, 온프레미스 비즈니스 애플리케이션을 연결하는 Integration Platform as a Service(iPaaS) 툴을 제공하는 소프트웨어 회사입니다. RapDev의 SnapLogic 통합은 Agent 점검 기반 통합으로 SnapLogic REST API를 쿼리하여 [snaplexes][8] 및 파이프라인 데이터를 메트릭으로, 조직 활동 데이터를 로그로 가져옵니다. + +### 로그 +본 통합은 `conf.yaml` 파일에서 `collect_activity_logs`가 활성화된 경우에만 SnapLogic 조직 활동 로그를 수집합니다. + +## 지원 +지원 또는 기능 요청은 다음 채널을 통해 RapDev.io에 문의하세요. + +- 지원: [support@rapdev.io][7] +- 영업 팀: [sales@rapdev.io][1] +- 채팅: [rapdev.io][6] +- 전화: 855-857-0222 + +--- +Made with ❤️ in Boston + +*원하는 통합을 찾을 수 없나요? 조직에 필요한 중요 기능이 빠져 있나요? [메시지][7]를 보내 주시면 빌드해 드립니다!!* + +--- +[1]: mailto:sales@rapdev.io +[2]: https://docs.datadoghq.com/ko/agent/kubernetes/integrations/ +[3]: https://docs-snaplogic.atlassian.net/wiki/spaces/SD/pages/1439028/Creating+a+User +[4]: https://docs.datadoghq.com/ko/agent/guide/agent-commands/?tab=agentv6v7#start-stop-and-restart-the-agent +[5]: https://docs.datadoghq.com/ko/agent/guide/agent-commands/?tab=agentv6v7#agent-information +[6]: https://www.rapdev.io/#Get-in-touch +[7]: mailto:support@rapdev.io +[8]: https://docs-snaplogic.atlassian.net/wiki/spaces/SD/pages/1437953/The+SnapLogic+Snaplex +--- +이 애플리케이션은 Datadog Marketplace를 통해 제공되며 Datadog 기술 파트너의 지원을 받습니다. 사용하려면 Marketplace에서 이 애플리케이션을 구매하세요. \ No newline at end of file diff --git a/content/ko/integrations/rapdev_swiftmq.md b/content/ko/integrations/rapdev_swiftmq.md new file mode 100644 index 00000000000..6a73e95907d --- /dev/null +++ b/content/ko/integrations/rapdev_swiftmq.md @@ -0,0 +1,125 @@ +--- +algolia: + subcategory: Marketplace 통합 +app_id: rapdev-swiftmq +app_uuid: 93738439-2cde-4718-a7f6-004f2da0177e +assets: + dashboards: + RapDev SwiftMQ Summary: assets/dashboards/summary.json + integration: + auto_install: false + configuration: + spec: assets/configuration/spec.yaml + events: + creates_events: false + metrics: + check: rapdev.swiftmq.env + metadata_path: metadata.csv + prefix: rapdev.swiftmq + service_checks: + metadata_path: assets/service_checks.json + source_type_id: 10378 + source_type_name: RapDev SwiftMQ +author: + homepage: https://www.rapdev.io + name: RapDev + sales_email: ddsales@rapdev.io + support_email: support@rapdev.io + vendor_id: rapdev +categories: +- 메시지 큐 +- marketplace +- metrics +custom_kind: integration +dependencies: [] +display_on_public_website: true +draft: false +git_integration_title: rapdev_swiftmq +integration_id: rapdev-swiftmq +integration_title: SwiftMQ +integration_version: '' +is_public: true +legal_terms: + eula: assets/EULA.pdf +manifest_version: 2.0.0 +name: rapdev_swiftmq +pricing: +- billing_type: tag_count + includes_assets: true + metric: datadog.marketplace.rapdev.swiftmq + product_id: swiftmq + short_description: 인스턴스당 유닛 비용. + tag: swiftmq_endpoint + unit_label: SwiftMQ 인스턴스 + unit_price: 10 +public_title: SwiftMQ +short_description: SwiftMQ 인스턴스의 상태와 활동을 모니터링하세요 +supported_os: +- linux +- macos +- windows +tile: + changelog: CHANGELOG.md + classifier_tags: + - Supported OS::Linux + - Supported OS::macOS + - Supported OS::Windows + - 카테고리::메세지 큐 + - Category::Marketplace + - 카테고리::메트릭 + - Offering::Integration + - 제출한 데이터 유형::메트릭 + configuration: README.md#Setup + description: SwiftMQ 인스턴스의 상태와 활성화를 모니터링하세요 + media: + - caption: SwiftMQ 요약 대시보드(1/3) + image_url: images/swiftmq_dash_one.png + media_type: image + - caption: SwiftMQ 요약 대시보드(2/3) + image_url: images/swiftmq_dash_two.png + media_type: image + - caption: SwiftMQ 요약 대시보드(3/3) + image_url: images/swiftmq_dash_three.png + media_type: image + overview: README.md#Overview + support: README.md#Support + title: SwiftMQ + uninstallation: README.md#Uninstallation +--- + + + + + +## 개요 + +[SwiftMQ][1]는 엔터프라이즈 메시징, 실시간 스트리밍 분석, 마이크로서비스 플랫폼입니다. JMS 및 AMQP 1.0 표준 프로토콜을 통해 비즈니스 애플리케이션을 지원하며, IoT 클라이언트용 MQTT 3.1 또는 3.1.1도 지원합니다. 확장성이 뛰어난 아키텍처에 최적화되어 있으며, 내장 동적 라우팅을 통해 소스에서 목적지까지 투명하게 전송할 수 있습니다. + + +본 통합은 [Flow Director][5]의 [SwiftMQ Prometheus Monitoring App][6]을 사용하여 [SwiftMQ][1]의 상태 및 운영에 관한 메트릭을 보고합니다. + +## 지원 +지원 또는 기능 요청은 다음 채널을 통해 RapDev.io에 문의하세요. +- 고객지원: [support@rapdev.io][4] +- 영업: [sales@rapdev.io][3] +- 채팅: [rapdev.io][2] +- 전화: 855-857-0222 + +--- + +Made with ❤️ in Boston +*다른 통합이 필요하거나 조직에 필요한 핵심 기능이 있을 경우 RapDev에 [메시지][4]를 보내주시면 반영하겠습니다!!* + + +[1]: https://www.swiftmq.com/ +[2]: https://www.rapdev.io/#Get-in-touch +[3]: mailto:sales@rapdev.io +[4]: mailto:support@rapdev.io +[5]: https://www.flowdirector.io/start/ +[6]: https://www.flowdirector.io/apps/prometheus/swiftmqprometheus/ +[7]: https://help.flowdirector.io/spma/install-the-app +[8]: https://help.flowdirector.io/spma/quick-setup +[9]: https://docs.datadoghq.com/ko/agent/guide/agent-commands/?tab=agentv6v7#restart-the-agent + +--- +이 애플리케이션은 Datadog Marketplace를 통해 제공되며 Datadog Technology Partner의 지원을 받습니다. 사용하려면 Marketplace에서 구매하세요. \ No newline at end of file diff --git a/content/ko/integrations/redpeaks_sap_businessobjects.md b/content/ko/integrations/redpeaks_sap_businessobjects.md new file mode 100644 index 00000000000..27f51202075 --- /dev/null +++ b/content/ko/integrations/redpeaks_sap_businessobjects.md @@ -0,0 +1,133 @@ +--- +algolia: + subcategory: Marketplace 통합 +app_id: redpeaks-sap-businessobjects +app_uuid: f6278fc8-8b6a-4f88-922b-3da687b26e62 +assets: + dashboards: + Redpeaks SAP BusinessObjects overview: assets/dashboards/redpeaks_sap_businessobjects_global_overview.json + Redpeaks SAP BusinessObjects system dashboard: assets/dashboards/redpeaks_sap_businessobjects_system.json + integration: + auto_install: false + configuration: {} + events: + creates_events: true + metrics: + check: datadog.marketplace.redpeaks.sap_businessobjects.system + metadata_path: metadata.csv + prefix: redpeaks + service_checks: + metadata_path: assets/service_checks.json + source_type_id: 10999 + source_type_name: Redpeaks SAP BusinessObjects +author: + homepage: https://www.redpeaks.io + name: Redpeaks + sales_email: sales@redpeaks.io + support_email: support@redpeaks.io + vendor_id: redpeaks +categories: +- marketplace +- sap +custom_kind: 통합 +dependencies: [] +display_on_public_website: true +draft: false +git_integration_title: redpeaks_sap_businessobjects +integration_id: redpeaks-sap-businessobjects +integration_title: SAP BusinessObjects +integration_version: '' +is_public: true +legal_terms: + eula: assets/eula.pdf +manifest_version: 2.0.0 +name: redpeaks_sap_businessobjects +pricing: +- billing_type: tag_count + includes_assets: true + metric: datadog.marketplace.redpeaks.sap_businessobjects.system + product_id: sap-businessobjects + short_description: 고유하게 모니터링되는 각 SAP 시스템별로 가격 책정(SID로 식별) + tag: uri + unit_label: SAP BusinessObjects 인스턴스 + unit_price: 160.0 +public_title: SAP BusinessObjects +short_description: SAP 비즈니스 개체 시스템 모니터 +supported_os: +- linux +tile: + changelog: CHANGELOG.md + classifier_tags: + - Category::Marketplace + - Category::SAP + - Offering::Integration + - Supported OS::Linux + - Submitted Data Type::Metrics + - Submitted Data Type::Events + configuration: README.md#Setup + description: SAP 비즈니스 개체 시스템 모니터 + media: + - caption: SAP BusinessObjects 글로벌 개요 + image_url: images/sap_businessobjects_global_overview_dashboard.png + media_type: 이미지 + - caption: SAP BusinessObjects 시스템 개요 + image_url: images/sap_businessobjects_system_dashboard.png + media_type: 이미지 + overview: README.md#Overview + support: README.md#Support + title: SAP BusinessObjects + uninstallation: README.md#Uninstallation +--- + + + + +## 개요 +SAP BusinessObjects 통합에서는 SAP **BusinessObjects** 시스템을 모니터링합니다. + +**에이전트 없는** 원격 연결과 사전 구성된 템플릿을 사용하기 때문에 단 **몇 분** 안에 통합을 실행할 수 있습니다. + +모니터링은 [Redpeaks][1]로 실행됩니다(이전 명칭: Agentil Software - Pro.Monitor). 이는 SAP 시스템의 가장 관련성이 높은 컴포넌트를 모니터링하도록 기본 설정되어 있습니다. 여기에는 **연결**, **서비스**, **보고**, **스케줄**, **감사 경고**가 포함됩니다. + +이 통합은 시스템에서 실시간으로 데이터를 수집 및 분석하고 메트릭과 실행 가능한 이벤트를 생성합니다. Redpeaks에서 구성하거나 메트릭에서 바로 Datadog 모니터를 생성하여 알림을 세부 조정할 수 있습니다. + +Redpeaks는 단일 또는 수백 개의 시스템을 관리하든 관계없이 모든 유형과 규모의 SAP 배포와 통합됩니다. 온프레미스 설정, 프라이빗 클라우드 또는 하이브리드 환경을 지원하여 고유한 요구 사항을 충족하는 유연성을 제공합니다. + +### 모니터링 중인 모듈 + +- 서버 상태 +- 동시 실행 사용자 +- 서버 메트릭 +- 서버 속성 +- 일정 및 리포트 +- CMC 및 감사 경고 + +## 지원 + +지원이나 기능 요청은 다음 채널을 통해 Redpeaks에 문의하세요. + +- 이메일: [support@redpeaks.io][2] + +### 참고 자료 + +기타 유용한 문서, 링크 및 기사: + +- [Datadog Marketplace에서 Redpeaks's 제품을 구입해 SAP NetWeaver 모니터링하기][5] + +*SAP이나 다른 플랫폼에 적용할 통합을 위해 신뢰할 만한 파트너를 찾고 있다면, 여기에서 찾으실 수 있습니다. 연락해 주세요.* + +--- +이 제품은 스위스 제네바에서 설계 및 개발되었습니다. + +[1]: https://www.redpeaks.io +[2]: mailto:support@redpeaks.io +[3]: https://softwaredownloads.sap.com/file/0020000000507122021 +[4]: https://wiki.redpeaks.io/doku.php?id=products:promonitor:6.8:userguide:configuration +[5]: https://www.datadoghq.com/blog/sap-netweaver-monitoring-agentil-datadog-marketplace/ +[6]: https://wiki.redpeaks.io/doku.php?id=products:promonitor:6.8:installguide:prerequisites +[7]: https://wiki.redpeaks.io/doku.php?id=products:cockpit:1.0:installguide:installjava +[8]: https://agentil.box.com/s/k0yp1tk58r666rfncf0nb9k1qa0guvdc + + +--- +이 애플리케이션은 Datadog Marketplace를 통해 제공되며 Datadog Technology Partner의 지원을 받습니다. 사용하려면 Marketplace에서 구매하세요. \ No newline at end of file diff --git a/content/ko/integrations/redpeaks_sap_netweaver.md b/content/ko/integrations/redpeaks_sap_netweaver.md new file mode 100644 index 00000000000..994ff1eb9f2 --- /dev/null +++ b/content/ko/integrations/redpeaks_sap_netweaver.md @@ -0,0 +1,187 @@ +--- +algolia: + subcategory: Marketplace 통합 +app_id: redpeaks-sap-netweaver +app_uuid: f65f3026-11a2-4ee9-8a19-4e99dd52ca2a +assets: + dashboards: + SAP ABAP Transactions Overview: assets/dashboards/redpeaks_abap_transactions_details.json + SAP ABAP transactions response times: assets/dashboards/redpeaks_abap_transactions_response_times.json + SAP IDOCS Overview: assets/dashboards/redpeaks_system_idocs.json + SAP Jobs Overview: assets/dashboards/redpeaks_sap_jobs_details.json + SAP NetWeaver Overview: assets/dashboards/redpeaks_sap_global_overview.json + SAP NetWeaver System: assets/dashboards/redpeaks_sap_netweaver_system.json + SAP Shortdumps Overview: assets/dashboards/redpeaks_system_shortdumps.json + integration: + auto_install: false + configuration: {} + events: + creates_events: true + metrics: + check: datadog.marketplace.redpeaks.sap_netweaver.system + metadata_path: metadata.csv + prefix: redpeaks + service_checks: + metadata_path: assets/service_checks.json + source_type_id: 10997 + source_type_name: Redpeaks SAP NetWeaver +author: + homepage: https://www.redpeaks.io + name: Redpeaks + sales_email: sales@redpeaks.io + support_email: support@redpeaks.io + vendor_id: redpeaks +categories: +- marketplace +- sap +custom_kind: 통합 +dependencies: [] +display_on_public_website: true +draft: false +git_integration_title: redpeaks_sap_netweaver +integration_id: redpeaks-sap-netweaver +integration_title: SAP S/4HANA & NetWeaver +integration_version: '' +is_public: true +legal_terms: + eula: assets/eula.pdf +manifest_version: 2.0.0 +name: redpeaks_sap_netweaver +pricing: +- billing_type: tag_count + includes_assets: true + metric: datadog.marketplace.redpeaks.sap_netweaver.system + product_id: sap-netweaver + short_description: 모니터링되는 SAP 시스템별로 라이선스 1개 카운팅(SID로 식별) + tag: uri + unit_label: SAP 시스템(SID) + unit_price: 250 +public_title: SAP S/4HANA & NetWeaver +short_description: S/4HANA와 NetWeaver 시스템의 ABAP 및 J2EE 스택 모니터링 +supported_os: +- linux +tile: + changelog: CHANGELOG.md + classifier_tags: + - Category::Marketplace + - Category::SAP + - Offering::Integration + - Supported OS::Linux + - Submitted Data Type::Metrics + - Submitted Data Type::Events + configuration: README.md#Setup + description: S/4HANA와 NetWeaver 시스템의 ABAP 및 J2EE 스택 모니터링 + media: + - caption: SAP NetWeaver 글로벌 개요 + image_url: images/dashboard_overview.png + media_type: 이미지 + - caption: SAP NetWeaver 시스템 대시보드 + image_url: images/dashboard_netweaver.png + media_type: 이미지 + - caption: SAP NetWeaver 작업 로그 + image_url: images/logs_example_jobs.png + media_type: 이미지 + - caption: SAP ABAP 트랜잭션 시간 + image_url: images/abap_transaction_response_time.png + media_type: 이미지 + - caption: SAP ABAP 트랜잭션 상세 + image_url: images/abap_transaction_details.png + media_type: 이미지 + - caption: SAP IDOC 메시지 + image_url: images/abap_idocs.png + media_type: 이미지 + - caption: SAP 배경 작업 + image_url: images/abap_background_jobs.png + media_type: 이미지 + overview: README.md#Overview + resources: + - resource_type: 블로그 + url: https://www.datadoghq.com/blog/sap-netweaver-monitoring-agentil-datadog-marketplace/ + support: README.md#Support + title: SAP S/4HANA & NetWeaver + uninstallation: README.md#Uninstallation +--- + + + + +## 개요 +SAP NetWeaver 통합은 SAP **NetWeaver**와 **S/4HANA**의 ABAP 및 J2EE 스택을 모니터링합니다. + +**에이전트 없는** 원격 연결과 사전 구성된 템플릿을 사용하기 때문에 **몇 분** 안에 통합을 실행할 수 있습니다. + +모니터링은 [Redpeaks][1]로 실행됩니다(이전 명칭: Agentil Software - Pro.Monitor). 이는 SAP 시스템의 가장 관련성이 높은 모듈과 트랜잭션을 모니터링하도록 기본 설정되어 있습니다. 여기에는 **숏덤프, SAP 작업, 트랜잭션 응답 시간, 작업 프로세스 등**이 포함됩니다. + +이 통합은 시스템에서 실시간으로 데이터를 수집 및 분석하고 메트릭과 실행 가능한 이벤트를 생성합니다. Redpeaks에서 구성하거나 메트릭에서 바로 Datadog 모니터를 생성하여 알림을 세부 조정할 수 있습니다. + +Redpeaks는 단일 또는 수백 개의 시스템을 관리하든 관계없이 모든 유형과 규모의 SAP 배포와 통합됩니다. 온프레미스 설정, 프라이빗 클라우드, 하이브리드 환경, SAP RISE를 지원하여 고유한 요구 사항을 충족하는 유연성을 제공합니다. + +### 모니터링 중인 모듈 + +- ABAP 인스턴스 메모리 +- ABAP 인스턴스 응답 시간 +- ABAP 락 +- ABAP 파라미터 +- ABAP 쇼트덤프 +- 애플리케이션 로그 +- 배치 인풋 +- 인증서 +- 커스텀 CCMS 모니터링 +- Database 백업 +- Database 규모 +- DB 독점 락 +- 디스패처 대기열 +- ICM 상태 및 사용량 +- IDOC 교환 모니터링 +- 인스턴스 가용 +- 숫자 범위 +- PI/XI 메시지 ABAP +- 프로세스 체인 모니터링 +- QRFC/TRFC +- 실시간 데이터 +- RFC 대상 가용 +- SAP 버퍼 +- SAP 클라이언트 변경 설정 +- SAPconnect(SCOT/SOST) +- SAP 작업 모니터링 +- SAP 트랜잭션 시간 +- SAP 트랜스포트 +- SAP 사용자 +- 스풀 +- 시스템 로그 +- 업데이트 요청 +- 업데이트 서비스 +- 작업 프로세스 +- J2EE 프로세스 및 인스턴스 +- J2EE 인스턴스 메트릭 +- 외부 데이터베이스 메트릭: Oracle, Sybase/ASE, DB2, MaxDB, MSSQL +- 웹 엔드포인트 + +## 지원 + +지원이나 기능 요청은 다음 채널을 통해 Redpeaks에 문의하세요. + +- 이메일: [support@redpeaks.io][2] + +### 참고 자료 + +기타 유용한 문서, 링크 및 기사: + +- [Datadog Marketplace에서 Redpeaks 제품을 구입해 SAP NetWeaver 모니터링하기][5] + +*SAP이나 다른 플랫폼에 적용할 통합을 위해 신뢰할 만한 파트너를 찾고 있다면, 여기에서 찾으실 수 있습니다. 연락해 주세요.* + +--- +이 제품은 스위스 제네바에서 설계 및 개발되었습니다. + +[1]: https://www.redpeaks.io +[2]: mailto:support@redpeaks.io +[3]: https://softwaredownloads.sap.com/file/0020000000507122021 +[4]: https://wiki.redpeaks.io/doku.php?id=products:promonitor:6.8:userguide:configuration +[5]: https://www.datadoghq.com/blog/sap-netweaver-monitoring-agentil-datadog-marketplace/ +[6]: https://wiki.redpeaks.io/doku.php?id=products:promonitor:6.8:installguide:prerequisites +[7]: https://wiki.redpeaks.io/doku.php?id=products:cockpit:1.0:installguide:installjava +[8]: https://agentil.box.com/s/k0yp1tk58r666rfncf0nb9k1qa0guvdc + +--- +이 애플리케이션은 Datadog Marketplace를 통해 제공되며 Datadog Technology Partner의 지원을 받습니다. 사용하려면 Marketplace에서 구매하세요. \ No newline at end of file diff --git a/content/ko/integrations/rollbar_license.md b/content/ko/integrations/rollbar_license.md new file mode 100644 index 00000000000..9ce6303af45 --- /dev/null +++ b/content/ko/integrations/rollbar_license.md @@ -0,0 +1,110 @@ +--- +algolia: + subcategory: Marketplace 통합 +app_id: rollbar-license +app_uuid: 8b08ddce-a1be-4438-9889-ba4113de9a93 +assets: {} +author: + homepage: https://rollbar.com + name: Rollbar + sales_email: support@rollbar.com + support_email: support@rollbar.com + vendor_id: rollbar +categories: +- marketplace +custom_kind: integration +dependencies: [] +display_on_public_website: true +draft: false +git_integration_title: rollbar_license +integration_id: rollbar-license +integration_title: Rollbar +integration_version: '' +is_public: true +legal_terms: + eula: assets/EULA.pdf +manifest_version: 2.0.0 +name: rollbar_license +pricing: +- billing_type: tag_count + includes_assets: true + metric: datadog.marketplace.rollbar.rollbar + product_id: rollbar + short_description: 월 500,000건의 이벤트로 실시간 예외를 추적하세요. + tag: 이벤트 + unit_label: 이벤트 500,000건 + unit_price: 350 +public_title: Rollbar +short_description: 오류를 실시간으로 미리 발견하세요. +supported_os: +- 리눅스 +- macos +- windows +tile: + changelog: CHANGELOG.md + classifier_tags: + - Supported OS::Linux + - Supported OS::macOS + - Supported OS::Windows + - Category::Marketplace + - Offering::Software License + configuration: README.md#Setup + description: 오류를 실시간으로 미리 발견하세요. + media: + - caption: 실시간 오류 + image_url: images/realtimeerrors.jpg + media_type: image + - caption: 오류 추적 + image_url: images/traceback.jpg + media_type: image + - caption: 릴리스 상태 + image_url: images/releasehealth.jpg + media_type: image + - caption: 프론트엔드 텔레메트리 + image_url: images/breadcrumbs.jpg + media_type: image + - caption: 알림 + image_url: images/msgnotifications.jpg + media_type: image + - caption: 알림 규칙 + image_url: images/notificationrules.jpg + media_type: image + overview: README.md#Overview + support: README.md#Support + title: Rollbar + uninstallation: README.md#Uninstallation +--- + + + + +## 개요 + +[Rollbar][1]는 개발 팀이 단 몇 초 만에 오류를 정확히 찾아낼 수 있도록 지원하는 AI 기반 그룹화 기능으로 기존 오류 모니터링 도구를 넘어선 장점을 제공합니다. 오류를 실시간으로 미리 발견하고, 적합한 담당자에게 알림을 보내며, 자동 롤백 및 오류 수정이 가능합니다. + +### 자동화 등급 그룹화 +오류 모니터링의 노이즈를 줄여 개발자의 신뢰를 쌓습니다. 오류 목록에서 중복을 제거하여 더 쉽게 분류하고, 수작업을 줄이고 자동화하여 오류에 더 빠르게 대응할 수 있습니다. + +### AI 지원 워크플로 +문제에 더 빠르게 대응하는 사전 예방적 워크플로입니다. 평균 인지 시간(MTTA)과 평균 해결 시간(MTTR)을 단축하여 고품질의 고객 경험을 유지합니다. + +### 각 배포와 오류를 연결 +각 오류의 코드 컨텍스트를 확보하여 대규모로 신속하게 디버깅합니다. 문제가 되는 코드 줄이 있는 스택 트레이스를 확인하고, `git blame` 정보를 검색하고, 각 배포를 추적하는 등의 작업을 한곳에서 모두 할 수 있습니다. + +### 원활한 통합 +Datadog, GitHub, GitHub Enterprise Server, Atlassian, Google Cloud, Terraform, Heroku, Slack, CircleCI + +### 보안을 최우선으로 +엄격한 업계 표준을 완벽하게 준수하고, 사용자가 이를 완벽하게 준수할 수 있도록 지원하는 기능을 구축합니다. + + +## 지원 + +문의 사항이 있을 경우 [저희에게 연락][4]주세요. + +[1]: https://rollbar.com +[2]: https://rollbar.com +[3]: https://docs.rollbar.com/ +[4]: https://www.rollbar.com/support +--- +이 애플리케이션은 Datadog Marketplace를 통해 제공되며 Datadog 기술 파트너가 지원합니다. 사용하려면 Marketplace에서 이 애플리케이션을 구매하세요. \ No newline at end of file diff --git a/content/ko/integrations/scaphandre.md b/content/ko/integrations/scaphandre.md new file mode 100644 index 00000000000..f22f7a85a91 --- /dev/null +++ b/content/ko/integrations/scaphandre.md @@ -0,0 +1,129 @@ +--- +app_id: scaphandre +app_uuid: 0aa80baa-7ba6-4264-97ae-5475a6f796dc +assets: + dashboards: + scaphandre_overview: assets/dashboards/scaphandre_overview.json + integration: + auto_install: true + configuration: + spec: assets/configuration/spec.yaml + events: + creates_events: false + metrics: + check: + - scaphandre.host.cpu.frequency + metadata_path: metadata.csv + prefix: scaphandre. + service_checks: + metadata_path: assets/service_checks.json + source_type_id: 15882148 + source_type_name: Scaphandre + logs: {} +author: + homepage: https://github.com/hubblo-org/scaphandre + name: Sarah + sales_email: sarah.witt@datadoghq.com + support_email: sarah.witt@datadoghq.com +categories: +- os & system +custom_kind: 통합 +dependencies: +- https://github.com/DataDog/integrations-extras/blob/master/scaphandre/README.md +display_on_public_website: true +draft: false +git_integration_title: scaphandre +integration_id: scaphandre +integration_title: Scaphandre +integration_version: 1.0.0 +is_public: true +manifest_version: 2.0.0 +name: scaphandre +public_title: Scaphandre +short_description: 베어 메탈 머신의 전력 사용량을 측정하는 모니터링 에이전트 +supported_os: +- linux +- 윈도우즈(Windows) +- macos +tile: + changelog: CHANGELOG.md + classifier_tags: + - Supported OS::Linux + - Supported OS::Windows + - Supported OS::macOS + - Category::OS & System + - Offering::Integration + - Submitted Data Type::Metrics + configuration: README.md#Setup + description: 베어 메탈 머신의 전력 사용량을 측정하는 모니터링 에이전트 + media: [] + overview: README.md#Overview + support: README.md#Support + title: Scaphandre +--- + + + + +## 개요 + +본 점검은 베어 메탈 머신의 전력 사용량을 측정하기 위해 파워캡을 통해 RAPL과 MsrRAPL을 사용하는 모니터링 Agent인 [Scaphandre][1]를 모니터링합니다. 해당 프로젝트의 목표는 회사 또는 개인이 기술 서비스의 전력 소비를 측정하고, 해당 데이터를 편리한 형식으로 가져와 모니터링 또는 데이터 분석 툴 체인을 통해 전송할 수 있게 하는 것입니다. + +## 설정 + +### 설치 + +다음에 따라 호스트에 Scaphandre 점검을 설치합니다. + + +1. 머신에 [개발자 툴킷][2]을 설치합니다. 설치해야 하는 특정 개발자 툴킷은 플랫폼과 아키텍처에 따라 다릅니다. + +2. 다음 명령을 실행하여 패키지를 빌드합니다. + ``` + ddev release build scaphandre + ``` + +3. [Datadog Agent를 다운로드][3]합니다. + +4. 빌드 아티팩트를 Agent가 있는 호스트에 업로드하고 다음 명령을 실행합니다. + ``` + datadog-agent integration install -w path/to/scaphandre/dist/.whl + ``` + +### 설정 + +[Agent 구성 디렉터리][4] 루트의 `conf.d/` 폴더에 있는 `scaphandre.d/conf.yaml` 파일을 편집합니다. 사용할 수 있는 구성 옵션 전체를 보려면 [샘플 scaphandre.d/conf.yaml][5]를 참고하세요. 예를 들어, Scaphandre 명령줄 태그를 보호하고 민감한 데이터가 Datadog으로 전송되지 않도록 하려면 `exclude_labels` config 옵션을 사용합니다. + +[Agent를 다시 시작][6]하여 Datadog으로 Scaphandre 메트릭을 전송하기 시작합니다. + +### 검증 + +[Agent 상태 하위 명령][7]을 실행하고 **Checks** 섹션에서 `scaphandre`를 찾습니다. + +## 수집한 데이터 + +### 메트릭 +{{< get-metrics-from-git "scaphandre" >}} + + +### 서비스 점검 + +Scaphandre는 서비스 점검을 포함하지 않습니다. + +### 이벤트 + +Scaphandre는 이벤트를 포함하지 않습니다. + +## 트러블슈팅 + +도움이 필요하신가요? [Datadog 지원팀][9]에 문의하세요. + +[1]: https://github.com/hubblo-org/scaphandre +[2]: https://docs.datadoghq.com/ko/developers/integrations/python/ +[3]: https://app.datadoghq.com/account/settings/agent/latest +[4]: https://docs.datadoghq.com/ko/agent/guide/agent-configuration-files/#agent-configuration-directory +[5]: https://github.com/DataDog/integrations-core/blob/master/scaphandre/datadog_checks/scaphandre/data/conf.yaml.example +[6]: https://docs.datadoghq.com/ko/agent/guide/agent-commands/#start-stop-and-restart-the-agent +[7]: https://docs.datadoghq.com/ko/agent/guide/agent-commands/#agent-status-and-information +[8]: https://github.com/DataDog/integrations-extras/blob/master/scaphandre/metadata.csv +[9]: https://docs.datadoghq.com/ko/help/ \ No newline at end of file diff --git a/content/ko/integrations/silk.md b/content/ko/integrations/silk.md new file mode 100644 index 00000000000..d90c44ee00a --- /dev/null +++ b/content/ko/integrations/silk.md @@ -0,0 +1,129 @@ +--- +app_id: silk +app_uuid: 1f436ae6-e063-408f-ad35-37ee37fa2183 +assets: + dashboards: + Silk - Overview: assets/dashboards/silk_overview.json + integration: + auto_install: true + configuration: + spec: assets/configuration/spec.yaml + events: + creates_events: true + metrics: + check: silk.system.capacity.free + metadata_path: metadata.csv + prefix: silk. + service_checks: + metadata_path: assets/service_checks.json + source_type_id: 10250 + source_type_name: Silk + monitors: + Latency is high: assets/monitors/latency_high.json +author: + homepage: https://www.datadoghq.com + name: Datadog + sales_email: info@datadoghq.com + support_email: help@datadoghq.com +categories: +- cloud +- 데이터 스토어 +- 프로비저닝 +custom_kind: integration +dependencies: +- https://github.com/DataDog/integrations-core/blob/master/silk/README.md +display_on_public_website: true +draft: false +git_integration_title: silk +integration_id: silk +integration_title: Silk +integration_version: 4.1.0 +is_public: true +manifest_version: 2.0.0 +name: silk +public_title: Silk +short_description: Silk 성능과 시스템 상태를 모니터링합니다. +supported_os: +- 리눅스 +- macos +- windows +tile: + changelog: CHANGELOG.md + classifier_tags: + - Supported OS::Linux + - Supported OS::macOS + - Supported OS::Windows + - "\b카테고리::클라우드" + - 카테고리::데이터 저장 + - 카테고리::프로비저닝 + - 제공::통합 + configuration: README.md#Setup + description: Silk 성능과 시스템 상태를 모니터링합니다. + media: [] + overview: README.md#Overview + support: README.md#Support + title: Silk +--- + + + + +## 개요 + +본 점검은 Datadog Agent를 통해 [Silk][1]를 모니터링합니다. + +## 설정 + +아래 지침을 따라 호스트에서 실행되는 에이전트에 대해 이 점검을 설치하고 설정하세요. 컨테이너화된 환경의 경우 이러한 지침을 적용하는 데 가이드가 필요하면 [오토파일럿 통합 템플릿][3]을 참조하세요. + +### 설치 + +Silk 점검은 [Datadog Agent][3] 패키지에 포함되어 있습니다. +서버에 추가 설치가 필요하지 않습니다. + +### 구성 + +1. Agent 구성 디렉터리 루트의 `conf.d/` 폴더에 있는 `silk.d/conf.yaml` 파일을 편집하여 Silk 성능 데이터 수집을 시작합니다. 사용 가능한 모든 구성 옵션은 [샘플 silk.d/conf.yaml][4]을 참조하세요. + +2. [Agent를 재시작합니다][5]. + +### 검증 + +[Agent 상태 하위 명령을 실행][6]하고 Checks 섹션에서 `silk`를 찾습니다. + +## 수집한 데이터 + +### 메트릭 +{{< get-metrics-from-git "silk" >}} + + +### 이벤트 + +Silk 통합은 Silk 서버에서 발생하는 이벤트를 기록합니다. 이벤트 레벨은 다음과 같이 매핑됩니다. + +| Silk | Datadog | +|---------------------------|------------------------------------| +| `INFO` | `info` | +| `ERROR` | `error` | +| `WARNING` | `warning` | +| `CRITICAL` | `error` | + + +### 서비스 점검 +{{< get-service-checks-from-git "silk" >}} + + +## 트러블슈팅 + +도움이 필요하신가요? [Datadog 지원팀][9]에 문의하세요. + + +[1]: https://silk.us/ +[2]: https://docs.datadoghq.com/ko/agent/kubernetes/integrations/ +[3]: https://app.datadoghq.com/account/settings/agent/latest +[4]: https://github.com/DataDog/integrations-core/blob/master/silk/datadog_checks/silk/data/conf.yaml.example +[5]: https://docs.datadoghq.com/ko/agent/guide/agent-commands/#start-stop-and-restart-the-agent +[6]: https://docs.datadoghq.com/ko/agent/guide/agent-commands/#agent-status-and-information +[7]: https://github.com/DataDog/integrations-core/blob/master/silk/metadata.csv +[8]: https://github.com/DataDog/integrations-core/blob/master/silk/assets/service_checks.json +[9]: https://docs.datadoghq.com/ko/help/ \ No newline at end of file diff --git a/content/ko/integrations/singlestore.md b/content/ko/integrations/singlestore.md new file mode 100644 index 00000000000..4c13f3736e9 --- /dev/null +++ b/content/ko/integrations/singlestore.md @@ -0,0 +1,192 @@ +--- +app_id: singlestore +app_uuid: 5e8c3b5f-278f-4423-90d9-969c06a478eb +assets: + dashboards: + Singlestore Overview: assets/dashboards/overview.json + integration: + auto_install: true + configuration: + spec: assets/configuration/spec.yaml + events: + creates_events: false + metrics: + check: singlestore.bytes_received + metadata_path: metadata.csv + prefix: singlestore. + process_signatures: + - memsqld + service_checks: + metadata_path: assets/service_checks.json + source_type_id: 10215 + source_type_name: SingleStore + monitors: + License will expire soon: assets/monitors/license_expiration.json + Read queries failure rate is high: assets/monitors/read_failures.json + Write queries failure rate is high: assets/monitors/write_failures.json +author: + homepage: https://www.datadoghq.com + name: Datadog + sales_email: info@datadoghq.com + support_email: help@datadoghq.com +categories: +- 데이터 스토어 +- 로그 수집 +- 네트워크 +custom_kind: integration +dependencies: +- https://github.com/DataDog/integrations-core/blob/master/singlestore/README.md +display_on_public_website: true +draft: false +git_integration_title: singlestore +integration_id: singlestore +integration_title: SingleStore +integration_version: 4.1.0 +is_public: true +manifest_version: 2.0.0 +name: singlestore +public_title: SingleStore +short_description: 리프 및 애그리게이터 노드에서 SingleStore 메트릭을 수집합니다. +supported_os: +- 리눅스 +- windows +- macos +tile: + changelog: CHANGELOG.md + classifier_tags: + - 카테고리::데이터 저장 + - Category::Log Collection + - Category::Network + - Supported OS::Linux + - Supported OS::Windows + - Supported OS::macOS + - 제공::통합 + configuration: README.md#Setup + description: 리프 및 애그리게이터 노드에서 SingleStore 메트릭을 수집합니다. + media: [] + overview: README.md#Overview + support: README.md#Support + title: SingleStore +--- + + + + +## 개요 + +본 점검은 Datadog Agent를 통해 [SingleStore][1]를 모니터링합니다. SingleStore는 저장된 데이터의 트랜잭션 및 분석 처리를 제공합니다. Datadog-SingleStoreDB 통합을 활성화하면 다음 작업을 할 수 있습니다. + +- 메트릭과 이벤트로 클러스터와 노드의 상태를 파악합니다. +- 스토리지 용량 감소 문제를 해결합니다. +- 리소스 활용 효율성을 개선합니다. + + +## 설정 + +아래 지침을 따라 호스트에서 실행되는 에이전트에 대해 이 점검을 설치하고 설정하세요. 컨테이너화된 환경의 경우 이러한 지침을 적용하는 데 가이드가 필요하면 [오토파일럿 통합 템플릿][3]을 참조하세요. + +### 설치 + +SingleStore 점검은 [Datadog Agent][3] 패키지에 포함되어 있습니다. +서버에 추가 설치가 필요하지 않습니다. + +### 구성 + +#### 호스트 + +##### 메트릭 수집 +1. Agent 설정 디렉터리 루트의 `conf.d/` 폴더에서 `singlestore.d/conf.yaml` 파일을 편집해 SingleStore 성능 데이터 수집을 시작합니다. 사용할 수 있는 설정 옵션을 모두 보려면 [singlestore.d/conf.yaml 샘플][4]을 참고하세요. + +2. [Agent를 재시작합니다][5]. + +**참고**: 기본적으로 SingleStore 통합은 `MV_GLOBAL_STATUS`, `AGGREGATORS`, `LEAVES` 테이블의 메트릭만 수집합니다. 추가 시스템 수준 메트릭(CPU, 디스크, 네트워크 IO, 메모리)을 수집하려면 `singlestore.d/conf.yaml` 파일에서 `collect_system_metrics: true`를 설정하세요. + +##### 로그 수집 + + +{{< site-region region="us3" >}} +**로그 수집은 이 사이트에서 지원되지 않습니다.** +{{< /site-region >}} + + +1. Datadog 에이전트에서 로그 수집은 기본적으로 사용하지 않도록 설정되어 있습니다. `datadog.yaml`파일에서 로그 수집을 사용하도록 설정합니다. + + ```yaml + logs_enabled: true + ``` + +2. 원하는 로그 파일을 `singlestore.d/conf.yaml` 파일에 추가하여 SingleStore 로그 수집을 시작하세요. + + ```yaml + logs: + - type: file + path: /var/lib/memsql//tracelogs/memsql.log + source: singlestore + service: "" + ``` + + `path` 및 `service` 파라미터 값을 변경하고 환경에 맞게 구성합니다. 사용 가능한 모든 구성 옵션은 [샘플 singlestore.d/conf.yaml][4]을 참조하세요. + +3. [Agent를 재시작합니다][5]. + +#### 컨테이너화 + +컨테이너화된 환경의 경우 [Autodiscovery 통합 템플릿][2]에 아래 파라미터를 적용하는 방법이 안내되어 있습니다. + +#### 메트릭 수집 + +| 파라미터 | 값 | +|----------------------|------------------------------------------------------------| +| `` | `singlestore` | +| `` | 비어 있음 또는 `{}` | +| `` | `{"host": "%%host%%", "port": "%%port%%", "username": "", "password": ""}` | + +##### 로그 수집 + + +{{< site-region region="us3" >}} +**로그 수집은 이 사이트에서 지원되지 않습니다.** +{{< /site-region >}} + + +Datadog Agent에서 로그 수집은 기본적으로 비활성화되어 있습니다. 활성화하려면 [Kubernetes 로그 수집][6]을 참고하세요. + +| 파라미터 | 값 | +|----------------|-------------------------------------------| +| `` | `{"source": "singlestore", "service": ""}` | + + +### 검증 + +[Agent의 상태 하위 명령을 실행][7]하고 Checks 섹션에서 `singlestore`를 찾습니다. + +## 수집한 데이터 + +### 메트릭 +{{< get-metrics-from-git "singlestore" >}} + + + +### 이벤트 + +SingleStore 통합은 이벤트를 포함하지 않습니다. + +### 서비스 점검 +{{< get-service-checks-from-git "singlestore" >}} + + +## 트러블슈팅 + +도움이 필요하신가요? [Datadog 고객 지원팀][10]에 문의해주세요. + + +[1]: https://www.singlestore.com/ +[2]: https://docs.datadoghq.com/ko/getting_started/agent/autodiscovery#integration-templates +[3]: https://app.datadoghq.com/account/settings/agent/latest +[4]: https://github.com/DataDog/integrations-core/blob/master/singlestore/datadog_checks/singlestore/data/conf.yaml.example +[5]: https://docs.datadoghq.com/ko/agent/guide/agent-commands/#start-stop-and-restart-the-agent +[6]: https://docs.datadoghq.com/ko/agent/kubernetes/log/ +[7]: https://docs.datadoghq.com/ko/agent/guide/agent-commands/#agent-status-and-information +[8]: https://github.com/DataDog/integrations-core/blob/master/singlestore/metadata.csv +[9]: https://github.com/DataDog/integrations-core/blob/master/singlestore/assets/service_checks.json +[10]: https://docs.datadoghq.com/ko/help/ \ No newline at end of file diff --git a/content/ko/integrations/sofy_sofy_license.md b/content/ko/integrations/sofy_sofy_license.md new file mode 100644 index 00000000000..39f2b75a807 --- /dev/null +++ b/content/ko/integrations/sofy_sofy_license.md @@ -0,0 +1,117 @@ +--- +algolia: + subcategory: Marketplace 통합 +app_id: sofy-sofy-license +app_uuid: da7fd688-3ed6-4ecc-808a-604fba2ae168 +assets: {} +author: + homepage: http://sofy.ai + name: Sofy + sales_email: sofysales@sofy.ai + support_email: support@sofy.ai + vendor_id: sofy +categories: +- 테스트 +- marketplace +- mobile +- 협업 +custom_kind: integration +dependencies: [] +display_on_public_website: true +draft: false +git_integration_title: sofy_sofy_license +integration_id: sofy-sofy-license +integration_title: Sofy +integration_version: '' +is_public: true +legal_terms: + eula: assets/eula.pdf +manifest_version: 2.0.0 +name: sofy_sofy_license +pricing: +- billing_type: flat_fee + includes_assets: false + product_id: sofy-license + short_description: 모바일 앱용 노 코드 테스트 플랫폼 + unit_price: 599 +public_title: Sofy +short_description: 모바일 앱용 노 코드 테스트 +supported_os: +- linux +- windows +- macos +tile: + changelog: CHANGELOG.md + classifier_tags: + - Supported OS::Linux + - Supported OS::Windows + - Supported OS::macOS + - Category::Testing + - Category::Marketplace + - Category::Mobile + - Category::Collaboration + - 제출한 데이터 유형::메트릭 + - Offering::Software License + configuration: README.md#Setup + description: 모바일 앱용 노 코드 테스트 + media: + - caption: Sofy 대시보드 + image_url: images/sofy_dashboard.png + media_type: image + - caption: Sofy 기기 + image_url: images/sofy_devices.png + media_type: image + - caption: Sofy Device Lab + image_url: images/sofy_lab.png + media_type: image + - caption: Sofy 테스트런 리포트 + image_url: images/sofy_report.png + media_type: image + - caption: Sofy 테스트런 결과 + image_url: images/sofy_result.png + media_type: image + overview: README.md#Overview + resources: + - resource_type: 블로그 + url: https://www.datadoghq.com/blog/sofy-mobile-tests/ + - resource_type: 설명서 + url: https://docs.sofy.ai + support: README.md#Support + title: Sofy + uninstallation: README.md#Uninstallation +--- + + + + +## 개요 + +[Sofy][4]는 모바일 앱을 위한 노 코드 테스트 플랫폼입니다. 코드 한 줄 없이도 실제 기기에서 CI/CD 파이프라인을 통해 QA 테스트를 실행할 수 있습니다. Sofy는 계획, 자동화, 환경, 실행, 보고, 디버깅을 간소화합니다. 시간을 절약하고, 릴리스 품질을 개선하고, 원활한 모바일 앱 경험을 제공하세요. + +본 [Sofy 통합][1]은 로드 시간, 네트워크, 메모리 활용도, CPU와 같은 주요 메트릭과 트렌드를 시각화하여 테스트 프로세스에 관한 깊은 인사이트를 제공합니다. 즉시 사용 가능한 대시보드는 Sofy 테스트 결과의 실시간 가시성을 제공하므로 시간 경과에 따른 성능을 모니터링 및 분석하고 데이터 기반 결정을 내려 전반적인 소프트웨어 품질을 향상할 수 있습니다. + +Datadog Marketplace에서 Sofy에 가입하고 향후 12개월 동안 매월 기기 사용 시간 500분을 추가로 받아 보세요. + + + +## 지원 + +지원이나 기능 요청은 다음 채널을 통해 Sofy에 문의하세요. + +- 지원: [Sofy][2] + +### 참고 자료 + +기타 유용한 문서, 링크 및 기사: + + - [Datadog Marketplace에서 Sofy 제품으로 모바일 테스트 모니터링하기][5] + - [Sofy 설명서][3] + + +[1]: https://app.datadoghq.com/integrations/sofy +[2]: https://support.sofy.ai/support/tickets/new +[3]: https://docs.sofy.ai +[4]: https://sofy.ai/ +[5]: https://www.datadoghq.com/blog/sofy-mobile-tests/ +--- +이 애플리케이션은 Datadog Marketplace를 통해 제공되며 Datadog 기술 파트너가 지원합니다. 사용하려면 Marketplace에서 이 애플리케이션을 구매하세요. \ No newline at end of file diff --git a/content/ko/integrations/speedscale_speedscale.md b/content/ko/integrations/speedscale_speedscale.md new file mode 100644 index 00000000000..824c17dbb99 --- /dev/null +++ b/content/ko/integrations/speedscale_speedscale.md @@ -0,0 +1,105 @@ +--- +algolia: + subcategory: Marketplace 통합 +app_id: speedscale-speedscale +app_uuid: beb5efb1-63d5-4030-840d-7dbf6a92a4d6 +assets: {} +author: + homepage: https://speedscale.com + name: Speedscale + sales_email: datadog-sales@speedscale.com + support_email: support@speedscale.com + vendor_id: speedscale +categories: +- ㅊ +- 쿠버네티스(Kubernetes) +- marketplace +- 테스팅 +custom_kind: integration +dependencies: [] +display_on_public_website: true +draft: false +git_integration_title: speedscale_speedscale +integration_id: speedscale-speedscale +integration_title: Speedscale +integration_version: '' +is_public: true +legal_terms: + eula: assets/eula.pdf +manifest_version: 2.0.0 +name: speedscale_speedscale +pricing: +- billing_type: flat_fee + includes_assets: true + product_id: software-license + short_description: Speedscale Pro(최대 100회 리플레이 및 10GB 트래픽) 월간 요금 + unit_price: 999 +public_title: Speedscale +short_description: Kubernetes 부하 테스트용 트래픽 리플레이 플랫폼 +supported_os: +- 리눅스 +- windows +- macos +tile: + changelog: CHANGELOG.md + classifier_tags: + - Category::Containers + - Category::Kubernetes + - Category::Marketplace + - Category::Testing + - Offering::Software License + - Supported OS::Linux + - Supported OS::Windows + - Supported OS::macOS + configuration: README.md#Setup + description: Kubernetes 부하 테스트용 트래픽 리플레이 플랫폼 + media: + - caption: Speedscale 트래픽 캡처 + image_url: images/spd-1-traffic-capture.png + media_type: image + - caption: Speedscale 리플레이 리포트 + image_url: images/spd-2-report.png + media_type: image + - caption: Datadog 대시보드와 Speedscale 통합 + image_url: images/spd-3-datadog-dashboard.png + media_type: image + overview: README.md#Overview + resources: + - resource_type: 블로그 + url: https://www.datadoghq.com/blog/stress-test-kubernetes-with-speedscale/ + - resource_type: 설명서 + url: https://docs.speedscale.com/ + support: README.md#Support + title: Speedscale + uninstallation: README.md#Uninstallation +--- + + + + +## 개요 +많은 기업이 클라우드 서비스의 문제가 고객에게 영향을 미치기 전 이를 발견하는 데 어려움을 겪습니다. 개발자에게 있어서 테스트 작성은 시간이 많이 소요되는 수작업입니다. Speedscale은 Kubernetes 엔지니어링 및 DevOps 팀이 새로운 코드가 실제 시나리오에서 어떻게 작동할지 확신을 가질 수 있도록 도와드립니다. Speedscale은 API 트래픽을 수집 및 리플레이하고, 과부하 또는 혼잡을 시뮬레이션하며, 코드가 릴리스되기 전 레이턴시, 처리량, 포화도, 오류를 측정합니다. Speedscale Traffic Replay는 실행하는 데 며칠이나 몇 주가 소요되며, 최신 아키텍처에 적합하지 않은 레거시 테스트 접근 방식을 대체할 수 있습니다. + +Speedscale 트래픽 리플레이 결과를 Datadog에 게시하려면 [Speedscale 통합][1]을 설치하세요. 본 통합으로 Datadog의 관측 가능성 데이터와 특정 Speedscale 리플레이 결과를 조합하여 성능 저하의 근본 원인을 조사할 수 있습니다. + +## 지원 + +지원이나 기능 요청은 다음 채널을 통해 Speedscale 에 문의하세요. + +- 이메일: [support@speedscale.com][5] +- Slack: [커뮤니티][4] + +### 참고 자료 + +기타 유용한 문서, 링크 및 기사: + +- [Datadog Marketplace의 Speedscale 제품으로 Kubernetes 애플리케이션 스트레스 테스트하기][6] +- [Speedscale 설명서][3] + +[1]: https://app.datadoghq.com/integrations/speedscale +[3]: https://docs.speedscale.com/ +[4]: https://slack.speedscale.com/ +[5]: mailto:support@speedscale.com +[6]: https://www.datadoghq.com/blog/stress-test-kubernetes-with-speedscale/ +--- +이 애플리케이션은 Datadog Marketplace를 통해 제공되며 Datadog 기술 파트너의 지원을 받습니다. 사용하려면 Marketplace에서 애플리케이션을 구매하세요. \ No newline at end of file diff --git a/content/ko/integrations/squid.md b/content/ko/integrations/squid.md new file mode 100644 index 00000000000..54eb562663f --- /dev/null +++ b/content/ko/integrations/squid.md @@ -0,0 +1,234 @@ +--- +app_id: squid +app_uuid: de18c581-69ee-48cf-ba23-7794bfb7a4bd +assets: + dashboards: + Squid: assets/dashboards/squid.json + integration: + auto_install: true + configuration: + spec: assets/configuration/spec.yaml + events: + creates_events: false + metrics: + check: squid.cachemgr.cpu_time + metadata_path: metadata.csv + prefix: squid. + service_checks: + metadata_path: assets/service_checks.json + source_type_id: 10022 + source_type_name: Squid + logs: + source: squid + monitors: + CPU usage exceeded: assets/monitors/cpu_usage_exceeded.json + High latency requests: assets/monitors/high_latency_requests.json + High rate of client HTTP errors: assets/monitors/high_rate_of_client_http_errors.json + High rate of server errors: assets/monitors/high_rate_of_server_errors.json +author: + homepage: https://www.datadoghq.com + name: Datadog + sales_email: info@datadoghq.com + support_email: help@datadoghq.com +categories: +- caching +- log collection +custom_kind: 통합 +dependencies: +- https://github.com/DataDog/integrations-core/blob/master/squid/README.md +display_on_public_website: true +draft: false +git_integration_title: squid +integration_id: squid +integration_title: Squid +integration_version: 4.1.0 +is_public: true +manifest_version: 2.0.0 +name: squid +public_title: Squid +short_description: Datadog으로 Squid 캐시 서버의 메트릭을 추적하세요. +supported_os: +- linux +- windows +- macos +tile: + changelog: CHANGELOG.md + classifier_tags: + - Category::Caching + - Category::Log Collection + - Supported OS:Linux + - Supported OS::Windows + - Supported OS::macOS + - Offering::Integration + configuration: README.md#Setup + description: Datadog으로 Squid 캐시 서버의 메트릭을 추적하세요. + media: + - caption: Squid + image_url: images/squid.png + media_type: image + overview: README.md#Overview + support: README.md#Support + title: Squid +--- + + + + +## 개요 +[Squid][1]는 네트워크에서 클라이언트와 서버 사이의 중개 역할을 하는 오픈 소스 캐싱 및 포워딩 웹 프록시 서버입니다. 클라이언트가 서버의 웹사이트, 파일, 기타 콘텐츠 등 다양한 인터넷 리소스에 액세스할 수 있도록 하는 게이트웨이 역할을 합니다. + +본 통합으로 Squid 로그에 대한 보강 및 시각화 기능을 제공합니다. 즉시 사용 가능한 대시보드와 탐지 규칙을 통해 Squid 로그 분석에 관한 자세한 인사이트를 시각화하여 탐지 및 대응 기능을 향상합니다. + +또한 다음 사항에 관한 사전 알림을 위해 미리 설정된 모니터가 포함되어 있습니다. + +1. 높은 서버 오류 발생률 +2. CPU 사용량 초과 +3. 레이턴시가 긴 요청 +4. 높은 클라이언트 HTTP 오류 발생률 + + +이 점검은 Datadog Agent를 통해 Cache Manager의 [Squid][1] 메트릭을 모니터링합니다. + +## 설정 + +### 설치 + +Agent Squid 점검은 [Datadog Agent][2] 패키지에 포함되어 있습니다. Squid 서버에 추가 설치가 필요하지 않습니다. + +### 설정 + +{{< tabs >}} +{{% tab "호스트" %}} + +#### 호스트 + +호스트에서 실행 중인 에이전트에 이 점검을 구성하는 방법: + +##### 메트릭 수집 + +1. [Agent 구성 디렉터리][1] 루트의 `conf.d/` 폴더에 있는 `squid.d/conf.yaml` 파일을 편집합니다. 사용 가능한 모든 구성 옵션은 [샘플 squid.d/conf.yaml][2]을 참조하세요. + +2. [에이전트를 다시 시작합니다][3]. + +##### 로그 수집 + +_에이전트 버전 > 6.0에서 사용 가능_ + +1. 로그 수집은 Datadog 에이전트에서 기본적으로 비활성화되어 있습니다. `datadog.yaml` 파일에서 활성화합니다. + + ```yaml + logs_enabled: true + ``` + +2. `squid.d/conf.yaml` 파일의 하단에서 이 구성 블록의 주석 처리를 제거하고 편집합니다. + + ```yaml + logs: + - type: file + path: /var/log/squid/cache.log + service: "" + source: squid + - type: file + path: /var/log/squid/access.log + service: "" + source: squid + ``` + + `path` 및 `service` 파라미터 값을 변경하고 환경에 맞게 설정합니다. + +3. [에이전트를 다시 시작합니다][3]. + +[1]: https://docs.datadoghq.com/ko/agent/guide/agent-configuration-files/#agent-configuration-directory +[2]: https://github.com/DataDog/integrations-core/blob/master/squid/datadog_checks/squid/data/conf.yaml.example +[3]: https://docs.datadoghq.com/ko/agent/guide/agent-commands/#start-stop-and-restart-the-agent +{{% /tab %}} +{{% tab "컨테이너화된 환경" %}} + +#### 컨테이너화된 환경 + +컨테이너화된 환경의 경우 [자동탐지 통합 템플릿][1]에 아래 파라미터를 적용하는 방법이 안내되어 있습니다. + +##### 메트릭 수집 + +| 파라미터 | 값 | +| -------------------- | ---------------------------------------------------------------------- | +| `` | `squid` | +| `` | 비어 있음 또는 `{}` | +| `` | `{"name": "", "host": "%%host%%", "port":"3128"}` | + +##### 로그 수집 + +_에이전트 버전 > 6.0에서 사용 가능_ + +Datadog 에이전트에서 로그 수집은 기본값으로 비활성화되어 있습니다. 이를 활성화하려면 [쿠버네티스(Kubernetes) 로그 수집][2]을 참조하세요. + +| 파라미터 | 값 | +| -------------- | --------------------------------------------------- | +| `` | `{"source": "squid", "service": ""}` | + +[1]: https://docs.datadoghq.com/ko/agent/kubernetes/integrations/ +[2]: https://docs.datadoghq.com/ko/agent/kubernetes/log/?tab=containerinstallation#setup +{{% /tab %}} +{{< /tabs >}} + +### 검증 + +[Agent의 상태 하위 명령을 실행][3]하고 Checks 섹션에서 `squid`를 찾으세요. + +## 수집한 데이터 + +### 로그 +Squid 통합은 액세스 및 캐시 로그를 수집합니다. + +#### 지원되는 액세스 로그 형식 +|이름 | 형식 사양| +|---------------------|------------------------------| +| squid |`%ts.%03tu %6tr %>a %Ss/%03>Hs %a - %[un [%tl] "%rm %ru HTTP/%rv" %>Hs %a - %[un [%tl] "%rm %ru HTTP/%rv" %>Hs %h" "%{User-Agent}>h" %Ss:%Sh`| + +자세한 내용은 [Squid 로그 형식][4]을 참조하세요. + +**참고**: 기본 `logformat` 유형은 `squid`입니다. `/etc/squid/squid.conf`에서 지원되는 로그 형식을 업데이트한 다음 Squid를 다시 시작할 수 있습니다. + +`logformat`에 `combined` 유형을 사용하려면 `/etc/squid/squid.conf` 파일에 다음 줄을 추가합니다. + +``` +logformat combined %>a %[ui %[un [%tl] "%rm %ru HTTP/%rv" %>Hs %h" "%{User-Agent}>h" %Ss:%Sh +access_log /var/log/squid/access.log combined +``` +그런 다음 아래 명령으로 `squid` 서비스를 다시 시작합니다. + +```shell +sudo systemctl restart squid +``` + +**참고**: + +- `Top Avg Request Duration by URL Host` 패널은 `logformat`의 `squid` 유형이 구성된 경우에만 로드됩니다. +- `Top Browsers` 및 `Top HTTP Referrer` 패널은 `logformat`의 `combined` 유형이 구성된 경우에만 로드됩니다. + + +### 메트릭 +{{< get-metrics-from-git "squid" >}} + + +### 이벤트 + +Squid 점검은 이벤트를 포함하지 않습니다. + +### 서비스 점검 +{{< get-service-checks-from-git "squid" >}} + + +## 트러블슈팅 + +도움이 필요하신가요? [Datadog 지원팀][5]에 문의하세요. + + + +[1]: http://www.squid-cache.org/ +[2]: https://app.datadoghq.com/account/settings/agent/latest +[3]: https://docs.datadoghq.com/ko/agent/guide/agent-commands/#agent-status-and-information +[4]: https://www.squid-cache.org/Doc/config/logformat/ +[5]: https://docs.datadoghq.com/ko/help/ \ No newline at end of file diff --git a/content/ko/network_monitoring/cloud_network_monitoring/network_map.md b/content/ko/network_monitoring/cloud_network_monitoring/network_map.md new file mode 100644 index 00000000000..a8f4e2d94ae --- /dev/null +++ b/content/ko/network_monitoring/cloud_network_monitoring/network_map.md @@ -0,0 +1,91 @@ +--- +aliases: +- /ko/network_performance_monitoring/network_map/ +- /ko/network_monitoring/performance/network_map +description: 네트워크 데이터를 모든 태그에 걸쳐 매핑합니다. +further_reading: +- link: https://www.datadoghq.com/blog/network-performance-monitoring + tag: 블로그 + text: 클라우드 네트워크 모니터링 +- link: https://www.datadoghq.com/blog/datadog-npm-search-map-updates/ + tag: 블로그 + text: 향상된 쿼리 및 맵 경험을 통해 네트워크 조사를 간소화합니다. +- link: /network_monitoring/devices + tag: 설명서 + text: 네트워크 장치 모니터링 +- link: /network_monitoring/cloud_network_monitoring/setup + tag: 설명서 + text: Datadog 에이전트를 사용하여 네트워크 데이터를 수집합니다. +title: 네트워크 맵 +--- + +## 개요 + +[네트워크 맵][1]은 네트워크의 토폴로지 보기를 제공하여 네트워크 파티션, 종속성 및 병목 현상을 시각화할 수 있도록 도와줍니다. 이 페이지는 네트워크 데이터를 방향 맵으로 통합하여 노이즈를 차단하고 문제가 있는 영역을 분리하는 데 사용할 수 있습니다. + +{{< img src="network_performance_monitoring/network_map/network_map_3.png" alt="network_map" >}} + +## 설정 + +네트워크 맵은 Datadog 에이전트에서 수집한 데이터를 자동으로 시각화합니다. 설치한 후에는 추가 단계가 필요하지 않습니다. + +## 사용법 + +**맵** 탭을 선택하여 네트워크 맵을 설정합니다: + +{{< img src="network_performance_monitoring/network_map/network_map_search.png" alt="네트워크 맵 페이지 검색 창" >}} + +1. 페이지 상단의 첫 번째 셀렉터를 사용하여 **Nodes**에 표시할 태그를 선택합니다. 사용 가능한 태그는 네트워크 페이지에서 제공되는 태그와 동일합니다. + + {{< img src="network_performance_monitoring/network_map/network_map_search_additional_filter.png" alt="네트워크 맵 페이지 검색 창" >}} + + - 노드가 너무 많으면 두 번째 태그가 자동으로 그룹에 추가됩니다. **By** 드롭다운 메뉴에서 태그를 변경할 수 있습니다. 자세한 내용은 [클러스터링](#map-clusters)을 참조하세요. +2. **Edges**가 나타낼 메트릭을 선택합니다: + + - 전송 처리량 + - 수신 처리량 + - TCP 재전송 + - TCP 지연 시간 + - TCP Jitter + - 설정된 연결 + - 폐쇄된 연결 + +3. 표시할 연결을 필터링합니다. 다음 사용 여부를 선택할 수 있습니다: + + - 특정 환경, 네임스페이스 또는 기타 태그에 대한 트래픽을 필터링합니다. + - 퍼지 문자열 일치를 기준으로 태그를 필터링합니다. + {{< img src="network_performance_monitoring/network_map/filtering_npm_map_search.mp4" alt="검색을 통한 네트워크 맵 필터링" video="true" >}} + + - **미해결 트래픽을 표시합니다**. + - 네트워크 트래픽을 활성 네트워크 메트릭의 지정된 백분위수 범위 밖으로 숨깁니다. + {{< img src="network_performance_monitoring/network_map/filtering_network_map.mp4" alt="네트워크 맵 플로우 필터링" video="true" width="50%" >}} + +## 조사 + +노드 위에 마우스를 놓으면 노드가 강조 표시되고 전송 및 수신하는 네트워크 트래픽의 방향성이 애니메이션으로 표시됩니다: + +{{< img src="network_performance_monitoring/network_map/network_map_highlight.mp4" alt="네트워크 맵" video="true" width="70%" >}} + +노드를 클릭하고 메뉴에서 _Inspect_를 선택하면 더 큰 네트워크 내에서 해당 노드를 컨텍스트화할 수 있습니다: + +{{< img src="network_performance_monitoring/network_map/network_entity_zoom.mp4" alt="네트워크 엔티티 확대" video="true" width="70%">}} + +## 맵 클러스터 + +복잡한 네트워크의 경우 맵의 쿼리 편집기에는 추가 그룹화 필드가 있습니다. 이렇게 하면 노드가 너무 많아 맵에 한 번에 표시할 수 없는 데이터 집합을 렌더링할 수 있습니다. 추가 그룹화 필드를 사용하면 카디널리티가 높은 쿼리의 성능도 향상됩니다. + +{{< img src="network_performance_monitoring/network_map/network_map_search_additional_filter.png" alt="네트워크 맵 페이지 검색 창" >}} + +{{< img src="network_performance_monitoring/network_map/network_map_3.png" alt="network_map" >}} + +클러스터링은 맵의 노드를 그룹화하기 위한 차원을 추가합니다. 큰 맵은 자동으로 클러스터링되어 맵의 로드 시간과 가독성을 개선합니다. 클러스터 내의 노드를 보려면 클러스터를 클릭하여 확장합니다. 클러스터를 축소하려면 노드를 둘러싼 회색 영역을 클릭합니다. + +클러스터 주위의 빨간색 테두리는 하나 이상의 알림 모니터가 노드가 그룹화된 태그와 일치하는 태그를 가지고 있음을 나타냅니다. 예를 들어, 맵이 서비스별로 그룹화된 경우 맵은 `service:` 태그가 있는 모니터를 찾습니다. 모니터가 경고 상태인 경우 ``이 포함된 클러스터의 윤곽이 빨간 색으로 표시됩니다. + +{{< img src="network_performance_monitoring/network_map/expanded_network_cluster.png" alt="확장된 네트워크 클러스터 맵 보기" >}} + +## 참고 자료 + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: https://app.datadoghq.com/network/map \ No newline at end of file diff --git a/content/ko/network_monitoring/devices/glossary.md b/content/ko/network_monitoring/devices/glossary.md new file mode 100644 index 00000000000..eed9225cb2d --- /dev/null +++ b/content/ko/network_monitoring/devices/glossary.md @@ -0,0 +1,48 @@ +--- +description: NDM 용어 +further_reading: +- link: https://www.datadoghq.com/knowledge-center/network-monitoring/snmp-monitoring/ + tag: 지식 센터 + text: SNMP 모니터링 개요 +title: NDM 용어 및 개념 +--- + +## 개요 + +Network Device Monitoring은 온프레미스 라우터, 스위치, 방화벽의 상태와 성능에 관한 인사이트를 얻도록 도와드립니다. +레이어 2 및 레이어 3과 같은 중요한 NDM 용어에 관한 추가 정의와 설명은 기본 [용어집][1]을 참조하세요. + +## 용어 + +간단한 네트워크 관리 프로토콜(SNMP) +: 베어 메탈 네트워킹 장비에 관한 정보를 수집하는 데 사용되는 네트워크 프로토콜입니다. + +오브젝트 식별자(OID) +: 폴링 시 해당 값의 응답 코드를 반환하는 장치의 고유 ID 또는 주소입니다. 예를 들어 OID는 CPU 또는 디바이스 팬 속도입니다. + +시스템 개체 식별자(sysOID) +: 장치 유형을 정의하는 특정 주소입니다. 모든 장치에는 이를 정의하는 고유 ID가 있습니다. 예를 들어, Meraki 기본 sysOID는 `1.3.6.1.4.1.29671`입니다. + +관리 정보 베이스(MIB) +: MIB와 관련된 모든 가능한 OID 및 해당 정의의 데이터베이스 또는 목록입니다. 예를 들어 `IF-MIB`(인터페이스 MIB)에는 장치의 인터페이스 설명 정보에 관한 모든 OID가 포함되어 있습니다. + +[프로파일][2] +: 프로파일은 장치와 연결된 OID의 모음입니다. 프로파일을 사용하면 여러 디바이스 유형 또는 인스턴스에서 메트릭 정의를 재사용할 수 있습니다. + +소프트웨어 정의 광역 네트워크(SD-WAN) +: 소프트웨어 정의 네트워킹(SDN)을 사용하는 광역 네트워크(WAN)입니다. SD-WAN은 원격 사무실과 데이터 센터를 서로 다른 전송 방식(MPLS, 광대역, 5G 등)으로 상호 연결하는 데 자주 사용됩니다. + +[장치 네임스페이스][3] +: 장치의 네임스페이스입니다. 네임스페이스는 동일한 프라이빗 IP를 공유할 수 있는 여러 네트워크 장치를 구분하기 위한 태그로 사용할 수 있습니다. + +핑 +: 신호가 네트워크를 통해 한 장치에서 다른 장치로 이동했다가 다시 돌아오는 데 걸리는 시간을 측정하는 네트워크 도구입니다. + + +## 참고 자료 + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: /ko/glossary/ +[2]: /ko/network_monitoring/devices/profiles +[3]: /ko/network_monitoring/devices/snmp_traps/?tab=yaml#device-namespaces \ No newline at end of file diff --git a/content/ko/observability_pipelines/destinations/new_relic.md b/content/ko/observability_pipelines/destinations/new_relic.md new file mode 100644 index 00000000000..ffcaedab685 --- /dev/null +++ b/content/ko/observability_pipelines/destinations/new_relic.md @@ -0,0 +1,31 @@ +--- +disable_toc: false +title: New Relic 대상 +--- + +로그를 New Relic으로 전송하려면 Observability Pipelines의 New Relic 대상을 사용하세요. + +## 설정 + +[파이프라인 설정][1] 시 New Relic 대상과 환경 변수를 설정하세요. 아래 정보는 파이프라인 UI에서 구성됩니다. + +### 대상 설정 + +{{% observability_pipelines/destination_settings/new_relic %}} + +### 환경 변수 설정 + +{{% observability_pipelines/configure_existing_pipelines/destination_env_vars/new_relic %}} + +## 대상 작동 방식 + +### 이벤트 배치 작업 + +다음 파라미터 중 하나가 충족되면 이벤트 배치가 플러시됩니다. 자세한 내용은 [이벤트 배치 작업][2]을 참고하세요. + +| 최대 이벤트 | 최대 바이트 | 시간 초과(초) | +|----------------|-----------------|---------------------| +| 100 | 1,000,000 | 1 | + +[1]: https://app.datadoghq.com/observability-pipelines +[2]: /ko/observability_pipelines/destinations/#event-batching \ No newline at end of file diff --git a/content/ko/real_user_monitoring/guide/monitor-capacitor-applications-using-browser-sdk.md b/content/ko/real_user_monitoring/guide/monitor-capacitor-applications-using-browser-sdk.md new file mode 100644 index 00000000000..69c857feba1 --- /dev/null +++ b/content/ko/real_user_monitoring/guide/monitor-capacitor-applications-using-browser-sdk.md @@ -0,0 +1,59 @@ +--- +description: Browser RUM SDK를 통해 Capacitor로 빌드된 크로스 플랫폼 애플리케이션을 모니터링하는 방법을 알아봅니다. +further_reading: +- link: /real_user_monitoring/ + tag: 문서 + text: 실시간 사용자 모니터링에 대해 알아보기 +title: Browser SDK를 사용하여 Capacitor 애플리케이션 모니터링 +--- + +## 개요 + +[Capacitor][1]는 오픈 소스 네이티브 런타임으로, JavaScript, HTML, CSS를 사용하여 iOS, Android 및 프로그레시브 웹 애플리케이션에서 기본 실행되는 웹 네이티브 애플리케이션을 구축합니다. + +Datadog Browser SDK를 설치 및 구성하여 Capacitor로 빌드한 애플리케이션 모니터링을 시작할 수 있습니다. 본 구성은 애플리케이션의 JavaScript 부분에 대한 가시성을 제공합니다(네이티브 애플리케이션 가시성 제외). + +**참고**: **iOS** 타겟 실행을 위해 Capacitor로 래핑된 애플리케이션은 기본 스키마로 `capacitor://`를 사용하여 로컬 에셋을 제공합니다. + +## 설치 + +다음에 따라 Datadog Browser SDK를 설치하여 Capacitor을 지원합니다. + +1. CDN 동기, CDN 비동기 또는 npm의 단계에 따라 [RUM Browser Monitoring][3]을 설정 및 설치합니다. +2. RUM 초기화 구성에서 `sessionPersistence` 파라미터를 `"local-storage"`로 설정합니다. + + **참고**: 이 설정을 사용하면 Datadog이 브라우저 쿠키에 의존하지 않고 RUM 데이터를 수집할 수 있습니다. + + ```javascript + datadogRum.init({ + applicationId: '', + clientToken: '', + site: '', + ... + sessionPersistence: "local-storage" + }); + ``` + +3. SDK를 올바르게 구성하면 데이터가 [RUM Explorer][3]에 채워집니다. + +## 트러블슈팅 + +### 애플리케이션의 JavaScript 부분만 표시되고 네이티브 부분은 표시되지 않습니다 + +이는 예상 가능한 동작입니다. 플러그인 사용이나 사용자 지정 코드 사용과는 관계없이 Capacitor 애플리케이션의 네이티브 부분은 모니터링되지 않습니다. 보통 플러그인은 애플리케이션의 JavaScript 측에서 추적할 수 있는 응답 상태를 전달합니다. 그러나 플러그인이 충돌하거나 네이티브 코드 문제로 인해 전체 애플리케이션이 충돌하는 경우 Datadog에 보고되지 않습니다. + +### 로컬 및 원격 에셋을 모두 대상으로 하는 하이브리드 Capacitor 애플리케이션을 추적할 수 없는 이유는 무엇인가요? + +동일 출처 정책으로 인해 로컬(`capacitor://`)과 원격(`http(s)://`) 모두에서 페이지를 로드하는 애플리케이션을 동일한 세션으로 추적할 수 없습니다. + +즉, Capacitor를 사용하여 랜딩 페이지를 임베드한 후 사용자를 인터넷에 호스팅된 웹사이트로 리디렉션하는 애플리케이션은 해당 사용자에 대한 세션 **두 개**가 생성되는 것을 확인할 수 있습니다. + +- 애플리케이션의 (임베디드된) 랜딩 페이지 부분에 대한 세션 한 개 +- 애플리케이션의 원격 부분에 대한 세션 한 개 + +## 참고 자료 +{{< partial name="whats-next/whats-next.html" >}} + +[1]: https://capacitorjs.com/ +[2]: /ko/real_user_monitoring/application_monitoring/browser/setup/ +[3]: /ko/real_user_monitoring/explorer/ \ No newline at end of file diff --git a/content/ko/real_user_monitoring/mobile_and_tv_monitoring/kotlin_multiplatform/troubleshooting.md b/content/ko/real_user_monitoring/mobile_and_tv_monitoring/kotlin_multiplatform/troubleshooting.md new file mode 100644 index 00000000000..6278e9329a3 --- /dev/null +++ b/content/ko/real_user_monitoring/mobile_and_tv_monitoring/kotlin_multiplatform/troubleshooting.md @@ -0,0 +1,130 @@ +--- +aliases: +- /ko/real_user_monitoring/mobile_and_tv_monitoring/troubleshooting/kotlin-multiplatform +- /ko/real_user_monitoring/mobile_and_tv_monitoring/troubleshooting/kotlin_multiplatform +description: Kotlin Multiplatform 모니터링 문제를 해결하는 방법을 알아보세요. +further_reading: +- link: https://github.com/DataDog/dd-sdk-kotlin-multiplatform + tag: 소스 코드 + text: dd-sdk-kotlin-multiplatform Source code +- link: /real_user_monitoring + tag: 설명서 + text: 실제 사용자 모니터링 탐색 +title: Kotlin Multiplatform SDK 트러블슈팅 +--- + +## 개요 + +Datadog Kotlin Multiplatform SDK에서 예기치 않은 동작이 발생하는 경우, 이 가이드로 문제를 신속하게 해결하세요. 계속해서 문제가 발생하면 [Datadog 지원팀][1]에 문의하여 추가 지원을 받으세요. + +## Datadog RUM이 초기화되었는지 확인 +SDK가 올바르게 초기화되었는지 확인하려면 유틸리티 메서드 `isInitialized`를 사용하세요. + +```kotlin +if (Datadog.isInitialized()) { +// 여기에 코드를 입력하세요. +} +``` + +## 디버깅 +애플리케이션 작성 시 `setVerbosity` 메서드를 호출해 개발 로그를 활성화할 수 있습니다. 라이브러리의 모든 내부 메시지는 우선순위가 해당 레벨과 같거나 그보다 높은 경우 Android의 Logcat 또는 Xcode의 디버거 콘솔에 로깅됩니다. + +```kotlin +Datadog.setVerbosity(SdkLogVerbosity.DEBUG) +``` + +## 추적 동의 설정(GDPR 준수) + +GDPR 규정을 준수하기 위해 SDK는 초기화 시 추적 동의 값이 필요합니다. +추적 동의는 다음 값 중 하나일 수 있습니다. + +- `TrackingConsent.PENDING`: (기본값) SDK가 데이터 수집 및 일괄 처리를 시작하지만 해당 데이터를 + 데이터 수집 엔드포인트로 전송하지는 않습니다. SDK에서는 새 추적 동의 값으로 일괄 처리 데이터 작업이 결정될 때까지 대기합니다. +- `TrackingConsent.GRANTED`: SDK가 데이터를 수집하고 데이터 수집 엔드포인트로 전송합니다. +- `TrackingConsent.NOT_GRANTED`: SDK에서 데이터를 수집하지 않습니다. 로그, 트레이스를 수동으로 보낼 수 없습니다 + 전송할 수 없습니다. + +SDK를 초기화한 후 추적 동의를 업데이트하려면 `Datadog.setTrackingConsent()`를 호출합니다. SDK는 새 동의에 따라 동작을 변경합니다. 예를 들어, 현재 추적 동의가 `TrackingConsent.PENDING`이고 다음으로 업데이트하는 경우: + +- `TrackingConsent.GRANTED`: SDK에서 기존 일괄 처리된 전체 데이터와 향후 데이터를 데이터 수집 엔드포인트로 직접 전송합니다. +- `TrackingConsent.NOT_GRANTED`: SDK에서 일괄 처리된 데이터 전체를 삭제하고 이후 데이터를 수집하지 않습니다. + +## 일반적인 문제 + +### iOS 바이너리 연결 + +#### 누락된 `PLCrashReporter` 기호 + +다음과 같이 링커 검색 경로에 `PLCrashReporter` 기호가 누락되어 연결 단계 중 오류가 발생하는 경우 + +``` +Undefined symbols for architecture arm64: + "_OBJC_CLASS_$_PLCrashReport", referenced from: + in DatadogCrashReporting[arm64][15](PLCrashReporterIntegration.o) + "_OBJC_CLASS_$_PLCrashReportBinaryImageInfo", referenced from: + in DatadogCrashReporting[arm64][7](CrashReport.o) + "_OBJC_CLASS_$_PLCrashReportStackFrameInfo", referenced from: + in DatadogCrashReporting[arm64][7](CrashReport.o) + "_OBJC_CLASS_$_PLCrashReportThreadInfo", referenced from: + in DatadogCrashReporting[arm64][7](CrashReport.o) + "_OBJC_CLASS_$_PLCrashReporter", referenced from: + in DatadogCrashReporting[arm64][15](PLCrashReporterIntegration.o) + "_OBJC_CLASS_$_PLCrashReporterConfig", referenced from: + in DatadogCrashReporting[arm64][15](PLCrashReporterIntegration.o) +``` + +그런 다음 `CrashReporter` 프레임워크 이름을 링커에 명시적으로 전달해야 합니다. + +```kotlin +targets.withType(KotlinNativeTarget::class.java) { + compilations.getByName("main").compileTaskProvider { + compilerOptions { + freeCompilerArgs.addAll( + listOf( + "-linker-option", + "-framework CrashReporter" + ) + ) + } + } +} + +``` + +#### 누락된 `swiftCompatibility` 기호 + +다음과 같이 링커 검색 경로에 `swiftCompatibility` 기호가 누락되어 연결 단계 중 오류가 발생하는 경우 + +``` +Undefined symbols for architecture arm64: + "__swift_FORCE_LOAD_$_swiftCompatibility56", referenced from: + __swift_FORCE_LOAD_$_swiftCompatibility56_$_DatadogCrashReporting in DatadogCrashReporting[arm64][4](BacktraceReporter.o) + "__swift_FORCE_LOAD_$_swiftCompatibilityConcurrency", referenced from: + __swift_FORCE_LOAD_$_swiftCompatibilityConcurrency_$_DatadogCrashReporting in DatadogCrashReporting[arm64][4](BacktraceReporter.o) +``` + +그런 다음 이 오류를 억제할 수 있습니다. + +```kotlin +targets.withType(KotlinNativeTarget::class.java) { + compilations.getByName("main").compileTaskProvider { + compilerOptions { + freeCompilerArgs.addAll( + listOf( + "-linker-option", + "-U __swift_FORCE_LOAD_\$_swiftCompatibility56", + "-linker-option", + "-U __swift_FORCE_LOAD_\$_swiftCompatibilityConcurrency" + ) + ) + } + } +} + +``` + +## 참고 자료 + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: /ko/help \ No newline at end of file diff --git a/content/ko/security/application_security/code_security/setup/python.md b/content/ko/security/application_security/code_security/setup/python.md new file mode 100644 index 00000000000..efc4a15feaa --- /dev/null +++ b/content/ko/security/application_security/code_security/setup/python.md @@ -0,0 +1,131 @@ +--- +aliases: +- /ko/security_platform/application_security/getting_started/python +- /ko/security/application_security/getting_started/python +code_lang: 파이썬(Python) +code_lang_weight: 10 +further_reading: +- link: /security/application_security/code_security/#code-level-vulnerabilities-list + tag: 문서 + text: 지원되는 코드 수준 취약점 목록 +- link: https://www.datadoghq.com/blog/iast-datadog-code-security/ + tag: 블로그 + text: Datadog Code Security로 운영 환경에서 애플리케이션 보안 강화 +- link: https://www.datadoghq.com/blog/application-code-vulnerability-detection/ + tag: 블로그 + text: Datadog Code Security로 코드 취약점 파악 +- link: https://www.datadoghq.com/blog/code-security-owasp-benchmark/ + tag: 블로그 + text: Datadog Code Security는 IAST 접근 방식을 사용하여 OWASP 벤치마크에서 100% 정확도를 달성했습니다. +- link: /security/application_security/troubleshooting + tag: 문서 + text: 애플리케이션 보안 문제 해결 +title: Python용 Code Security 활성화 +type: multi-code-lang +--- + +Docker, Kubernetes, Amazon ECS, AWS Fargate에서 실행되는 Python 애플리케이션의 코드 수준 취약점을 탐지하고 애플리케이션 보안을 모니터링합니다. + +참고: Python의 코드 수준 취약점 탐지는 평가판 버전입니다. + +서비스에서 Code Security를 활성화하려면 다음 단계를 따르세요. + +1. [Datadog Agent][6]를 최소 버전 7.41.1로 업데이트하세요. +2. Code Security을 활성화하는 데 필요한 최소 버전으로 Datadog Tracing Library를 업데이트하세요. 자세한 내용은 [Library Compatibility][3] 페이지를 참고하세요. +3. 애플리케이션 구성에 `DD_IAST_ENABLED=true` 환경 변수를 추가합니다. + + 명령줄에서: + + ```shell + DD_IAST_ENABLED=true ddtrace-run python app.py + ``` + + 또는 애플리케이션이 실행되는 위치에 따라 다음 방법 중 하나를 선택합니다. + + +{{< tabs >}} +{{% tab "Docker CLI" %}} + +```shell +docker run [...] -e DD_IAST_ENABLED=true [...] +``` + +{{% /tab %}} +{{% tab "Dockerfile" %}} + +컨테이너 도커파일에 다음 환경 변수 값을 추가합니다. + +```Dockerfile +DD_IAST_ENABLED=true +``` + +{{% /tab %}} +{{% tab "Kubernetes" %}} + +APM용 배포 구성 파일을 업데이트하고 IAST 환경 변수를 추가합니다. + +```yaml +spec: + template: + spec: + containers: + - name: + image: / + env: + - name: DD_IAST_ENABLED + value: "true" +``` + +{{% /tab %}} +{{% tab "Amazon ECS" %}} + +환경 섹션에서 이를 추가하여 ECS 작업 정의 JSON 파일을 업데이트합니다: + +```json +"environment": [ + ..., + { + "name": "DD_IAST_ENABLED", + "value": "true" + } +] +``` + +{{% /tab %}} + +{{< /tabs >}} + +4. 서비스를 다시 시작하세요. +5. Code Security가 실제로 어떻게 작동하는지 확인하려면 서비스를 살펴보세요. [Vulnerability Explorer][4]에 코드 수준 취약점이 나타납니다. + +{{< img src="/security/application_security/Code-Level-Vulnerability-Details-New.mp4" alt="코드 취약점을 보여주는 동영상" video="true" >}} + +추가 지원이 필요하시면 [Datadog 지원팀][5]에 문의하세요. + + +### 타사 라이브러리 호환성 참고 사항 + +Code Security는 런타임에서 Python 코드를 수정합니다. 이로 인해 유사한 코드 변환을 수행하는 다른 타사 Python 라이브러리, 특히 다음과 같은 라이브러리와 충돌이 발생할 수 있습니다(이에 국한되지 않음). + +- Numba +- JAX +- TorchScript +- TensorFlow +- Bytecode +- Codetransformer +- PyPy + +아울러, Code Security는 컴파일된 네이티브 코드에서 오염 범위를 올바르게 전파하지 않습니다. 따라서 코드베이스가 C 또는 C++로 작성된 모듈, CPython API를 사용한 모듈 또는 +Cython과 같은 중간 언어 시스템에 크게 의존하는 경우 결과가 예상보다 정확하지 않을 수 있습니다. + + +## 참고 자료 + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: https://github.com/DataDog/dd-trace-py/releases +[2]: /ko/security/application_security/code_security/setup/python +[3]: /ko/security/application_security/code_security/setup/compatibility/ +[4]: https://app.datadoghq.com/security/appsec/vm/code +[5]: /ko/help +[6]: /ko/agent/versions/upgrade_between_agent_minor_versions/ \ No newline at end of file diff --git a/content/ko/security/application_security/software_composition_analysis/setup/compatibility/python.md b/content/ko/security/application_security/software_composition_analysis/setup/compatibility/python.md new file mode 100644 index 00000000000..df3886b2abf --- /dev/null +++ b/content/ko/security/application_security/software_composition_analysis/setup/compatibility/python.md @@ -0,0 +1,104 @@ +--- +code_lang: 파이썬(Python) +code_lang_weight: 50 +title: Python 호환성 요구 사항 +type: multi-code-lang +--- +## 애플리케이션 보안 기능 지원 + +다음은 지정된 트레이서 버전에 대해 Python 라이브러리에서 지원되는 애플리케이션 보안 기능입니다. + +| 애플리케이션 보안 기능 | 최소 Python 트레이서 버전 | +| -------------------------------- | ----------------------------| +| 위협 탐지 | 1.9.0 | +| Threat Protection | 1.10.0 | +| 차단된 요청에 대한 응답 사용자 지정 | 1.19.0 | +| 소프트웨어 구성 분석(SCA) | 1.5.0 | +| 코드 보안 | 평가판 | +| 자동 사용자 활동 이벤트 추적 | 1.17.0 | +| API Security | 2.6.0 | + +**참고**: Threat Protection를 사용하려면 명시된 트레이스 최소 버전에 포함된 [Remote Configuration][2]을 활성화해야 합니다. + +### 지원되는 배포 유형 +| 유형 | 위협 탐지 지원 | 소프트웨어 구성 분석 | +|-------------|--------------------------|-------------------------------| +| Docker | {{< X >}} | {{< X >}} | +| 쿠버네티스(Kubernetes) | {{< X >}} | {{< X >}} | +| Amazon ECS | {{< X >}} | {{< X >}} | +| AWS Fargate | {{< X >}} | {{< X >}} | +| AWS Lambda | {{< X >}} | | + + +## 언어 및 프레임워크 호환성 + +### 지원되는 Python 버전 + +Python Application Security Client 라이브러리는 다양한 버전의 라이브러리 및 Python 런타임 지원 수준을 명시하는 [버전 관리 정책][3]을 따릅니다. + +다음 두 가지 릴리스 브랜치를 지원합니다. + +| 릴리스 | 지원 레벨 | +|------------|----------------------| +| `<1` | 유지 관리 | +| `>=1.0,<2` | 일반 가용성 | + +라이브러리는 다음 런타임을 지원합니다. + +| OS | CPU | 런타임 | 런타임 버전 | 지원 ddtrace 버전 | +|---------|-----------------------|---------|-----------------|--------------------------| +| Linux | x86-64, i686, AArch64 | CPython | 2.7, 3.5-3.11 | `<2` | +| MacOS | Intel, Apple Silicon | CPython | 2.7, 3.5-3.11 | `<2` | +| 윈도우즈(Windows) | 64비트, 32비트 | CPython | 2.7, 3.5-3.11 | `<2` | + + +### 웹 프레임워크 호환성 + +- 공격자 소스 HTTP 요청 세부 정보 +- HTTP 요청 태그(상태 코드, 메소드 등) +- Distributed Tracing으로 애플리케이션을 통한 공격 플로 확인 + +##### Application Security 기능 노트 +- **Software Composition Analysis**는 모든 프레임워크에서 지원됩니다. + +### 지원 프레임워크 + + +| 프레임워크 | 버전 | Threat Detection이 지원되나요? | Threat Protection이 지원되나요? | +| ------------------------ | ----------- | --------------- | ---------------------------------------------- | +| Django | 1.8 | {{< X >}} | {{< X >}} | +| Flask | 0.10 | {{< X >}} | {{< X >}} | + +Flask에서는 쿼리 문자열을 지원하지 않습니다. + +
원하는 프레임워크가 목록에 없다면 저희에게 알려주세요! 간단한 양식을 작성하여 자세한 내용을 보내주세요.
+ +### 데이터 스토어 호환성 + + +**Datastore 추적은 다음을 제공합니다.** + +- 요청에서 응답까지의 시간 측정 +- 쿼리 정보(예: 보안 처리된(sanitized) 쿼리 문자열) +- 오류 및 스택 트레이스 캡처 + +##### Application Security 기능 노트 +- **Software Composition Analysis**는 모든 프레임워크에서 지원됩니다. +- **Threat Protection**는 HTTP 요청(인풋) 레이어에서도 작동하므로, 아래 표에 명시되지 않은 데이터베이스를 포함한 모든 데이터베이스에서 기본적으로 작동합니다. +Python 라이브러리는 [데이터베이스 API 사양][4]을 지원하며, 모든 일반 SQL 데이터베이스를 지원합니다. 여기에는 SQLite, MySQL, Postgres, MariaDB와 같은 데이터베이스가 포함됩니다. + +### 사용자 Authentication Frameworks 호환성 + +**User Authentication Framework 통합은 다음을 제공합니다.** + +- 사용자 ID를 포함한 사용자 로그인 이벤트 +- 사용자 로그인 이벤트에 대한 계정 탈취 탐지 모니터링 + +| 프레임워크 | 프레임워크 버전 | +|-------------------| --------------------------- | +| Django | 1.11, 2.2, 3.2, >= 4.0 + +[1]: /ko/tracing/trace_collection/compatibility/python/ +[2]: /ko/agent/remote_config/#enabling-remote-configuration +[3]: https://ddtrace.readthedocs.io/en/stable/versioning.html +[4]: https://peps.python.org/pep-0249/ \ No newline at end of file diff --git a/content/ko/security/code_security/dev_tool_int/git_hooks/_index.md b/content/ko/security/code_security/dev_tool_int/git_hooks/_index.md new file mode 100644 index 00000000000..5f42b248a73 --- /dev/null +++ b/content/ko/security/code_security/dev_tool_int/git_hooks/_index.md @@ -0,0 +1,57 @@ +--- +aliases: +- /ko/code_analysis/git_hooks/ +description: 오류가 있는 코드 병합을 방지 +title: Git Hooks +--- + +## 개요 + +[Git 훅](https://git-scm.com/docs/githooks)은 사용자가 코드를 리포지토리에 커밋하거나 원격 위치에 푸시하기 전에 실행되는 프로그램입니다. +Git 훅은 일반적으로 원격 브랜치에 푸시하기 전에 코드 검증을 실행하고 요구 사항을 적용하는 데 사용됩니다. + +Datadog Code Security는 코드를 푸시하거나 커밋하기 전에 Static Code Analysis (SAST) 위반이나 +시크릿을 확인하는 Git hook을 제공합니다. +Code Security Git hook은 최신 커밋과 기본 브랜치의 코드를 검사하고 +감지된 오류를 표시합니다. + +Datadog Git hook은 개발자가 코딩 오류, 취약점, 비밀이 포함된 코드를 푸시하기 전에 경고합니다. 오류가 있는 코드를 커밋하면 다음과 같은 메시지가 사용자 터미널에 나타납니다. + +{{< img src="code_security/git_hooks/git_hook.png" alt="취약점을 감지한 Datadog Git Hook" style="width:100%;">}} + +## 설정 + +1. `datadog-git-hook`를 다음에서 다운로드 합니다: 릴리즈 페이지 또는 [Datadog Static Analyzer +릴리즈](https://github.com/DataDog/datadog-static-analyzer/releases). +2. 컴퓨터에 프로그램을 설치합니다. +3. 아래 스크립트를 사용하여 리포지토리에 `.git/hooks/pre-push` 파일을 추가합니다. **참고:** 스크립트는 `datadog-static-analyzer-git-hook` 바이너리가 `/usr/local/bin/datadog-static-analyzer-git-hook`에 있다고 가정합니다. + +```bash +#!/bin/sh + +# 리포지토리 루트 경로를 가져옵니다 +repo_path=$(git rev-parse --show-toplevel) + +# 사용자가 일부 입력을 제공할 수 있는지 확인합니다 +exec < /dev/tty + +/usr/local/bin/datadog-static-analyzer-git-hook -r $repo_path --static-analysis --secrets --confirmation --default-branch + +if [ $? -eq 0 ]; then + echo "datadog-static-analyzer check passed" + exit 0 +else + echo "datadog-static-analyzer check failed" + exit 1 +fi +``` + +이 프로그램은 다음과 같은 파라미터를 허용합니다. + + - `--confirmation`: Git hook 점검을 재정의할지 사용자에게 확인을 요청합니다. + - `--default-branch`: 기본 브랜치의 이름을 지정합니다. + - `--static-analysis`: Static Code Analysis를 활성화합니다. + - `--secrets`: 시크릿 감지 활성화(평가판 버전. [Datadog 지원팀][1]에 문의하세요). + - `--output `: 커밋에서 발견된 결과를 SARIF 파일로 내보냅니다. + +[1]: https://www.datadoghq.com/support/ \ No newline at end of file diff --git a/content/ko/security/code_security/guides/automate_risk_reduction_sca.md b/content/ko/security/code_security/guides/automate_risk_reduction_sca.md new file mode 100644 index 00000000000..38786a4ca1a --- /dev/null +++ b/content/ko/security/code_security/guides/automate_risk_reduction_sca.md @@ -0,0 +1,98 @@ +--- +aliases: +- /ko/security/application_security/guide/automate_risk_reduction_sca/ +disable_toc: false +title: Datadog SCA로 오픈소스 위험 감소 자동화 +--- + +Datadog Software Composition Analysis(SCA)를 사용하면 리포지토리 및 애플리케이션 서비스에 사용되는 타사 OSS(오픈 소스 소프트웨어) 라이브러리의 취약성과 기타 위험을 쉽게 파악하고 우선순위를 지정하며 해결할 수 있습니다. + +이 항목에서는 SCA를 사용하여 오픈 소스 라이브러리의 취약성과 위험을 보고 해결하는 방법에 대해 설명합니다. + +## SCA 이점 + +SCA는 오픈 소스 라이브러리와 관련된 다음 위험을 해결합니다. + +- **보안 취약성:** 알려진 취약성, 특히 CVE(Common Vulnerabilities and Exposures)가 있는 취약성입니다. +- **멀웨어:** 타이포스쿼팅, 하이재킹과 같은 기술을 사용하여 멀웨어를 배포하는 악의적인 행위자입니다. +- **라이센스 문제:** 다양한 오픈 소스 라이센스를 준수하지 않으면 법적 문제가 발생할 수 있습니다. +- **더 이상 사용되지 않는 라이브러리:** 오래된 구성 요소를 사용하면 패치가 적용되지 않은 취약점 및 호환성 문제가 발생할 수 있습니다. +- **관리되지 않는 라이브러리:** 적극적으로 개발하지 않으면 해결되지 않은 버그와 보안 결함이 발생할 수 있습니다. +- **불량한 보안 관리:** 일부 프로젝트에는 적절한 코드 검토와 같은 보안 모범 사례가 부족합니다. + +Datadog SCA는 위험 감소 프로세스를 자동화하여 다음과 같은 방식으로 생산성을 향상시킵니다. + +- **개발 수명 주기 전반에 걸친 통합:** 개발에서 프로덕션까지의 오픈 소스 및 타사 컴포넌트를 분석하여 자세한 라이브러리 인벤토리를 제공합니다. +- **지속적인 평가:** 배포된 서비스에 대한 실시간 가시성을 제공하고 민감한 환경에서 취약점의 우선순위를 지정하여 보안성을 강화합니다. +- **공동작업:** 사일로를 무너뜨리고 더 많은 보안 팀(DevOps, 운영, SRE)을 참여시켜 협업 문화를 조성합니다. + + +## 서비스에 사용되는 라이브러리 보기 + +라이브러리 인벤토리는 서비스 및 리포지토리 전체에서 사용되는 라이브러리와 버전이 표시됩니다. + +인벤토리는 여러 공개 데이터 소스(GuardDog, NIST, osv.dev, OpenSSF 점수 등)와 개인 데이터 소스(Datadog의 Security Research 그룹 포함)를 사용하여 모든 라이브러리 세부 정보를 표시합니다. + +라이브러리 인벤토리를 사용하려면 [라이브러리][1]를 참조하거나 **Security > Code Security**를 선택한 다음 **Libraries**를 선택하세요. + +**Libraries**에서 다음을 수행할 수 있습니다. + +- 각 서비스에 사용되는 모든 라이브러리를 확인합니다. +- **Datadog Severity** 패싯을 사용하여 취약성 등급에 따라 라이브러리를 필터링합니다. +- 각 라이브러리의 소스 리포지토리를 확인합니다. +- 서비스에 사용되는 현재 버전, 사용 가능한 최신 버전 등 라이브러리 세부정보를 확인합니다. +- 라이브러리에 대한 [OpenSSF 스코어카드][2]를 확인합니다. + + +## 라이브러리의 취약점 및 위험 보기 + +**Vulnerabilities** 탐색기에서는 사용 중인 라이브러리의 취약점을 볼 수 있습니다. + +### 라이브러리 취약점 + +라이브러리 취약점은 라이브러리의 보안 버그입니다. + +라이브러리 취약점을 보려면 [Library Vulnerabilities][3]를 참조하거나 **Security > Code Security > Vulnerabilities > Libraries**로 이동합니다. + +**Libraries**에서 다음을 할 수 있습니다. + +- **Libraries**를 사용하여 다양한 취약점 유형을 확인합니다. + - 예를 들어, 모든 취약점에는 탐색기와 각 라이브러리 세부 정보에 표시되는 관련 CVE ID가 있습니다. Vulnerability 패싯을 사용하여 CVE ID별로 정렬할 수 있습니다. +- 다음과 같은 취약점 세부정보를 확인합니다. + - 설명 + - 서비스 및 환경 + - 처음과 마지막 감지 + - 노출 창 + - 심각도 분석 + - 해결 단계 + + + + +## 위험 완화를 위한 모범 사례 + +위험을 완화하려면 다음 모범 사례를 따르세요. + + - **철저한 조사:** 오픈소스 프로젝트를 사용하기 전에 철저하게 평가합니다. + - **업데이트 상태 유지:** 정기적으로 구성 요소를 업데이트하고 보안 권고를 구독합니다. + - **취약점 관리:** 취약점을 분류하고 해결하는 프로세스를 확립합니다. + - **측정:** 시간 경과에 따른 보안 상태를 이해하고 개선하기 위해 메트릭을 추적합니다. + +[1]: https://app.datadoghq.com/security/appsec/vm/summary/sca?query=source%3Alibrary +[2]: https://github.com/ossf/scorecard?tab=readme-ov-file#what-is-scorecard +[3]: https://app.datadoghq.com/security/appsec/vm/library?query=status%3A%28Open%20OR%20%22In%20progress%22%29&group=library +[4]: https://app.datadoghq.com/security/appsec/inventory/libraries?column=uniqueVulnerabilitySeverityScore&detection=runtime&group=library-version&order=desc&page=1 \ No newline at end of file diff --git a/content/ko/service_catalog/customize/_index.md b/content/ko/service_catalog/customize/_index.md new file mode 100644 index 00000000000..b71c641e9a1 --- /dev/null +++ b/content/ko/service_catalog/customize/_index.md @@ -0,0 +1,152 @@ +--- +aliases: +- /ko/service_catalog/manage_entries/ +- /ko/service_catalog/enrich_default_catalog/ +further_reading: +- link: https://registry.terraform.io/providers/DataDog/datadog/latest/docs/resources/service_definition_yaml + tag: 외부 사이트 + text: Terraform을 사용하여 서비스 정의 생성 및 관리 +- link: /api/latest/service-definition/ + tag: API + text: 서비스 정의 API에 대해 자세히 알아보기 +- link: /integrations/github + tag: 설명서 + text: GitHub 통합 알아보기 +- link: https://www.datadoghq.com/blog/service-catalog-backstage-yaml/ + tag: 블로그 + text: Backstage YAML 파일을 Datadog으로 가져오기 +title: 서비스 카탈로그 커스터마이즈 +--- + +Service Catalog에서 엔지니어링 팀의 랜딩 환경을 사용자 지정할 수 있습니다. Developer Home은 개발자가 우선 순위가 지정된 작업, 풀 요청, 알림, 인사이트를 한 곳에서 확인할 수 있도록 설계된 베타 버전의 새로운 맞춤형 대시보드 환경입니다. + +{{< callout url="https://forms.gle/nkAu2z4gc2dGWcGw5" d_target="#signupModal" btn_hidden="false" header="Developer Homepage 사용자 경험 퍼블릭 베타에 참여하세요!" >}} +{{< /callout >}} + +## 자동 검색 + +Datadog Service Catalog는 [APM][2], [Universal Service Monitoring][1]를 통한 eBPF 기반 Autodiscovery 및 RUM 애플리케이션을 통해 감지된 항목으로 미리 채워집니다. + +APM을 사용하면 Datadog은 데이터베이스, 큐 또는 타사 종속성 등의 계측된 서비스에 관한 종속성을 자동 검색할 수 있으며, 해당 종소성이 아직 계측되지 않은 경우에도 가능합니다. 이러한 계측되지 않은 종속성은 별도의 *서비스*로 분류됩니다. Datadog은 클라이언트 스팬의 서비스 이름(span.kind:client)이 계측된 서비스의 종속성을 나타내도록 변경하였습니다. 예를 들어, 서비스 auth-dotnet에서 PostgreSQL 데이터베이스로의 클라이언트 호출을 나타내는 스팬은 service:auth-dotnet-postgres로 태그 지정됩니다. + +APM을 사용 중이고 Service Catalog 및 Service Map 에서 자동 명명된 *서비스*를 제거하려는 경우, 데이터베이스, 큐 또는 타사 종속성 등의 엔티티 유형별로 Service Catalog 항목을 필터링할 수 있는 새로운 [추론 엔터티 경험][7]을 활성화합니다. 옵션으로 카탈로그나 맵에서 service:my-service-http-client와 같은 [서비스 재정의][9]를 [제거][8]할 수 있습니다. + +엔드포인트 검색에 대한 자세한 내용은 [APM에서 엔드포인트 검색하기][11]를 참조하세요. + +## 메타데이터로 자동 탐지 서비스 강화 +서비스에 대해 온 콜, 소스 코드 또는 문서를 지정하려면 UI, API 또는 [기타 자동화][10]를 사용하여 기존 서비스에 메타데이터를 추가할 수 있습니다. 권장 사용 버전은 2.2 버전입니다. 향상된 관계 매핑 및 정확한 코드 위치와 같은 실험적 기능을 사용하려면 [요청을 제출][4]하여 [스키마 3.0][3] 베타 프로그램에 참여하세요. + +{{< callout url="https://forms.gle/L5zXVkKr5bAzbdMD9" d_target="#signupModal" btn_hidden="false" header="메타데이터 스키마 v3.0 프리뷰 버전에 참여하세요!" >}} +{{< /callout >}} + +### Service Definition Schema (v2.2) (권장) + +서비스 정의 스키마(Service Definition Schema)는 서비스의 기본 정보를 포함하는 구조입니다. [GitHub의 전체 스키마][5] 항목을 참조하세요. + +#### 예시 +{{< code-block lang="yaml" filename="service.datadog.yaml" collapsible="true" >}} +schema-version: v2.2 +dd-service: shopping-cart +team: e-commerce +application: shopping-app +tier: "1" +type: web +languages: + - go + - python +contacts: + - type: slack + contact: https://yourorg.slack.com/archives/e-commerce + - type: email + contact: ecommerce@example.com + - type: microsoft-teams + contact: https://teams.microsoft.com/example +links: + - name: Runbook + type: runbook + URL: http://runbook/shopping-cart + - name: Source + type: repo + provider: github + URL: https://github.com/shopping-cart + - name: Deployment + type: repo + provider: github + URL: https://github.com/shopping-cart + - name: Config + type: repo + provider: github + URL: https://github.com/consul-config/shopping-cart + - name: E-Commerce Team + type: doc + provider: wiki + URL: https://wiki/ecommerce + - name: Shopping Cart Architecture + type: doc + provider: wiki + URL: https://wiki/ecommerce/shopping-cart + - name: Shopping Cart RFC + type: doc + provider: google doc + URL: https://doc.google.com/shopping-cart +tags: + - business-unit:retail + - cost-center:engineering +integrations: + pagerduty: + service-url: https://www.pagerduty.com/service-directory/PSHOPPINGCART + opsgenie: + service-url: "https://www.opsgenie.com/service/uuid" + region: "US" +ci-pipeline-fingerprints: + - id1 + - id2 +extensions: + additionalProperties: + customField1: customValue1 + customField2: customValue2 +{{< /code-block >}} + +## Service Catalog 작업 찾기 +Service Catalog과 관련된 전체 작업 세트를 살펴보려면 [Datadog Action Catalog][6]로 이동하세요. 다음에 따라 필요한 작업을 필터링합니다. + +1. **Action Catalog 액세스**: Datadog Workflow Automation 환경에서 Action Catalog를 검색합니다. +2. **검색 기능**: 검색창에 'Service Catalog' 또는 원하는 작업과 관련된 더 구체적인 용어(예: '서비스 종속성 가져오기')와 같은 키워드를 검색합니다. + +### 사용 가능 Service Catalog 작업 + +다음은 Datadog Workflow Automation에서 Service Catalog에 사용할 수 있는 작업의 전체 목록입니다. 이 목록은 새로운 작업이 추가됨에 따라 변경될 수 있습니다. + +- **Retrieve Service Information** + - "Get service definition": 단일 서비스인 경우 + - Datadog Software Catalog에서 모든 정의를 가져오려면 "서비스 정의 목록을 표시합니다" + - "Get service dependencies": 해당 서비스의 직속 업스트림 및 다운스트림 서비스 확인 +- **Incident Triage** + - "Get service PagerDuty on call" + - 다른 작업과 통합하면 중요한 이벤트(예: 런북 실행)를 기반으로 워크플로를 트리거할 수 있습니다. + +## 서비스 색상 변경 +서비스 색상은 트레이스 시각화에 사용됩니다. 서비스 유형 아이콘을 클릭하여 변경하세요. + +{{< img src="tracing/service_catalog/change_service_color.png" alt="다른 아이콘 색상을 선택하려면 서비스 아이콘을 클릭하세요." style="width:80%;" >}} + +## 서비스 유형 및 언어 업데이트하기 +[Service Catalog 메타데이터 스키마 2.2][5]를 사용하면 사용자 정의 서비스에 대한 유형 및 언어를 지정하거나 계측된 서비스에 대해 자동 감지된 유형 및 언어를 덮어쓸 수 있습니다. 서비스 유형과 언어에 올바른 레이블을 지정하여 다른 팀이 서비스의 기능과 상호 작용 방법을 더 잘 이해할 수 있도록 하세요. + + +## 참고 자료 + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: /ko/universal_service_monitoring/ +[2]: /ko/tracing/ +[3]: /ko/service_catalog/service_definitions/v3-0/ +[4]: https://forms.gle/zbLfnJYhD5Ab4Wr18 +[5]: https://github.com/DataDog/schema/tree/main/service-catalog/v2.2 +[6]: /ko/actions/actions_catalog/ +[7]: /ko/tracing/services/inferred_services +[8]: /ko/tracing/guide/service_overrides/#remove-service-overrides +[9]: /ko/tracing/guide/service_overrides/ +[10]: /ko/service_catalog/service_definitions/#add-metadata-with-automation +[11]: /ko/service_catalog/endpoints/discover_endpoints/ +[12]: /ko/integrations/github/ \ No newline at end of file diff --git a/content/ko/service_management/incident_management/incident_settings/responder_types.md b/content/ko/service_management/incident_management/incident_settings/responder_types.md new file mode 100644 index 00000000000..6780ed24bb7 --- /dev/null +++ b/content/ko/service_management/incident_management/incident_settings/responder_types.md @@ -0,0 +1,39 @@ +--- +further_reading: +- link: /service_management/incident_management/describe/#response-team + tag: 설명서 + text: 인시던트 설명 +title: 응답자 유형 +--- + +## 개요 + +Incident Commander 또는 Communications Lead와 같은 특정 역할을 할당하면 보다 체계적이고 조직적인 대응이 가능합니다. 적합한 직원에게 즉시 알림을 전송하고 책임을 할당할 수 있어 혼란과 지연이 줄어듭니다. + +응답자 유형 설정에서는 커스텀 역할을 생성하여 [인시던트 응답자에게 할당][1]할 수 있습니다. 또한, 인시던트당 1인 또는 다수의 사람에게 이러한 역할이 할당되도록 지정할 수 있습니다. 이러한 역할은 [역할 기반 액세스 제어(RBASC][2] 시스템과 무관합니다. + +## 역할 + +응답자 유형을 사용하면 자체 인시던트 응답 프로세스의 정의에 따라 응답자가 자신의 인시던트 책임이 무엇인지 이해할 수 있습니다. 기본적으로 다음 두 가지 역할이 있습니다. + +1. `Incident Commander` - 응답팀을 주도할 책임이 있는 개인 +2. `Responder` - 인시던트 조사 및 그 기본 문제 해결을 적극적으로 담당하는 개인. + +**참고:** `Incident Commander` 응답자 유형은 인시던트 설정에 표시되므로 설명을 커스터마이즈할 수 있습니다. `Incident Commander`는 응답자 유형으로, 삭제할 수 없으며 이름을 바꾸거나 상태를 `One person role`로 변경할 수 없습니다. `Responder` 역할은 일반적인 폴백 역할로, 응답자에게 다른 역할이 할당되어 있지 않고 인시던트 설정에 표시되지 않는 경우에 해당합니다. + +## 응답자 유형 생성 + +1. [**Incident Settings > Responder Types**][3]로 이동합니다. +1. 하단의 표에서 **+ Add Responder Type**을 클릭합니다. +2. 새 응답자 유형에 이름을 제공합니다. +3. 응답자 유형이 `One person role` 또는 `Multi person role`인지 선택합니다. `One person role`은(는) 인시던트당 한 명만 보유할 수 있으며 반면 `Multi person role`은(는) 인시던트당 무제한 사람들이 보유할 수 있습니다. +4. 응답자 유형에 설명을 제공합니다. 이 설명은 팀원에게 배정되는 역할을 선택한 경우 UI에 표시됩니다. +5. **Save**을 클릭합니다. + +## 참고 자료 + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: /ko/service_management/incident_management/incident_details/#response-team-section +[2]: /ko/account_management/rbac/?tab=datadogapplication#pagetitle +[3]: https://app.datadoghq.com/incidents/settings#Responder-Types \ No newline at end of file diff --git a/content/ko/service_management/service_level_objectives/burn_rate.md b/content/ko/service_management/service_level_objectives/burn_rate.md index 7b63156e99f..20b40b4f0c4 100644 --- a/content/ko/service_management/service_level_objectives/burn_rate.md +++ b/content/ko/service_management/service_level_objectives/burn_rate.md @@ -1,36 +1,36 @@ --- aliases: - /ko/monitors/service_level_objectives/burn_rate/ -description: 모니터를 사용하여 SLO의 굽기 속도를 알립니다. +description: 모니터를 사용하여 SLO의 경비 지출을 알립니다. further_reading: - link: https://www.datadoghq.com/blog/burn-rate-is-better-error-rate/ tag: 블로그 - text: 번 레이트는 더 나은 오류율입니다. -title: 굽기 속도 알림 + text: 경비 지출은 더 나은 오류율입니다. +title: 경비 지출 알림 --- {{< jqmath-vanilla >}} ## 개요 -SLO 굽기 속도 알림은 SLO 오류 예산의 소진율이 지정된 임곗값을 초과하고 특정 기간 동안 지속될 때 작동합니다. 예를 들어 SLO의 30일 목표에 대해 지난 1시간과 지난 5분 동안 14.4 이상의 굽기 속도가 측정된 경우 알림을 설정할 수 있습니다. 또한 7.2 이상의 굽기 속도와 같이 약간 낮은 임곗값에 대해 경고하도록 선택적으로 설정할 수 있습니다. +SLO 경비 지출 알림은 SLO 오류 예산의 소진율이 지정된 임계값을 초과하고 특정 기간 동안 지속될 때 작동합니다. 예를 들어 SLO의 30일 목표에 대해 지난 1시간과 지난 5분 동안 14.4 이상의 경비 지출이 측정된 경우 알림을 설정할 수 있습니다. 또한 7.2 이상의 경비 지출와 같이 약간 낮은 임계값을 경고하도록 선택적으로 설정할 수 있습니다. -**참고: 다음 SLO 유형에 대해 번 레이트 알림을 사용할 수 있습니다: +다음 SLO 유형에 경비 지출 알림을 사용할 수 있습니다. - [메트릭 기반 SLO][1], - 메트릭 모니터 유형(메트릭, 통합, APM 메트릭, 이상치, 예측 또는 아웃라이어 모니터)으로만 구성된 [모니터 기반 SLO][2] - [타임 슬라이스 SLO][7] -{{< img src="service_management/service_level_objectives/slo-burn-rate-alert-v2.png" alt="번 레이트 알림 설정">}} +{{< img src="service_management/service_level_objectives/slo-burn-rate-alert-v2.png" alt="경비 지출 알림 설정">}} -## 굽기 속도 알림의 작동 방식 +## 경비 지출 알림의 작동 방식 -굽기 속도는 [Google에서 만든][3] 단위가 없는 값으로, SLO의 목표 기간에 비해 오류 예산이 얼마나 빨리 소진되는지를 나타냅니다. 예를 들어 30일 목표인 경우 굽기 속도가 1로 일정하게 유지되면 오류 예산이 정확히 30일 안에 모두 소진된다는 의미입니다. 굽기 속도가 2로 일정하게 유지되면 15일 안에 소진되고, 굽기 속도가 3이면 10일 안에 소진됩니다. +경비 지출은 [Google에서 만든][3] 단위가 없는 값으로, SLO의 목표 기간에 비해 오류 예산이 얼마나 빨리 소진되는지를 나타냅니다. 예를 들어 30일 목표인 경우 경비 지출이 1로 일정하게 유지되면 오류 예산이 정확히 30일 안에 모두 소진된다는 의미입니다. 경비 지출이 2로 일정하게 유지되면 15일 안에 소진되고, 경비 지출이 3이면 10일 안에 소진됩니다. 이 관계는 다음 공식에서 나타납니다: $${\text"length of SLO target" \text" (7, 30 or 90 days)"} / \text"burn rate" = \text"time until error budget is fully consumed"\$$ -관찰된 굽기 속도를 측정하기 위해 굽기 속도 알림을 최근 "오류율"을 계산에 사용합니다. "오류율"은 *지정된 기간* 동안의 총 동작 대비 불량 동작의 비율을 의미합니다: +관찰된 경비 지출을 측정하기 위해 경비 지출 알림을 최근 "오류율"을 계산에 사용합니다. "오류율"은 *지정된 기간* 동안의 총 동작 대비 불량 동작의 비율을 의미합니다: $$\text"error rate" = 1 - {\text"good behavior during time period" / \text"total behavior during time period"}$$ @@ -40,61 +40,61 @@ $$\text"error rate" = 1 - {\text"good behavior during time period" / \text"total $$\text"error budget" = 100% - \text"SLO Target"$$ -다시 말해, 오류 예산(분수 형식)은 이상적인 오류율입니다. 따라서 굽기 속도는 이상적인 오류율의 배수로 해석할 수도 있습니다. 예를 들어, 30일 동안 99.9%의 SLO에서 굽기 속도가 10인 경우, 오류 예산이 3일 내에 완전히 고갈되며 관찰된 오류율이 이상적인 오류율의 10배라는 것을 의미합니다: +다시 말해, 오류 예산(분수 형식)은 이상적인 오류율입니다. 따라서 경비 지출은 이상적인 오류율의 배수로 해석할 수도 있습니다. 예를 들어, 30일 동안 99.9%의 SLO에서 경비 지출이 10인 경우, 오류 예산이 3일 내에 완전히 고갈되며 관찰된 오류율이 이상적인 오류율의 10배라는 것을 의미합니다: $$(\text"burn rate") (\text"ideal error rate") = \text"observed error rate"$$ $$(10)(0.001) = 0.01$$ -애플리케이션의 새로운 기능 개발에 투자할 때 SLO의 목표 기간 동안 항상 1의 굽기 속도를 유지하는 것이 이상적입니다. 그러나 실제로는 문제나 사고가 발생하여 굽기 속도가 급격히 증가할 수 있습니다. 이러한 상황에서 굽기 속도 알림을 사용하면 오류 예산이 빠른 속도로 소모되어 SLO 목표를 놓치게 되는 것을 대비할 수 있습니다. +애플리케이션의 새로운 기능 개발에 투자할 때 SLO의 목표 기간 동안 항상 1의 경비 지출을 유지하는 것이 이상적입니다. 그러나 실제로는 문제나 사고가 발생하여 경비 지출이 급격히 증가할 수 있습니다. 이러한 상황에서 경비 지출 알림을 사용하면 오류 예산이 빠른 속도로 소모되어 SLO 목표를 놓치게 되는 것을 대비할 수 있습니다. -굽기 속도 알림을 설정할 때 굽기 속도 임곗값과 함께 관찰된 굽기 속도를 측정할 "긴 경고 창" 및 "짧은 경고 창"을 지정합니다. 시간 단위로 지정되는 긴 경고 창은 모니터가 충분한 기간 동안 굽기 속도를 측정하여 중요한 문제에 대응하도록 합니다. 이렇게 하면 모니터가 사소한 문제로 불규칙한 알림을 트리거 하는 것을 방지할 수 있습니다. 짧은 경고 창은 분 단위로 지정됩니다. 최근 굽기 속도가 여전히 임곗값을 초과하는지 확인하여 문제가 종료되었을 때 모니터가 빠르게 복구되도록 합니다. Google은 짧은 창을 긴 창의 1/12로 설정할 것을 권장합니다. Datadog에서 API 또는 Terraform을 통해 프로그래밍 방식으로 짧은 창을 사용자 지정할 수 있습니다. 다음은 굽기 속도 알림 평가에 대한 공식입니다. +경비 지출 알림을 설정할 때 경비 지출 임계값과 함께 관찰된 경비 지출을 측정할 "긴 경고 창" 및 "짧은 경고 창"을 지정합니다. 시간 단위로 지정되는 긴 경고 창은 모니터가 충분한 기간 동안 경비 지출을 측정하여 중요한 문제에 대응하도록 합니다. 이렇게 하면 모니터가 사소한 문제로 불규칙한 알림을 트리거하는 것을 방지할 수 있습니다. 짧은 경고 창은 분 단위로 지정됩니다. 최근 경비 지출이 여전히 임계값을 초과하는지 확인하여 문제가 종료되었을 때 모니터가 빠르게 복구되도록 합니다. Google은 짧은 창을 긴 창의 1/12로 설정할 것을 권장합니다. Datadog에서 API 또는 Terraform을 통해 프로그래밍 방식으로 짧은 창을 사용자 지정할 수 있습니다. 다음은 경비 지출 알림 평가에 대한 공식입니다. $$(\text"long window error rate" / {1 - \text"SLO target"} ≥ \text"burn rate threshold") ∧ (\text"short window error rate" / {1 - \text"SLO target"} ≥ \text"burn rate threshold") = \text"ALERT"$$ -## 최대 굽기 속도 값 +## 최대 경비 지출 값 -이 공식을 사용하면 긴 창과 짧은 창에서 관찰된 굽기 속도를 평가할 수 있습니다: +이 공식을 사용하면 긴 창과 짧은 창에서 관찰된 경비 지출을 평가할 수 있습니다: $$\text"error rate" / {1 - \text"SLO target"}$$ -관찰 가능한 최대 오류율은 1입니다(예: 주어진 기간 동안 전체 동작의 100%가 불량한 경우). 즉, 굽기 속도 알림에서 사용할 수 있는 최대 굽기 속도 값이 있다는 뜻입니다: +관찰 가능한 최대 오류율은 1입니다(예: 주어진 기간 동안 전체 동작의 100%가 불량한 경우). 즉, 경비 지출 알림에서 사용할 수 있는 최대 경비 지출 값이 있다는 뜻입니다: $$\text"max burn rate" = 1 / {1 - \text"SLO target"}$$ -SLO 목표가 낮을수록 최대 굽기 속도 값도 낮아집니다. 이 값보다 높은 굽기 속도 임곗값을 설정하려고 하면 알림이 트리거 되지 않습니다. 위의 공식에 의해 결정된 최댓값보다 높은 값으로 굽기 속도 알림의 조건을 설정하면, SLO의 오류율이 100%를 초과할 때(사실상 불가능) 굽기 속도 알림이 작동되도록 지시하는 것입니다. Datadog은 이러한 알림이 실수로 생성되지 않도록 최댓값보다 높은 굽기 속도 값을 가진 알림 생성을 차단합니다. +SLO 목표가 낮을수록 최대 경비 지출 값도 낮아집니다. 이 값보다 높은 경비 지출 임계값을 설정하려고 하면 알림이 트리거 되지 않습니다. 위의 공식에 의해 결정된 최댓값보다 높은 값으로 경비 지출 알림의 조건을 설정하면, SLO의 오류율이 100%를 초과할 때(사실상 불가능) 경비 지출 알림이 작동되도록 지시하는 것입니다. Datadog은 이러한 알림이 실수로 생성되지 않도록 최댓값보다 높은 경비 지출 값을 가진 알림 생성을 차단합니다. -## 굽기 속도 값 선택하기 +## 경비 지출 값 선택하기 -알림을 보낼 굽기 속도 값을 선택하는 것은 SLO에서 사용하는 목표와 시간 창에 따라 다릅니다. 굽기 속도 알림을 설정할 때는 굽기 속도 임곗값과 긴 창을 설정하는 데 중점을 두어야 합니다. Datadog은 Google의 권장 사항대로 짧은 창을 긴 창의 1/12로 유지한 다음, 필요한 경우 값을 조정할 것을 권장합니다. 최대 굽기 속도는 앞서 설명한 연유에 따라 제한됩니다. +알림을 보낼 경비 지출 값을 선택하는 것은 SLO에서 사용하는 목표와 시간 창에 따라 다릅니다. 경비 지출 알림을 설정할 때는 경비 지출 임계값과 긴 창을 설정하는 데 중점을 두어야 합니다. Datadog은 Google의 권장 사항대로 짧은 창을 긴 창의 1/12로 유지한 다음, 필요한 경우 값을 조정할 것을 권장합니다. 최대 경비 지출은 앞서 설명한 연유에 따라 제한됩니다. ### 접근법 #1: 오류 예산 고갈 시간 -굽기 속도 임곗값의 경우 이전 관계를 기억하세요: +경비 지출 임계값의 경우 이전 관계를 기억하세요: $$\text"length of SLO target (7, 30, or 90 days)" / \text"burn rate" = \text"time until error budget is fully consumed"$$ Solve for burn rate and pick a time until the error budget is fully consumed that would qualify as a significant issue. -긴 창에서는 중요한 문제를 나타내기 위해 높은 굽기 속도가 지속되어야 하는 기간을 선택합니다. 굽기 속도가 높을수록 긴 창을 작게 설정하면 심각도가 높은 문제를 더 빨리 발견할 수 있습니다. +긴 창에서는 중요한 문제를 나타내기 위해 높은 경비 지출이 지속되어야 하는 기간을 선택합니다. 경비 지출이 높을수록 긴 창을 작게 설정하면 심각도가 높은 문제를 더 빨리 발견할 수 있습니다. ### 접근법 #2: 이론적 오류 예산 소비 -또는 이론적 오류 예산 소비 측면에서 굽기 속도와 긴 창의 페어링을 고려할 수 있습니다. +또는 이론적 오류 예산 소비 측면에서 경비 지출와 긴 창의 페어링을 고려할 수 있습니다. $$\text"burn rate" = {\text"length of SLO target (in hours) " * \text" percentage of error budget consumed"} / {\text"long window (in hours) " * 100%}$$ -예를 들어, 7일의 SLO에서 이론적 오류 예산 소비량이 10%, 긴 창에서 1시간인 경우 알림을 받으려면 선택한 굽기 속도는 다음과 같아야 합니다: +예를 들어, 7일의 SLO에서 이론적 오류 예산 소비량이 10%, 긴 창에서 1시간인 경우 알림을 받으려면 선택한 경비 지출은 다음과 같아야 합니다: $$\text"burn rate" = {7 \text"days" * 24 \text"hours" * 10% \text"error budget consumed"} / {1 \text"hour" * 100%} = 16.8$$ -**참고:** 메트릭 기반 SLO의 경우 접근법 #2의 관계는 긴 창에 포함된 총 발생 횟수를 SLO 목표의 전체 길이로 추정합니다. 그러나 실제로 관찰된 오류 예산 소비는 이 관계와 정확히 일치하지 않을 수 있는데, 이는 롤링 창에서 메트릭 기반 SLO가 추적하는 총 발생 건수가 하루 종일 다를 가능성이 높기 때문입니다. 굽기 속도 알림은 상당한 양의 오류 예산 소비가 발생하기 전에 이를 예측하기 위한 것입니다. 모니터 기반 SLO의 경우, 시간은 항상 일정한 속도로 이동하기 때문에 이론적 오류 예산 소비량과 실제 오류 예산 소비량은 동일합니다. 예를 들어, 60분 분량의 모니터 데이터는 항상 1시간 창에 포함됩니다. +**참고:** 메트릭 기반 SLO의 경우 접근법 #2의 관계는 긴 창에 포함된 총 발생 횟수를 SLO 목표의 전체 길이로 추정합니다. 그러나 실제로 관찰된 오류 예산 소비는 이 관계와 정확히 일치하지 않을 수 있는데, 이는 롤링 창에서 메트릭 기반 SLO가 추적하는 총 발생 건수가 하루 종일 다를 가능성이 높기 때문입니다. 경비 지출 알림은 상당한 양의 오류 예산 소비가 발생하기 전에 이를 예측하기 위한 것입니다. 모니터 기반 SLO의 경우, 시간은 항상 일정한 속도로 이동하기 때문에 이론적 오류 예산 소비량과 실제 오류 예산 소비량은 동일합니다. 예를 들어, 60분 분량의 모니터 데이터는 항상 1시간 창에 포함됩니다. ## 모니터 생성 1. [SLO 상태 페이지][4]로 이동하세요. 2. 새 SLO를 만들거나 기존 SLO를 편집한 다음 **알림 저장 및 설정* 버튼을 클릭합니다. 기존 SLO의 경우 SLO 세부 정보 사이드 패널에서 **알림 설정** 버튼을 클릭하여 바로 이동할 수도 있습니다. -3. **1단계: 알림 조건 설정**에서 **굽기 속도** 탭을 선택합니다 -4. 긴 창에서 특정한 굽기 속도가 측정될 때 알림이 작동하도록 설정합니다: - * 굽기 속도는 다음의 범위에 있어야 합니다. +3. **1단계: 알림 조건 설정**에서 **경비 지출** 탭을 선택합니다 +4. 긴 창에서 특정한 경비 지출이 측정될 때 알림이 작동하도록 설정합니다: + * 경비 지출은 다음의 범위에 있어야 합니다. $$0 < \text"burn rate" ≤ 1 / {1 - \text"SLO target"}$$ * Datadog은 긴 창에 대해 최대 48시간의 값을 지원합니다. 긴 창은 `1 hour <= long window <= 48 hours`의 범위에 있어야 합니다. * 그러면 짧은 창이 `short window = 1/12 * long window` 자동으로 계산됩니다. @@ -102,16 +102,20 @@ $$\text"burn rate" = {7 \text"days" * 24 \text"hours" * 10% \text"error budget c 5. **Configure notifications and automations** 섹션에 [알림 정보][4]를 추가합니다. 6. SLO 설정 페이지에서 **저장 및 종료** 버튼을 클릭합니다. +### 그룹별 SLO 알림 설정 + +그룹이 포함된 Time Slice SLO의 경우, SLO 그룹 또는 전체 SLO를 기준으로 경비 지출 알림을 설정할 수 있습니다. 그룹을 기준으로 알림을 설정하는 경우, [알림 집계][8]를 구성하여 단순 알림 또는 다중 알림을 사용할 수 있습니다. 메트릭 및 모니터 기반 SLO의 경우 전체 SLO를 기준으로 경비 지출 알림만 설정할 수 있습니다. + ### 예시 다음 표는 7일, 30일 및 90일 목표에 대한 Datadog의 권장 값입니다. -- 이러한 예는 99.9%의 목표를 가정하지만 96% (96%에 대한 최대 굽기 속도는 25) 정도의 낮은 목표에 적합합니다. 그러나 더 낮은 목푯값을 사용하는 경우 [최대 굽기 속도 값](#maximum-burn-rate-values) 섹션에 설명된 대로 더 낮은 임곗값이 필요할 수 있습니다. Datadog은 소비된 이론적 오류 예산에 대해 더 작은 값 또는 긴 창에 대해 더 높은 값을 적용해 [접근법 #2](#approach-2-theoretical-error-budget-consumption)를 사용할 것을 권장합니다. +- 이러한 예는 99.9%의 목표를 가정하지만 96% (96%에 대한 최대 경비 지출은 25) 정도의 낮은 목표에 적합합니다. 그러나 더 낮은 목푯값을 사용하는 경우 [최대 경비 지출 값](#maximum-burn-rate-values) 섹션에 설명된 대로 더 낮은 임계값이 필요할 수 있습니다. Datadog은 소비된 이론적 오류 예산에 대해 더 작은 값 또는 긴 창에 대해 더 높은 값을 적용해 [접근법 #2](#approach-2-theoretical-error-budget-consumption)를 사용할 것을 권장합니다. - 메트릭 기반 SLO의 경우, 소비된 이론적 오류 예산은 긴 알림 창에서 관찰된 총 발생 횟수를 SLO 목표의 총 길이로 추정하여 계산됩니다. 7일 목표인 경우: -| 굽기 속도 | 긴 창 | 짧은 창 | 소비된 이론적 오류 예산 | +| 경비 지출 | 긴 창 | 짧은 창 | 소비된 이론적 오류 예산 | |---|---|---|---| | 16.8 | 1시간 | 5분 | 10% | | 5.6 | 6시간 | 30분 | 20% | @@ -119,7 +123,7 @@ $$\text"burn rate" = {7 \text"days" * 24 \text"hours" * 10% \text"error budget c 30일 목표인 경우: -| 굽기 속도 | 긴 창 | 짧은 창 | 소비된 이론적 오류 예산 | +| 경비 지출 | 긴 창 | 짧은 창 | 소비된 이론적 오류 예산 | |---|---|---|---| | 14.4 | 1시간 | 5분 | 2% | | 6 | 6시간 | 30분 | 5% | @@ -127,25 +131,25 @@ $$\text"burn rate" = {7 \text"days" * 24 \text"hours" * 10% \text"error budget c 90일 목표인 경우: -| 굽기 속도 | 긴 창 | 짧은 창 | 소비된 이론적 오류 예산 | +| 경비 지출 | 긴 창 | 짧은 창 | 소비된 이론적 오류 예산 | |---|---|---|---| | 21.6 | 1시간 | 5분 | 1% | | 10.8 | 6시간 | 30분 | 3% | | 4.5 | 24시간 | 120분 | 5% | -**권장 사항:** 굽기 속도 알림이 지속적으로 불안정하다면 짧은 창을 조금 더 크게 설정해야 합니다. 단, 짧은 창을 크게 설정할수록 문제가 종료된 후 모니터의 복구 속도가 느려진다는 점을 유의하세요. +**권장 사항:** 경비 지출 알림이 지속적으로 불안정하다면 짧은 창을 조금 더 크게 설정해야 합니다. 단, 짧은 창을 크게 설정할수록 문제가 종료된 후 모니터의 복구 속도가 느려진다는 점을 유의하세요. ### API 와 Terraform -[create-monitor API endpoint][5]를 사용하여 SLO 굽기 속도 알림을 생성할 수 있습니다. 다음은 지난 1시간과 지난 5분 동안 14.4의 굽기 속도가 측정될 때 알림을 생성하기 위한 쿼리 예제입니다. *slo_id*를 굽기 속도 알림을 설정하고자 하는 SLO의 영숫자 ID로 변경하고 SLO 목표에 따라 *time_window*를 7일, 30일 또는 90일 중 하나로 변경합니다: +[create-monitor API endpoint][5]를 사용하여 SLO 경비 지출 알림을 생성할 수 있습니다. 다음은 지난 1시간과 지난 5분 동안 14.4의 경비 지출이 측정될 때 알림을 생성하기 위한 쿼리 예제입니다. *slo_id*를 경비 지출 알림을 설정하고자 하는 SLO의 영숫자 ID로 변경하고 SLO 목표에 따라 *time_window*를 7일, 30일 또는 90일 중 하나로 변경합니다: ``` burn_rate("slo_id").over("time_window").long_window("1h").short_window("5m") > 14.4 ``` -또한 [Terraform의 datadog_monitor resource][6]를 사용하여 SLO 굽기 속도 알림을 생성할 수 있습니다. 다음은 메트릭 기반 SLO에 대한 굽기 속도 알림을 설정할 수 있는 .tf의 예입니다. +또한 [Terraform의 datadog_monitor resource][6]를 사용하여 SLO 경비 지출 알림을 생성할 수 있습니다. 다음은 메트릭 기반 SLO에 대한 경비 지출 알림을 설정할 수 있는 .tf의 예입니다. -**참고:** SLO 굽기 속도 알림은 Terraform v2.7.0 또는 이전 버전, v2.13.0 또는 이상 버전에서만 지원됩니다. v2.7.0과 v2.13.0 사이의 버전에서는 지원되지 않습니다. +**참고:** SLO 경비 지출 알림은 Terraform v2.7.0 또는 이전 버전, v2.13.0 또는 이상 버전에서만 지원됩니다. v2.7.0과 v2.13.0 사이의 버전에서는 지원되지 않습니다. ``` resource "datadog_monitor" "metric-based-slo" { @@ -171,4 +175,5 @@ resource "datadog_monitor" "metric-based-slo" { [4]: https://app.datadoghq.com/slo [5]: /ko/api/v1/monitors/#create-a-monitor [6]: https://registry.terraform.io/providers/DataDog/datadog/latest/docs/resources/monitor -[7]: /ko/service_management/service_level_objectives/time_slice \ No newline at end of file +[7]: /ko/service_management/service_level_objectives/time_slice +[8]: /ko/monitors/configuration/#set-alert-aggregation \ No newline at end of file diff --git a/content/ko/service_management/service_level_objectives/error_budget.md b/content/ko/service_management/service_level_objectives/error_budget.md index 235d679dd93..1e9c47ea052 100644 --- a/content/ko/service_management/service_level_objectives/error_budget.md +++ b/content/ko/service_management/service_level_objectives/error_budget.md @@ -13,17 +13,17 @@ title: 오류 예산 경보 SLO 오류 예산 경보는 임곗값을 기반으로 하며 SLO 오류 예산이 특정 비율만큼 소모될 시 알림을 표시합니다. 예를 들어, 7일 목표에 대한 오류 예산의 75%가 소진된 경우 알림을 표시하고, 50% 소진 시 경고가 나타나도록 할 수 있습니다(선택 사항). -**참고:** 오류 예산 알림은 다음 SLO 유형에 사용할 수 있습니다. +오류 예산 알림은 다음 SLO 유형에 사용할 수 있습니다. - [메트릭 기반 SLO][1], -- 메트릭 모니터 유형(메트릭, 통합, APM 메트릭, 이상치, 예측, 아웃라이어 모니터)으로만 구성된 [모니터 기반 SLO][2] +- 메트릭 모니터 유형(메트릭, 통합, APM 메트릭, 이상치, 예측 또는 아웃라이어 모니터)으로만 구성된 [모니터 기반 SLO][2] - [타임 슬라이스 SLO][8] *오류 예산*을 포함한 SLO 관련 주요 용어에 대한 설명은 [서비스 수준 목표(Service Level Objectives)][3]를 참고하시기 바랍니다. {{< img src="service_management/service_level_objectives/slo-error-budget-alert-v2.png" alt="오류 예산 알림 설정">}} -## 모니터링 생성 +## 모니터 생성 1. [SLO 상태 페이지][4]로 이동하세요. 2. 새 SLO를 만들거나 기존 SLO를 편집한 다음 **알림 저장 및 설정* 버튼을 클릭합니다. 기존 SLO의 경우 SLO 세부 정보 사이드 패널에서 **알림 설정** 버튼을 클릭하여 바로 이동할 수도 있습니다. @@ -35,6 +35,11 @@ SLO 오류 예산 경보는 임곗값을 기반으로 하며 SLO 오류 예산 {{< img src="service_management/service_level_objectives/slo_create_set_alert.png" alt="SLO 생성 및 오류 예산 알림 설정" style="width:80%;">}} +### 그룹별 SLO 알림 + +그룹이 포함된 Time Slice SLO의 경우, SLO 그룹 또는 전체 SLO를 기준으로 예산 오류 알림을 설정할 수 있습니다. 그룹을 기준으로 알림을 설정하는 경우, [알림 집계][9]를 구성하여 단순 알림 또는 다중 알림을 사용할 수 있습니다. 메트릭 및 모니터 기반 SLO의 경우 전체 SLO를 기준으로 예산 오류 알림만 설정할 수 있습니다. + + ### API 와 Terraform [create-monitor API endpoint][6]를 사용하여 SLO 오류 예산 경보를 생성할 수 있습니다. 아래 예제는 SLO 오류 예산의 75% 이상이 사용될 때 경보가 나타나도록 하는 쿼리입니다. *slo_id*를 자금 소진율 경보를 설정하고자 하는 SLO의 영숫자 ID로 바꾸고 *time_window*는 설정 목표에 따라 7일, 30일 또는 90일 중 하나로 변경합니다: @@ -78,4 +83,5 @@ resource "datadog_monitor" "metric-based-slo" { [5]: /ko/monitors/notify/ [6]: /ko/api/v1/monitors/#create-a-monitor [7]: https://registry.terraform.io/providers/DataDog/datadog/latest/docs/resources/monitor -[8]: /ko/service_management/service_level_objectives/time_slice \ No newline at end of file +[8]: /ko/service_management/service_level_objectives/time_slice +[9]: /ko/monitors/configuration/#set-alert-aggregation \ No newline at end of file diff --git a/content/ko/software_catalog/integrations.md b/content/ko/software_catalog/integrations.md new file mode 100644 index 00000000000..96f201267cb --- /dev/null +++ b/content/ko/software_catalog/integrations.md @@ -0,0 +1,98 @@ +--- +aliases: +- /ko/tracing/software_catalog/integrations +- /ko/tracing/service_catalog/integrations +- /ko/service_catalog/integrations +further_reading: +- link: /tracing/software_catalog/service_definition_api/ + tag: 설명서 + text: 서비스 정의 API에 대해 자세히 알아보기 +- link: /integrations/opsgenie/ + tag: 설명서 + text: OpsGenie 통합에 대해 자세히 알아보기 +- link: /integrations/pagerduty/ + tag: 설명서 + text: PagerDuty 통합에 대해 자세히 알아보기 +title: Software Catalog와 통합 사용 +--- +{{% site-region region="gov" %}} +
+Software Catalog용 PagerDuty와 OpsGenie 통합은 {{< region-param key=dd_datacenter code="true" >}} 사이트에서 지원되지 않습니다. +
+{{% /site-region %}} + +## 개요 + +[Datadog 통합][10]용 서비스 계정을 구성할 때, 통합의 메타데이터를 [Software Catalog][9]의 서비스 정의에 통합할 수 있습니다. 또한 [통합 개발 환경(IDE)](#ide-integrations)에서 서비스 정의를 편집할 때 자동 완성 및 유효성 검사 기능을 사용할 수도 있습니다. + +## PagerDuty 통합 + +서비스에 PagerDuty 메타데이터를 추가하면, Software Catalog에서 해당 서비스의 온콜 담당자나 활성 PagerDuty 인시던트 여부 등의 정보를 표시하고 연결할 수 있습니다. 한 명의 온콜 담당자만 표시할 수 있기 때문에, Datadog은 에스컬레이션 레벨을 기준으로 가장 먼저 오는 사용자를 선택하고, 그다음 이메일 알파벳 순으로 정렬해 선택합니다. + +### 설정 + +[PagerDuty Service Directory][1]에 있는 모든 서비스를 연결할 수 있습니다. Software Catalog의 각 서비스에 하나의 PagerDuty 서비스를 매핑할 수 있습니다. + +1. 아직 설정하지 않았다면 [Datadog PagerDuty 통합][2]을 설정하세요. + +2. [API 액세스 키][3] 설명서에 설명된 대로 PagerDuty API 액세스 키를 받으세요. + +3. [Pagerduty 통합 설정][4]에서 API 액세스 키를 입력하여 설정을 완료합니다. + + {{< img src="tracing/software_catalog/pagerduty-token.png" alt="API 키를 복사하여 PagerDuty Setup에 붙여넣습니다." style="width:100%;" >}} + +4. 서비스 정의를 PagerDuty 정보로 업데이트합니다. 예를 들어, 전체 [서비스 정의][5] 내에 다음 `integrations` 설정 줄을 전달합니다: + + ``` + ... + integrations: + pagerduty: https://www.pagerduty.com/service-directory/shopping-cart + ... + ``` + +## OpsGenie 통합 + +OpsGenie 메타데이터를 서비스에 추가하면 Software Catalog에 해당 서비스 온콜 담당자 등의 정보가 표시되고 연결됩니다. + +### 설정 + +1. 아직 설정하지 않았다면 [Datadog OpsGenie 통합][12]을 설정하세요. +2. [API 키 관리][13] 문서에 설명된 대로 OpsGenie API 액세스 키를 받으세요. 이 API 키에는 **설정 액세스** 및 **읽기** 액세스 권한이 필요합니다. +3. [통합 타일][14] 하단의 **계정** 섹션에서 계정을 추가하고, OpsGenie API 액세스 키를 붙여넣은 다음, OpsGenie 계정에서 지역을 선택합니다. + + {{< img src="tracing/software_catalog/create_account1.png" alt="OpsGenie 통합 타일에서 Create New Account 워크플로" style="width:80%;" >}} + {{< img src="tracing/software_catalog/create_account2.png" alt="OpsGenie 통합 타일에서 Create New Account 워크플로" style="width:80%;" >}} + +4. 서비스를 Datadog 서비스와 연결하기 위해 OpsGenie 정보로 서비스 정의를 업데이트합니다. 예를 들어 전체 [서비스 정의][5] 내에 다음 `integrations` 설정 줄을 전달합니다: + + ```yaml + "integrations": { + "opsgenie": { + "service-url": "https://www.opsgenie.com/service/123e4567-x12y-1234-a456-123456789000", + "region": "US" + } + } + ``` + +이 단계를 완료하면 Software Catalog 서비스의 **Ownership** 탭에 **On Call*** 정보 상자가 나타납니다. + +{{< img src="tracing/software_catalog/oncall_information.png" alt="Software Catalog에서 OpsGenie 정보를 표시하는 On Call 정보 상자" style="width:85%;" >}} + +## 참고 자료 + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: https://support.pagerduty.com/docs/service-directory +[2]: /ko/integrations/pagerduty/ +[3]: https://support.pagerduty.com/docs/api-access-keys +[4]: https://app.datadoghq.com/integrations/pagerduty +[5]: /ko/tracing/software_catalog/service_definition_api/ +[6]: http://json-schema.org/ +[7]: https://www.schemastore.org/json/ +[8]: https://raw.githubusercontent.com/DataDog/schema/main/service-catalog/version.schema.json +[9]: /ko/tracing/software_catalog/ +[10]: /ko/integrations/ +[11]: https://app.datadoghq.com/services +[12]: /ko/integrations/opsgenie +[13]: https://support.atlassian.com/opsgenie/docs/api-key-management/ +[14]: https://app.datadoghq.com/integrations/opsgenie \ No newline at end of file diff --git a/content/ko/software_catalog/scorecards/using_scorecards.md b/content/ko/software_catalog/scorecards/using_scorecards.md new file mode 100644 index 00000000000..76031edc580 --- /dev/null +++ b/content/ko/software_catalog/scorecards/using_scorecards.md @@ -0,0 +1,71 @@ +--- +aliases: +- /ko/tracing/software_catalog/scorecards/using_scorecards +- /ko/tracing/service_catalog/scorecards/using_scorecards +- /ko/service_catalog/scorecards/using_scorecards +further_reading: +- link: /tracing/software_catalog/ + tag: 설명서 + text: 소프트웨어 카탈로그 +- link: /api/latest/service-scorecards/ + tag: 설명서 + text: Scorecards API +- link: https://www.datadoghq.com/blog/service-scorecards/ + tag: 블로그 + text: Scorecards로 서비스 옵저버빌리티 모범 사례 우선 순위를 지정하고 확산하세요 +- link: https://www.datadoghq.com/blog/datadog-custom-scorecards/ + tag: 블로그 + text: 맞춤형 Scorecards로 모범 사례 공식화 +- link: /continuous_integration/dora_metrics/ + tag: 설명서 + text: Datadog으로 DORA 메트릭 추적 +title: 스코어카드 사용 +--- + +{{< callout url="#" btn_hidden="true" header="false" >}} +Scorecards는 Preview 단계입니다. +{{< /callout >}} + +Scorecards를 구성한 후에는 서비스 수준 점수를 확인하고, 시간 경과에 따른 점수를 추적하며, Scorecard 보고서를 생성하여 Scorecard 정보로 팀을 자동으로 업데이트할 수 있습니다. + +## 서비스 수준 세부 정보 및 점수 보기 + +Scorecard 요약은 Software Catalog의 [**Explore** 페이지][1]에서 **Ownership** 탭의 **Scorecards** 열 아래에 있습니다. 각 스코어카드에 관한 특정 서비스 또는 서비스 하위 집합의 성과와 각 스코어카드 내 규칙을 확인할 수 있습니다. + +Scorecard에서 **View Details**를 클릭하거나 서비스 세부 정보 사이드 패널을 열어 **Scorecards** 탭을 확인하세요. 이 탭에는 모든 Scorecards, 규칙, 각 규칙에 관한 해당 서비스의 합격/불합격 점수 목록을 확인할 수 있습니다. + +## 시간 경과에 따른 점수 추적 + +Scorecards UI에서 과거 시계열을 통해 팀이 변경 사항을 적용하고 알려진 문제를 해결하면서 시간 경과에 따른 점수의 추이를 시각화할 수 있습니다. 또한 이러한 시계열을 Dashboards와 Notebooks로 내보내 `team`, `rule`, `scorecard`, `application`, `tier`, `lifecycle`과 같은 다양한 태그로 필터링할 수 있습니다. + +{{< img src="/tracing/software_catalog/scorecard-historical-metrics.png" alt="Scorecard UI에서 시간 경과에 따른 점수 변화를 보여주는 시계열" style="width:90%;" >}} + +## Scorecard 보고서 생성 + +Scorecard 보고서를 생성하면 이 보고서는 스케줄에 따라 Scorecard 정보를 팀의 Slack 채널로 전송하여 서비스와 팀이 기대되는 기준을 얼마나 충족하고 있는지 모두가 이해할 수 있도록 도와줍니다. 보고서를 생성하면 [Datadog Workflow Automation][2]을 사용하여 예약된 시간에 실행되는 Workflow가 생성됩니다. + +
이 Workflow를 실행하면 청구에 영향을 미칠 수 있습니다. 자세한 내용은 가격 페이지를 참고하세요.
+ +보고서 만드는 방법: + +1. Scorecards 페이지에서 **Create Report**를 클릭합니다. +2. 조직 전체에서 정의된 모든 서비스를 포함할지, 아니면 특정 팀의 서비스만 포함할지 선택합니다. +3. 보고서를 받을 날짜, 시간, 빈도를 설정합니다. +4. 보고서를 보낼 Slack 워크스페이스와 채널을 설정합니다. 선택한 채널은 공개 상태여야 하며 Datadog Slack 앱이 설치되어 있어야 합니다. +5. **Enable this Workflow**를 클릭합니다. + +Datadog은 이 정보를 사용하여 가장 높은 점수와 가장 낮은 점수를 받은 규칙, 서비스, 팀에 관한 보고서를 보냅니다. + +{{< img src="/tracing/software_catalog/scorecard-reports.png" alt="모든 서비스에 관한 보고서 생성 방법을 보여주는 Scorecard 보고서 생성 모달" style="width:90%;" >}} + + +### Scorecard 보고서 관리 +Workflow를 편집하거나 삭제하려면 Scorecards 페이지에서 **Manage Reports**를 클릭하고 Workflow를 선택합니다. Settings 메뉴를 사용하여 Workflow를 편집하거나 삭제하세요. + + +## 참고 자료 + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: https://app.datadoghq.com/services +[2]: /ko/service_management/workflows/ \ No newline at end of file diff --git a/content/ko/software_catalog/software_templates.md b/content/ko/software_catalog/software_templates.md new file mode 100644 index 00000000000..8c22d5591c6 --- /dev/null +++ b/content/ko/software_catalog/software_templates.md @@ -0,0 +1,123 @@ +--- +aliases: +- /ko/service_catalog/software_templates +further_reading: +- link: https://www.datadoghq.com/blog/app-builder-remediation/ + tag: 블로그 + text: App Builder로 인시던트를 빠르게 해결 +- link: /service_management/app_builder/ + tag: 설명서 + text: App Builder에 대해 알아보기 +- link: /service_management/workflows/ + tag: 설명서 + text: Workflows에 대해 알아보기 +title: 셀프 서비스 +--- + +## 개발자 워크플로우 자동화 +[App Builder][2]를 사용하여 개발자의 입력을 수집하는 동적이고 사용자 친화적인 양식을 만드세요. 앱에서 Datadog의 [Actions][7]를 호출하여 외부 서비스의 API 호출을 시작하거나, 사용자 지정 로직을 실행하거나, 데이터를 변환할 수 있습니다. [Workflow Automation][1]을 사용하여 여러 작업의 엔드 투 엔드 프로세스를 조율하세요. Datadog의 Software Catalog와 통합하여 동적인 셀프서비스 워크플로를 구현할 수 있습니다. + +{{< img src="tracing/service_catalog/self-service-ui.png" alt="Self-Service에 게시" style="width:100%;" >}} + +{{< callout url="https://forms.gle/6Er52qd3BCERhotg7" d_target="#signupModal" btn_hidden="false">}} + Software Templates은 Preview 단계입니다. 양식을 작성하여 액세스를 요청하세요. +{{< /callout >}} + +### 소프트웨어 템플릿 워크플로 생성 +Datadog에서 소프트웨어 템플릿을 사용하려면 원하는 템플릿으로 Git 리포지토리를 만듭니다. 처음부터 시작하거나, 빠른 시작 블루프린트를 참고하여 예제를 통해 학습할 수 있습니다. + +#### 예시로 시작하기 +[App Builder Blueprints][9]로 이동하여 다음 블루프린트 중 하나를 선택하세요. 이는 앱 또는 워크플로를 구성하는 방법에 대한 예시로, 시작하는 데 도움이 됩니다. 입력 구성, 소스 코드 관리 또는 클라우드 제공업체와의 통합 설정, 권한 구성 등 필요에 맞게 예시를 업데이트할 수 있습니다. + +##### Scaffold New Service + +[Scaffold New Service 블루프린트][11]는 템플릿에서 새 Lambda 함수를 스캐폴딩하는 예를 보여줍니다. 이 양식은 개발자의 입력을 수집하여 해당 Git 리포지토리에 전달합니다. + +1. 앱에서 개발자로부터 수집하려는 파라미터를 포함하도록 양식을 사용자 정의합니다. +2. **Save as New App**을 클릭하여 앱을 저장합니다. 이렇게 하면 해당 템플릿 워크플로도 생성됩니다. + +##### Create S3 bucket with Terraform + +[Create S3 Bucket 블루프린트][10]는 GitHub의 양식을 사용하여 S3 버킷에 대한 Terraform 코드 생성의 예를 보여줍니다. + +##### Provision Kubernetes cluster + +[Provision EKS Cluster 블루프린트][12]는 GitHub에서 Kubernetes 클러스터의 Terraform 코드 생성의 예를 보여줍니다. + +##### Provision RDS instance + +[Provision RDS Instance 블루프린트][13]는 AWS와 직접 통합하여 RDS 인스턴스를 프로비저닝하는 방법의 예를 보여줍니다. + + +#### 처음부터 시작하기 +Datadog에서 템플릿을 구성하려면 [Workflow Automation][3] 페이지로 이동합니다. + +1. App Builder를 사용하여 개발자용 프런트엔드에 사용할 양식을 만듭니다. + - **Actions** > **App Builder**로 이동한 후 **New App**을 선택합니다. + - 이름과 설명을 입력하고, 드래그 앤 드롭 편집기를 사용하여 템플릿에 필요한 파라미터를 수집하는 양식을 만듭니다. + - `Form` 구성 요소를 활용하거나 사용자 정의 UI를 구축할 수 있습니다. + - UI 작업이 완료되면 **New Query**를 선택하고 **Trigger workflow** 작업을 사용하여 템플릿 워크플로를 호출하고 관련 파라미터를 전달하세요. [Actions Catalog][7]에서 사용 가능한 통합을 살펴보거나, `HTTP` 작업을 활용하여 기본으로 제공되지 않는 통합과 상호 작용할 수도 있습니다. + - 양식을 제출하고, 워크플로를 트리거하고, 템플릿 파라미터를 전달하는 **Button**을 만듭니다. + - 저장하고 앱을 게시합니다. + +2. 템플릿의 [워크플로를 만듭니다][6]. + - [Workflow Automation][3] 페이지에서 **New Workflow**를 클릭합니다. + - 이름을 입력하고, 관련 태그를 추가하고, 사용자로부터 수집하려는 입력 파라미터를 정의합니다. + +3. 템플릿 워크플로를 구성합니다. + - GitHub, Gitlab 또는 HTTP [작업][7]을 사용하여 템플릿 파일을 검색합니다. + - Apply Template [작업][7]을 사용하여 템플릿 리포지토리를 조작하고 입력 파라미터를 전달합니다. + - GitHub, Gitlab 또는 HTTP [작업][7]을 사용하여 프로젝트 파일을 리포지토리에 업로드합니다. + - 워크플로를 저장합니다. + + {{< img src="tracing/software_catalog/templating-workflow.png" alt="소프트웨어 템플릿 자동화 구축하는 워크플로우" style="width:100%;" >}} + +4. App과 Workflow를 테스트합니다. + - **View App**을 클릭하면 미리보기에서 독립형 페이지로 앱을 볼 수 있습니다. + - [Workflow Automation][3]에서 워크플로 템플릿 프로세스의 성공 여부를 추적합니다. + +### 앱 게시 +앱 설정 및 테스트를 마치면 팀원들이 사용할 수 있도록 앱을 게시할 수 있습니다. 게시 과정에서는 권한을 정의하라는 메시지가 표시되고, 이를 통해 Dashboard 또는 Self-Service 포털에 앱을 추가할 수 있습니다. + + {{< img src="tracing/service_catalog/self-service-publish.png" alt="Self-Service에 게시" style="width:100%;" >}} + +### 사용 가능한 Software Catalog 작업 + +Datadog App Builder 및 Workflow Automation에서 Software Catalog에 사용할 수 있는 작업 목록은 다음과 같습니다. 전체 목록은 [Action Catalog][7]에서 확인하세요. + +- **Templating** + - "Apply template": 파라미터를 파일 세트에 전달 +- **Github** + - "Create or update file": 새 파일 생성 + - "Edit configuration file": YAML 또는 JSON 파일 조작 + - "Trigger GitHub Actions workflow run": GitHub Action 시작 + - "Search repositories": 리포지토리 목록 반환 + - "Create pull request": 풀 리퀘스트 열기 +- **Retrieve Service Information** + - "Get service definition": 단일 서비스에 해당 + - "List service definitions": Datadog Software Catalog에서 모든 정의 가져오기 + - "Get service dependencies": 해당 서비스의 직속 업스트림 및 다운스트림 서비스 가져오기 +- **Incident Triage** + - "Get service PagerDuty on call" + - 다른 작업과 통합하면 중요한 이벤트(예: 런북 실행)를 기반으로 워크플로를 트리거할 수 있습니다. +- **Private Actions** + - 개인 리소스와 상호 작용하려면 [Private Action Runner][12]를 사용하세요. + + +## 참고 자료 + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: /ko/service_management/workflows/ +[2]: /ko/service_management/app_builder/ +[3]: https://app.datadoghq.com/workflow +[4]: https://www.cookiecutter.io/ +[5]: https://gist.github.com/enbashi/366c62ee8c5fc350d52ddabc867602d4#file-readme-md +[6]: /ko/service_management/workflows/build/#create-a-custom-workflow +[7]: /ko/actions/actions_catalog/ +[9]: https://app.datadoghq.com/app-builder/blueprints +[10]: https://app.datadoghq.com/app-builder/apps/edit?activeTab=queries&showActionCatalog=false&template=create-new-s3-bucket&viewMode=edit +[11]: https://app.datadoghq.com/app-builder/apps/edit?activeTab=queries&showActionCatalog=false&template=scaffolding&viewMode=edit +[12]: /ko/actions/private_actions/ +[13]: https://app.datadoghq.com/app-builder/apps/edit?activeTab=data&showActionCatalog=false&template=provision-eks-cluster&viewMode=edit&visibleDataItemId=createOrUpdateFile0-action +[14]: https://app.datadoghq.com/app-builder/apps/edit?activeTab=data&showActionCatalog=false&template=rds_provision_instance&viewMode=edit&visibleDataItemId=createDbInstance0-action \ No newline at end of file diff --git a/content/ko/tests/test_impact_analysis/setup/java.md b/content/ko/tests/test_impact_analysis/setup/java.md new file mode 100644 index 00000000000..3d5c87c3caa --- /dev/null +++ b/content/ko/tests/test_impact_analysis/setup/java.md @@ -0,0 +1,328 @@ +--- +aliases: +- /ko/continuous_integration/intelligent_test_runner/java/ +- /ko/continuous_integration/intelligent_test_runner/setup/java/ +- /ko/intelligent_test_runner/setup/java +code_lang: java +code_lang_weight: 10 +further_reading: +- link: /continuous_integration/tests + tag: 설명서 + text: 테스트 결과 및 성능 탐색 +- link: /continuous_integration/troubleshooting/ + tag: 설명서 + text: CI Visibility 문제 해결 +title: Java용 Test Impact Analysis +type: multi-code-lang +--- + +## 호환성 + +Test Impact Analysis는 `dd-java-agent >= 1.27.0`에서 지원됩니다. + +지원되는 테스트 프레임워크는 다음과 같습니다. +- JUnit >= 4.10 및 >= 5.3 +- TestNG >= 6.4 +- Spock >= 2.0 +- Cucumber >= 5.4.0 +- Karate >= 1.0.0 +- Scalatest >= 3.0.8 + +## 설정 + +### 테스트 최적화 + +Test Impact Analysis를 설정하기 전에 [Java용 Test Optimization][1]를 설정하세요. Agent를 통해 데이터를 보고하는 경우 v6.40 이상 또는 v7.40 이상을 사용하세요. + +{{% ci-itr-activation-instructions %}} + +## 활성화된 Test Impact Analysis로 테스트 실행 + +설정이 완료되면 평소처럼 테스트를 실행합니다. + +{{< tabs >}} +{{% tab "Gradle" %}} + +{{< code-block lang="shell" >}} +DD_CIVISIBILITY_ENABLED=true \ +DD_ENV=ci \ +DD_SERVICE=my-java-app \ +GRADLE_OPTS=-javaagent:$DD_TRACER_FOLDER/dd-java-agent.jar \ +./gradlew clean test +{{< /code-block >}} + +{{% /tab %}} +{{% tab "Maven" %}} + +{{< code-block lang="shell" >}} +DD_CIVISIBILITY_ENABLED=true \ +DD_ENV=ci \ +DD_SERVICE=my-java-app \ +MAVEN_OPTS=-javaagent:$DD_TRACER_FOLDER/dd-java-agent.jar \ +mvn clean verify +{{< /code-block >}} + +{{% /tab %}} +{{% tab "Other" %}} + +{{< code-block lang="shell" >}} +DD_CIVISIBILITY_ENABLED=true \ +DD_ENV=ci \ +DD_SERVICE=my-java-app \ +JAVA_TOOL_OPTIONS=-javaagent:$DD_TRACER_FOLDER/dd-java-agent.jar \ +// run your tests +{{< /code-block >}} + +{{% /tab %}} +{{< /tabs >}} + +## 특정 테스트에 대한 건너뛰기 비활성화 + +est Impact Analysis를 재정의하여 특정 테스트가 건너뛰어지지 않도록 할 수 있습니다. 이러한 테스트를 건너뛸 수 없는 테스트라고 합니다. + +### 테스트 건너뛸 수 없는 이유는 무엇인가요? + +Test Impact Analysis는 코드 커버리지 데이터를 사용하여 테스트를 건너뛸지 여부를 결정합니다. 경우에 따라 이 데이터만으로는 결정을 내리기에 충분하지 않을 수 있습니다. + +예를 들면 다음과 같습니다: + +- 텍스트 파일에서 데이터를 읽는 테스트 +- 테스트 중인 코드 외부의 API와 상호 작용하는 테스트(예: 원격 REST API) +- 테스트를 건너뛸 수 없도록 지정하면 Test Impact Analysis에서 커버리지 데이터와 관계없이 테스트를 실행합니다. + +### 호환성 + +건너뛸 수 없는 테스트는 다음 버전 및 테스트 프레임워크에서 지원됩니다. + +- JUnit >= 4.10 및 >= 5.3 +- TestNG >= 6.4 +- Spock >= 2.2 +- Cucumber >= 5.4.0 +- Scalatest >= 3.0.8 + +### 테스트를 건너뛸 수 없는 것으로 표시 + +{{< tabs >}} +{{% tab "JUnit 5" %}} + +#### 개별 테스트 케이스 + +테스트 케이스에 `datadog_itr_unskippable` 값이 포함된 JUnit `Tag`을 추가하여 건너뛸 수 없는 테스트로 표시합니다. + +```java +import org.junit.jupiter.api.Tag; +import org.junit.jupiter.api.Tags; +import org.junit.jupiter.api.Test; + +public class MyTestSuite { + + @Test + @Tags({@Tag("datadog_itr_unskippable")}) + public void myTest() { + // ... + } +} +``` + +#### 테스트 스위트(suite) + +테스트 스위트(suite)에 `datadog_itr_unskippable` 값이 포함된 JUnit `Tag`을 추가하여 건너뛸 수 없는 테스트로 표시합니다. + +테스트 케이스 모음이 unskippable로 표시된 경우, Test Impact Analysis에서는 해당 테스트 케이스 모음의 어떤 ​​것도 건너뛸 수 없습니다. + +```java +import org.junit.jupiter.api.Tag; +import org.junit.jupiter.api.Tags; +import org.junit.jupiter.api.Test; + +@Tags({@Tag("datadog_itr_unskippable")}) +public class MyTestSuite { + + @Test + public void myTest() { + // ... + } +} +``` + +{{% /tab %}} +{{% tab "JUnit 4" %}} + +#### 개별 테스트 케이스 + +테스트 케이스에 `datadog_itr_unskippable` 값이 포함된 JUnit `Category`을 추가하여 건너뛸 수 없는 테스트로 표시합니다. +모든 테스트 케이스 또는 테스트 스위트(suite)에 대해 `datadog_itr_unskippable`를 생성할 필요는 없습니다. 전체 프로젝트용 카테고리 하나만 생성해도 충분합니다. + +```java +import org.junit.Test; +import org.junit.experimental.categories.Category; + +public class MyTestSuite { + + @Category(datadog_itr_unskippable.class) + @Test + public void myTest() { + // ... + } + + public interface datadog_itr_unskippable {} +} +``` + +#### 테스트 스위트(suite) + +테스트 스위트(suite)에 `datadog_itr_unskippable` 값이 포함된 JUnit `Tag`을 추가하여 건너뛸 수 없는 스위트(suite)로 표시합니다. +모든 테스트 케이스 또는 테스트 스위트(suite)에 대해 `datadog_itr_unskippable`를 생성할 필요는 없습니다. 전체 프로젝트용 카테고리 하나만 생성해도 충분합니다. + +테스트 케이스 모음이 unskippable로 표시된 경우, Test Impact Analysis에서는 해당 테스트 케이스 모음의 어떤 ​​것도 건너뛸 수 없습니다. + +```java +import org.junit.Test; +import org.junit.experimental.categories.Category; + +@Category(MyTestSuite.datadog_itr_unskippable.class) +public class MyTestSuite { + + @Test + public void myTest() { + // ... + } + + public interface datadog_itr_unskippable {} +} +``` + +{{% /tab %}} +{{% tab "TestNG" %}} + +#### 개별 테스트 케이스 + +테스트 케이스에 `datadog_itr_unskippable` 값이 포함된 그룹을 추가하여 건너뛸 수 없는 테스트로 표시합니다. + +```java +import org.testng.annotations.Test; + +public class MyTestSuite { + + @Test(groups = "datadog_itr_unskippable") + public void myTest() { + // ... + } +} +``` + +#### 테스트 스위트(suite) + +테스트 스위트(suite)에 `datadog_itr_unskippable` 값이 포함된 그룹을 추가하여 건너뛸 수 없는 스위트(suite)로 표시합니다. + +테스트 케이스 모음이 unskippable로 표시된 경우, Test Impact Analysis에서는 해당 테스트 케이스 모음의 어떤 ​​것도 건너뛸 수 없습니다. + +```java +import org.testng.annotations.Test; + +@Test(groups = "datadog_itr_unskippable") +public class MyTestSuite { + + @Test + public void myTest() { + // ... + } +} +``` + +{{% /tab %}} +{{% tab "Spock" %}} + +#### 개별 테스트 케이스 + +테스트 케이스에 `datadog_itr_unskippable` 값이 포함된 `spock.lang.Tag`을 추가하여 건너뛸 수 없는 테스트로 표시합니다. + +```java +import spock.lang.Specification +import spock.lang.Tag + +class MyTestSuite extends Specification { + + @Tag("datadog_itr_unskippable") + def myTest() { + // ... + } +} +``` + +#### 테스트 스위트(suite) + +테스트 스위트(suite)에 `datadog_itr_unskippable` 값이 포함된 `spock.lang.Tag`을 추가하여 건너뛸 수 없는 스위트(suite)로 표시합니다. + +테스트 케이스 모음이 unskippable로 표시된 경우, Test Impact Analysis에서는 해당 테스트 케이스 모음의 어떤 ​​것도 건너뛸 수 없습니다. + +```java +import spock.lang.Specification +import spock.lang.Tag + +@Tag("datadog_itr_unskippable") +class MyTestSuite extends Specification { + + def myTest() { + // ... + } +} +``` + +{{% /tab %}} +{{% tab "Cucumber" %}} + +#### 개별 시나리오 + +gherkin 시나리오에 `datadog_itr_unskippable` 태그를 추가하여 건너뛸 수 없는 시나리오로 표시합니다. + +```gherkin +Feature: My Feature + + @datadog_itr_unskippable + Scenario: My Scenario + # ... +``` + +#### 기능 + +gherkin 기능에 `datadog_itr_unskippable` 태그를 추가하여 건너뛸 수 없는 시나리오로 표시합니다. + +기능이 Unskippable로 표시된 경우, Test Impact Analysis는 해당 기능의 어떤 시나리오도 건너뛸 수 없습니다. + +```gherkin +@datadog_itr_unskippable +Feature: My Feature + + Scenario: My Scenario + # ... +``` + +{{% /tab %}} +{{% tab "ScalaTest" %}} + +다음과 같이 `datadog_itr_unskippable` 값이 포함된 `Tag`를 생성하여 테스트 케이스를 태깅합니다. + +```scala +import org.scalatest.Tag +import org.scalatest.flatspec.AnyFlatSpec + +object ItrUnskippableTag extends Tag("datadog_itr_unskippable") + +class MyTestSuite extends AnyFlatSpec { + "myTest" should "assert something" taggedAs ItrUnskippableTag in { + // ... + } +} +``` + +{{% /tab %}} +{{< /tabs >}} + + +## 참고 자료 + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: /ko/continuous_integration/tests/java +[2]: https://www.jacoco.org/jacoco/ \ No newline at end of file diff --git a/content/ko/universal_service_monitoring/guide/using_usm_metrics.md b/content/ko/universal_service_monitoring/guide/using_usm_metrics.md index 21b7c62020a..2ac635ad1c0 100644 --- a/content/ko/universal_service_monitoring/guide/using_usm_metrics.md +++ b/content/ko/universal_service_monitoring/guide/using_usm_metrics.md @@ -15,9 +15,9 @@ title: 모니터, SLO 및 대시보드에서 USM 메트릭 사용 ## 개요 -[유니버설 서비스 모니터링][1]은 널리 사용되는 컨테이너 태그(예: `app`, `short_image` 및 `kube_deployment`)를 사용하여 서비스를 검색하고 [Service Catalog][2]에서 해당 서비스에 대한 항목을 생성합니다. +[Universal Service Monitoring][1]은 인기 있는 컨테이너 태그(예: `app`, `short_image`, `kube_deployment`)를 사용하여 서비스를 검색하고 해당 서비스에 대한 [Software Catalog][2]에 항목을 생성합니다. -유니버설 서비스 모니터링으로 검색된 모든 서비스의 인바운드 및 아웃바운드 트래픽에 대해 Datadog의 요청, 오류 및 기간 메트릭에 액세스할 수 있습니다. 이러한 서비스 상태 메트릭은 알림 생성, [배포 추적][11], [서비스 수준 목표(SLO)][3] 시작에 유용하므로 인프라에서 실행 중인 모든 서비스에 대한 포괄적인 가시성을 확보할 수 있습니다. +Universal Service Monitoring을 통해 발견된 모든 서비스의 인바운드 및 아웃바운드 트래픽에 대한 Datadog의 요청, 오류 및 지속 시간 메트릭에 액세스할 수 있습니다. 이러한 서비스 상태 메트릭은 알림 생성, [배포 추적][3] 및 [서비스 수준 목표(SLO)][4] 설정에 유용하며, 이를 통해 인프라에서 실행 중인 모든 서비스에 관한 광범위한 가시성을 확보할 수 있습니다. {{< img src="universal_service_monitoring/guide/usm_slo.png" alt="BITSBOUTIQUE용 유니버설 서비스 모니터링 SLO" style="width:100%;" >}} @@ -28,21 +28,21 @@ title: 모니터, SLO 및 대시보드에서 USM 메트릭 사용 | 메트릭 이름 | 단위 | 유형 | 설명 | |-----------------------------|---------|--------------|---------------------------------------------------| | universal.http.client | 초 | 분포 | 아웃바운드 요청의 대기 시간, 카운트, 오류 및 속도. | -| universal.http.client.hits | 히트 | 카운트 | 총 아웃바운드 요청 및 오류 수. | +| universal.http.client.hits | 히트 | 개수 | 총 아웃바운드 요청 및 오류 수. | | universal.http.client.apdex | 스코어 | 게이지 | 이 서비스에 대한 아웃바운드 요청의 Apdex 스코어. | | universal.http.server | 초 | 분포 | 인바운드 요청의 대기 시간, 카운트, 오류 및 속도. | -| universal.http.server.hits | 히트 | 카운트 | 총 인바운드 요청 및 오류 수. | +| universal.http.server.hits | 히트 | 개수 | 총 인바운드 요청 및 오류 수. | | universal.http.server.apdex | 스코어 | 게이지 | 이 웹 서비스에 대한 Apdex 스코어. | APM 메트릭과 달리 오류는 별도의 메트릭이 아닌 `error:true` 태그 아래에서 사용할 수 있습니다. -**참고:** `.hits` 메트릭에는 모든 인프라스트럭처 태그가 포함되어 있으며 요청 및 오류 카운트를 쿼리하는 데 권장되는 방법입니다. 모든 USM 메트릭에 [두 번째 기본 태그][16]를 추가할 수도 있습니다. +**참고:** `.hits` 메트릭에는 모든 인프라 태그가 포함되어 있으며, 요청 및 오류 수를 쿼리하는 데 권장되는 방법입니다. 모든 USM 메트릭에 [두 번째 기본 태그][5]를 추가할 수도 있습니다. ### 메트릭 구문 -USM 메트릭 쿼리 구문은 `trace.*`를 사용하는 [APM 메트릭 쿼리 구문][4]과 다릅니다. USM 메트릭은 단일 분포 메트릭 이름에 속합니다. +USM 메트릭 쿼리 구문은 `trace.*`를 사용하는 [APM 메트릭 쿼리 구문][6]과 다릅니다. USM 메트릭은 단일 분포 메트릭 이름에 속합니다. -예를 들면 다음과 같습니다. +예시: | APM | USM | |-------------------------------------------------|------------------------------------------------------| @@ -52,40 +52,40 @@ USM 메트릭 쿼리 구문은 `trace.*`를 사용하는 [APM 메트릭 쿼리 | pXX:trace.universal.http.client{*} | pXX:universal.http.client{*} | | trace.universal.http.client.apdex{*} | universal.http.client.apdex{*} | -인바운드 트래픽을 캡처하는 `universal.http.server` 작업에도 동일한 변환이 적용됩니다. 분포 메트릭에 대한 자세한 내용은 [APM의 DDSketch 기반 메트릭][12]을 참조하세요. +인바운드 트래픽을 캡처하는 `universal.http.server` 작업에도 동일한 번역이 적용됩니다. 배포 메트릭에 관한 자세한 내용은 [APM의 DDSketch 기반 메트릭][7]을 참고하세요. -## 사용법 +## 사용량 -[**APM** > **Service Catalog**][5]로 이동하여 Universal Service Monitoring telemetry 유형별로 필터링하고 서비스를 클릭합니다. **Performance** 탭에는 히트, 지연 시간, 요청, 오류 등에 대한 서비스 수준 그래프가 표시됩니다. [모니터](#create-a-monitor) 또는 [SLO](#create-an-slo)를 생성하거나 [Service Catalog][2]의 [대시보드](#access-a-defined-dashboard)를 통해 메트릭에 액세스할 수도 있습니다. +[**Infrastructure > Universal Service Monitoring**][8]으로 이동하여 Universal Service Monitoring 원격 측정 유형으로 필터링하고 서비스를 클릭하세요. **Performance** 탭에는 적중률, 지연 시간, 요청, 오류 등에 관한 서비스 수준 그래프가 표시됩니다. [모니터](#create-a-monitor) 또는 [SLO](#create-an-slo)를 생성하거나 [Software Catalog][2]에서 [대시보드](#access-a-defined-dashboard)를 확인할 때 이러한 메트릭에 액세스할 수도 있습니다. ### 모니터 생성 -[**APM 모니터**][8]를 생성하여 `universal.http.client`와 같은 USM 메트릭이 임계값을 초과하거나 예상 패턴에서 벗어날 때 알림을 트리거할 수 있습니다. +임계값을 넘거나 예상 패턴에서 벗어나는 `universal.http.client`와 같은 USM 메트릭이 있을 때 [**APM Monitor**][9]를 생성해 경고를 트리거할 수 있습니다. -1. **Monitors** > **New Monitor**로 이동하여 [**APM**][13]을 클릭합니다. -2. **APM Metrics**을 선택하고 서비스나 리소스의 `env` 및 기타 [기본 태그][14]를 정의합니다. 모니터링할 서비스 또는 리소스를 선택하고 모니터가 쿼리를 평가할 시간 간격을 정의합니다. +1. [**Monitors > New Monitor**][10]로 이동 후 [**APM**][9]을 클릭합니다. +2. **APM Metrics**를 선택하고 서비스 또는 리소스의 `env`, 기타 [기본 태그][11]를 정의합니다. 모니터링할 서비스 또는 리소스를 선택하고 모니터가 쿼리를 평가할 시간 간격을 정의합니다. 3. **Threshold Alert**를 선택하고 트리거할 모니터에 대해 `Requests per Second`와 같은 USM 메트릭을 선택합니다. 그런 다음 값이 알림 및 경고 임계값 **초과** 또는 **미만**이어야 하는지 정의합니다. 알림 임계값에 대한 값을 입력하고 필요시 경고 임계값에 대한 값도 입력합니다. 4. 알림 섹션에는 모니터에 대해 미리 채워진 메시지가 포함되어 있습니다. 알림 이름과 메시지를 사용자 정의하고 이 모니터에 대한 권한을 정의합니다. -5. **Create**를 클릭합니다. +5. **생성**을 클릭합니다. {{< img src="universal_service_monitoring/guide/usm_monitor.png" alt="BITSBOUTIQUE용 유니버설 서비스 모니터링 모니터" style="width:100%;" >}} -자세한 내용은 [APM 모니터 문서][6]를 참조하세요. +자세한 내용은 [APM Monitor 설명서][12]를 참고하세요. ### SLO 생성하기 -서비스별로 [**SLO**][10]를 생성하여 USM 메트릭이 설정한 목표를 충족하고 시간이 지남에 따라 가용성을 향상시킬 수 있습니다. Datadog은 많은 서비스를 처리하기 위해 [프로그래밍 방식의 SLO 생성][9]을 권장합니다. +USM 메트릭에 설정된 목표를 충족하고 시간이 지남에 따라 가용성을 개선하기 위해 서비스별로 [**SLO**][13]를 생성할 수 있습니다. Datadog은 다양한 서비스를 포괄하기 위해 [SLO를 프로그래밍 방식으로 생성][14]할 것을 권장합니다. -Service Catalog에서 SLO를 생성하려면: +Software Catalog에서 SLO를 생성하는 방법: -1. [Service Catalog][5]의 **Reliability** 탭으로 이동합니다. +1. [Software Catalog][8]의 **Reliability** 탭으로 이동합니다. 2. **SLOs** 열 아래에서 서비스 위로 마우스를 가져간 다음 **+ Create Availability SLO** 또는 **+ Create Latency SLO**를 클릭합니다. -{{< img src="universal_service_monitoring/guide/service_catalog_slo_setup.png" alt="BITSBOUTIQUE에 대한 유니버설 서비스 모니터링 SLO 설정" style="width:100%;" >}} +{{< img src="universal_service_monitoring/guide/software_catalog_slo_setup.png" alt="BITSBOUTIQUE에 관한 Universal Service Monitoring SLO 설정" style="width:100%;" >}} (선택 사항) USM 메트릭을 사용하여 수동으로 SLO를 생성하려면: -1. **Service Management** > **SLOs**로 이동하여 [**New SLO**][15]를 클릭합니다. +1. [**Service Management > SLOs**][15]로 이동 후 [**New SLO**][13]를 클릭합니다. 2. **Metric Based**를 선택하고 **Good events (numerator)** 섹션에 두 개의 쿼리를 만듭니다. * 쿼리 A: `universal.http.server`와 같은 USM 메트릭을 입력하고, `from` 필드에 기본 `service` 및 `env` 태그를 추가하여 특정 서비스로 필터링합니다. 그런 다음 `as` 필드에서 `count`를 선택합니다. @@ -102,33 +102,34 @@ Service Catalog에서 SLO를 생성하려면: {{< img src="universal_service_monitoring/guide/usm_slo_setup.png" alt="BITSBOUTIQUE에 대한 유니버설 서비스 모니터링 SLO 설정" style="width:100%;" >}} -자세한 내용은 [서비스 수준 목표 문서][10]를 참조하세요. +자세한 내용은 [Service Level Objectives 설명서][17]를 참고하세요. ### 정의된 대시보드에 액세스 -[Service Catalog][2]는 서비스 정의 파일에 정의된 대시보드를 식별하고 이를 **Dashboards** 탭에 나열합니다. GitHub에서 직접 서비스 정의에 액세스하고 편집하려면 **Manage Dashboards**를 클릭하세요. +[Software Catalog][2]는 서비스 정의 파일에 정의된 대시보드를 파악하고 **Dashboards** 탭에 목록을 표시합니다. **Manage Dashboards**를 클릭하면 GitHub에서 직접 서비스 정의에 액세스하고 편집할 수 있습니다. -{{< img src="universal_service_monitoring/guide/manage_dashboards.png" alt="Service Catalog에서 서비스의 Dashboards 탭에 있는 Manage Dashboards 버튼" style="width:90%;" >}} +{{< img src="universal_service_monitoring/guide/manage_dashboards.png" alt="Software Catalog 서비스의 Dashboards 탭에 있는 Manage Dashboards 버튼" style="width:90%;" >}} -자세한 내용은 [대시보드 문서][7]를 참조하세요. +자세한 내용은 [Dashboards 설명서][16]를 참고하세요. ## 참고 자료 {{< partial name="whats-next/whats-next.html" >}} [1]: /ko/universal_service_monitoring -[2]: /ko/tracing/service_catalog -[3]: /ko/service_management/service_level_objectives -[4]: /ko/tracing/metrics/metrics_namespace -[5]: https://app.datadoghq.com/services -[6]: /ko/monitors/create/types/apm -[7]: /ko/dashboards -[8]: https://app.datadoghq.com/monitors/create/apm -[9]: /ko/api/latest/service-level-objectives/ -[10]: https://app.datadoghq.com/slo/new -[11]: /ko/tracing/services/deployment_tracking/ -[12]: /ko/tracing/guide/ddsketch_trace_metrics/ -[13]: https://app.datadoghq.com/monitors/create/apm -[14]: /ko/metrics/advanced-filtering/ -[15]: https://app.datadoghq.com/slo/new -[16]: /ko/tracing/guide/setting_primary_tags_to_scope/?tab=helm#add-a-second-primary-tag-in-datadog \ No newline at end of file +[2]: /ko/tracing/software_catalog +[3]: /ko/tracing/services/deployment_tracking/ +[4]: /ko/service_management/service_level_objectives +[5]: /ko/tracing/guide/setting_primary_tags_to_scope/?tab=helm#add-a-second-primary-tag-in-datadog +[6]: /ko/tracing/metrics/metrics_namespace +[7]: /ko/tracing/guide/ddsketch_trace_metrics/ +[8]: https://app.datadoghq.com/services +[9]: https://app.datadoghq.com/monitors/create/apm +[10]: https://app.datadoghq.com/monitors/create +[11]: /ko/metrics/advanced-filtering/ +[12]: /ko/monitors/create/types/apm +[13]: https://app.datadoghq.com/slo/new +[14]: /ko/api/latest/service-level-objectives/ +[15]: https://app.datadoghq.com/slo/manage +[16]: /ko/dashboards +[17]: /ko/service_management/service_level_objectives/ \ No newline at end of file