diff --git a/src/content/docs/more-integrations/best-practices-integration.mdx b/src/content/docs/accounts/accounts-billing/new-relic-one-user-management/best-practices-integration.mdx similarity index 92% rename from src/content/docs/more-integrations/best-practices-integration.mdx rename to src/content/docs/accounts/accounts-billing/new-relic-one-user-management/best-practices-integration.mdx index 9407aeb6299..a3baf2be586 100644 --- a/src/content/docs/more-integrations/best-practices-integration.mdx +++ b/src/content/docs/accounts/accounts-billing/new-relic-one-user-management/best-practices-integration.mdx @@ -1,10 +1,12 @@ --- title: Best practices for integration users tags: - - Best practices - - Integrations -metaDescription: "Here are some best practices for controlling how you expose your New Relic data when you're using an integration." -freshnessValidatedDate: 2024-04-24 + - Best practices + - Integrations +metaDescription: Here are some best practices for controlling how you expose your New Relic data when you're using an integration. +freshnessValidatedDate: 2024-04-24T00:00:00.000Z +redirects: + - /docs/more-integrations/best-practices-integration --- As a New Relic administrator, you must operate your New Relic organization with the principle of least privilege. This principle is a security concept in which a user should only have access to the specific data, systems, and resources needed to complete a necessary task for the organization. By following this principle, you can reduce the risk of unauthorized access to sensitive data. This includes assigning permissions based on job roles and responsibilities. In a [New Relic organization](/docs/accounts/accounts-billing/account-structure/new-relic-account-structure/), account-based access allows you to control what information is available to the users in your organization. This ensures that sensitive data remains secure and only authorized personnel can view it. diff --git a/src/content/docs/alerts/create-alert/create-alert-condition/create-nrql-alert-conditions.mdx b/src/content/docs/alerts/create-alert/create-alert-condition/create-nrql-alert-conditions.mdx index 11830e0c365..c9365780eb7 100644 --- a/src/content/docs/alerts/create-alert/create-alert-condition/create-nrql-alert-conditions.mdx +++ b/src/content/docs/alerts/create-alert/create-alert-condition/create-nrql-alert-conditions.mdx @@ -14,6 +14,7 @@ redirects: - /docs/alerts/new-relic-alerts/configuring-alert-policies/create-alert-conditions-nrql-queries - /docs/alerts/new-relic-alerts/defining-conditions/create-alert-conditions-nrql-queries - /docs/alerts-applied-intelligence/new-relic-alerts/alert-conditions/create-nrql-alert-conditions + - /docs/alerts-applied-intelligence/new-relic-alerts/alert-conditions/queries-nrql_screenshot-full_nrql-alert-conditions/ freshnessValidatedDate: never --- diff --git a/src/content/docs/more-integrations/open-source-telemetry-integrations/dropwizard/dropwizard-reporter.mdx b/src/content/docs/apm/agents/java-agent/third-party-integrations/dropwizard/dropwizard-reporter.mdx similarity index 95% rename from src/content/docs/more-integrations/open-source-telemetry-integrations/dropwizard/dropwizard-reporter.mdx rename to src/content/docs/apm/agents/java-agent/third-party-integrations/dropwizard/dropwizard-reporter.mdx index 91b330bb8a9..04147a3277a 100644 --- a/src/content/docs/more-integrations/open-source-telemetry-integrations/dropwizard/dropwizard-reporter.mdx +++ b/src/content/docs/apm/agents/java-agent/third-party-integrations/dropwizard/dropwizard-reporter.mdx @@ -9,6 +9,7 @@ redirects: - /docs/integrations/open-source-telemetry-integrations/dropwizard/dropwizard-reporter - /docs/integrations/exporters/exporter-list/new-relics-dropwizard-integration - /docs/integrations/open-source-telemetry-integrations/open-source-telemetry-integration-list/new-relics-dropwizard-integration + - /docs/more-integrations/open-source-telemetry-integrations/dropwizard/dropwizard-reporter freshnessValidatedDate: never --- diff --git a/src/content/docs/more-integrations/open-source-telemetry-integrations/kamon/kamon-reporter.mdx b/src/content/docs/apm/agents/java-agent/third-party-integrations/kamon/kamon-reporter.mdx similarity index 97% rename from src/content/docs/more-integrations/open-source-telemetry-integrations/kamon/kamon-reporter.mdx rename to src/content/docs/apm/agents/java-agent/third-party-integrations/kamon/kamon-reporter.mdx index 4bf23c52986..81e1e3c2ecb 100644 --- a/src/content/docs/more-integrations/open-source-telemetry-integrations/kamon/kamon-reporter.mdx +++ b/src/content/docs/apm/agents/java-agent/third-party-integrations/kamon/kamon-reporter.mdx @@ -8,6 +8,7 @@ metaDescription: New Relic's Kamon reporter can send telemetry data from your Ka redirects: - /docs/integrations/open-source-telemetry-integrations/kamon/kamon-reporter - /docs/integrations/open-source-telemetry-integrations/open-source-telemetry-integration-list/kamon-reporter + - /docs/more-integrations/open-source-telemetry-integrations/kamon/kamon-reporter freshnessValidatedDate: never --- diff --git a/src/content/docs/more-integrations/open-source-telemetry-integrations/micrometer/micrometer-metrics-registry.mdx b/src/content/docs/apm/agents/java-agent/third-party-integrations/micrometer/micrometer-metrics-registry.mdx similarity index 94% rename from src/content/docs/more-integrations/open-source-telemetry-integrations/micrometer/micrometer-metrics-registry.mdx rename to src/content/docs/apm/agents/java-agent/third-party-integrations/micrometer/micrometer-metrics-registry.mdx index 0fdea8e1bf4..b3d04b09018 100644 --- a/src/content/docs/more-integrations/open-source-telemetry-integrations/micrometer/micrometer-metrics-registry.mdx +++ b/src/content/docs/apm/agents/java-agent/third-party-integrations/micrometer/micrometer-metrics-registry.mdx @@ -2,8 +2,9 @@ title: Forward Micrometer data to New Relic with OpenTelemetry metaDescription: New Relic offers an integration that sends your Micrometer telemetry data to your New Relic account. redirects: - - /docs/integrations/open-source-telemetry-integrations/micrometer/micrometer-metrics-registry - - /docs/integrations/open-source-telemetry-integrations/open-source-telemetry-integration-list/new-relics-micrometer-integration + - /docs/integrations/open-source-telemetry-integrations/micrometer/micrometer-metrics-registry + - /docs/integrations/open-source-telemetry-integrations/open-source-telemetry-integration-list/new-relics-micrometer-integration + - /docs/more-integrations/open-source-telemetry-integrations/micrometer/micrometer-metrics-registry freshnessValidatedDate: never --- diff --git a/src/content/docs/more-integrations/java-integrations/vertx-eventbus-integration.mdx b/src/content/docs/apm/agents/java-agent/third-party-integrations/vertx/vertx-eventbus-integration.mdx similarity index 97% rename from src/content/docs/more-integrations/java-integrations/vertx-eventbus-integration.mdx rename to src/content/docs/apm/agents/java-agent/third-party-integrations/vertx/vertx-eventbus-integration.mdx index 6388871fa64..04377b4502e 100644 --- a/src/content/docs/more-integrations/java-integrations/vertx-eventbus-integration.mdx +++ b/src/content/docs/apm/agents/java-agent/third-party-integrations/vertx/vertx-eventbus-integration.mdx @@ -11,6 +11,8 @@ tags: - expert services metaDescription: Provides instrumentation for monitoring the Vert.x Event Bus. freshnessValidatedDate: never +redirects: + - /docs/more-integrations/java-integrations/vertx-eventbus-integration --- [Java Vert.x Event Bus Integration](https://github.com/newrelic/newrelic-java-vertx/tree/main) provides instrumentation for monitoring the (Vert.x)[https://vertx.io/] Event Bus, enabling the tracking of event flow across the bus. Specifically designed for Vert.x Verticles that extend` AbstractVerticle`, this extension instruments each deployed class to monitor all methods except those specifically defined by `AbstractVerticle`. @@ -150,4 +152,4 @@ From [Java Vert.x Event Bus Integration Releases](https://github.com/newrelic/ne After configuring the Java Vert.x Event Bus Integration, you can visualize your application's Vert.x Event Bus transactions and traces directly within New Relic APM and Services. ## Reporting Integration Issues -If you encounter any issues with the Java Vert.x Event Bus Integration, please report them on the [GitHub repository](https://github.com/newrelic/newrelic-java-vertx/issues). Your feedback helps us identify and address issues promptly, ensuring a smooth and reliable monitoring experience for Vert.x applications. Thank you for contributing to the improvement of our integration. \ No newline at end of file +If you encounter any issues with the Java Vert.x Event Bus Integration, please report them on the [GitHub repository](https://github.com/newrelic/newrelic-java-vertx/issues). Your feedback helps us identify and address issues promptly, ensuring a smooth and reliable monitoring experience for Vert.x applications. Thank you for contributing to the improvement of our integration. diff --git a/src/content/docs/more-integrations/java-integrations/vertx-extensions-integration.mdx b/src/content/docs/apm/agents/java-agent/third-party-integrations/vertx/vertx-extensions-integration.mdx similarity index 96% rename from src/content/docs/more-integrations/java-integrations/vertx-extensions-integration.mdx rename to src/content/docs/apm/agents/java-agent/third-party-integrations/vertx/vertx-extensions-integration.mdx index 8a9f64bee24..09370e12a27 100644 --- a/src/content/docs/more-integrations/java-integrations/vertx-extensions-integration.mdx +++ b/src/content/docs/apm/agents/java-agent/third-party-integrations/vertx/vertx-extensions-integration.mdx @@ -22,9 +22,10 @@ tags: - reactive - coroutines - expert services -metaDescription: provides instrumentation for monitoring the Vert.x Cassandra, JDBCClient, Coroutines, Kafka, - RxJava, SQL Clients, Redis, MongoDB, Reactive and Service Proxy. +metaDescription: provides instrumentation for monitoring the Vert.x Cassandra, JDBCClient, Coroutines, Kafka, RxJava, SQL Clients, Redis, MongoDB, Reactive and Service Proxy. freshnessValidatedDate: never +redirects: + - /docs/more-integrations/java-integrations/vertx-extensions-integration --- [Java Instrumentation for Vert.x Extensions](https://github.com/newrelic/newrelic-java-vertx-extensions/tree/main) provides instrumentation for monitoring Vert.x Cassandra, JDBCClient, Coroutines, Kafka, RxJava, SQL Clients, Redis, MongoDB, Reactive and Service Proxy. @@ -153,4 +154,4 @@ Remove-Item -Path $tempExtractPath -Recurse -Force After configuring the Java Instrumentation for Vert.x Extensions, you can visualize your application's Vert.x extensions transactions and traces directly within New Relic APM and Services. ## Reporting Integration Issues -If you encounter any issues with the Java Instrumentation for Vert.x Extensions, please report them on the [GitHub repository](https://github.com/newrelic/newrelic-java-vertx-extensions/issues). Your feedback helps us identify and address issues promptly, ensuring a smooth and reliable monitoring experience for Vert.x applications. Thank you for contributing to the improvement of our integration! \ No newline at end of file +If you encounter any issues with the Java Instrumentation for Vert.x Extensions, please report them on the [GitHub repository](https://github.com/newrelic/newrelic-java-vertx-extensions/issues). Your feedback helps us identify and address issues promptly, ensuring a smooth and reliable monitoring experience for Vert.x applications. Thank you for contributing to the improvement of our integration! diff --git a/src/content/docs/apm/agents/nodejs-agent/getting-started/compatibility-requirements-nodejs-agent.mdx b/src/content/docs/apm/agents/nodejs-agent/getting-started/compatibility-requirements-nodejs-agent.mdx index 1437ebb4183..a2ba677e498 100644 --- a/src/content/docs/apm/agents/nodejs-agent/getting-started/compatibility-requirements-nodejs-agent.mdx +++ b/src/content/docs/apm/agents/nodejs-agent/getting-started/compatibility-requirements-nodejs-agent.mdx @@ -190,7 +190,7 @@ The following are proposed time ranges for EOL on older Node.js versions. The ac {/* begin: compat-table */} -## Instrumented modules +## Instrumented modules [#instrumented-modules] After installation, the agent automatically instruments with our catalog of supported Node.js libraries and frameworks. This gives you immediate access to diff --git a/src/content/docs/more-integrations/open-source-telemetry-integrations/wordpress/wordpress-fullstack-integration.mdx b/src/content/docs/apm/agents/php-agent/frameworks-libraries/wordpress-fullstack-integration.mdx similarity index 96% rename from src/content/docs/more-integrations/open-source-telemetry-integrations/wordpress/wordpress-fullstack-integration.mdx rename to src/content/docs/apm/agents/php-agent/frameworks-libraries/wordpress-fullstack-integration.mdx index 5bfbc0ec064..9fcf696262d 100644 --- a/src/content/docs/more-integrations/open-source-telemetry-integrations/wordpress/wordpress-fullstack-integration.mdx +++ b/src/content/docs/apm/agents/php-agent/frameworks-libraries/wordpress-fullstack-integration.mdx @@ -1,12 +1,13 @@ --- -title: WordPress Full Stack integration +title: WordPress full stack integration tags: - - New Relic integrations - - WordPress Full Stack integration + - New Relic integrations + - WordPress full stack integration metaDescription: Use New Relic browser monitoring to get a dashboard with metrics from your Wordpress. -redirects: +redirects: - /docs/infrastructure/host-integrations/host-integrations-list/wordpress-fullstack-integration -freshnessValidatedDate: 2023-06-28 + - /docs/more-integrations/open-source-telemetry-integrations/wordpress/wordpress-fullstack-integration +freshnessValidatedDate: 2023-06-28T00:00:00.000Z --- import infrastructureWordPressIntegrationDashboard from 'images/infrastructure_screenshot-full_wordpress-dashboard.webp' diff --git a/src/content/docs/more-integrations/open-source-telemetry-integrations/elixir/elixir-open-source-agent.mdx b/src/content/docs/apm/experimental-agents/elixir/elixir-open-source-agent.mdx similarity index 89% rename from src/content/docs/more-integrations/open-source-telemetry-integrations/elixir/elixir-open-source-agent.mdx rename to src/content/docs/apm/experimental-agents/elixir/elixir-open-source-agent.mdx index 15b42940e67..cc92726075b 100644 --- a/src/content/docs/more-integrations/open-source-telemetry-integrations/elixir/elixir-open-source-agent.mdx +++ b/src/content/docs/apm/experimental-agents/elixir/elixir-open-source-agent.mdx @@ -10,10 +10,11 @@ redirects: - /docs/introduction-new-relic-elixir - /docs/elixir-open-source-agent - /docs/agents/open-source-licensed-agents/elixir-open-source-agent/ + - /docs/more-integrations/open-source-telemetry-integrations/elixir/elixir-open-source-agent freshnessValidatedDate: never --- -Monitor [Elixir](https://github.com/newrelic/elixir_agent) behavior with New Relic using the Elixir open-source agent. The agent: +Monitor [Elixir](https://github.com/newrelic/elixir_agent) behavior with New Relic using the Elixir open-source agent. This experimental agent: * Helps you track transactions, distributed traces, and other parts of your application’s behavior * Provides an overview of underlying [BEAM](http://erlang.org/faq/implementations.html#idp32950544) activity diff --git a/src/content/docs/more-integrations/open-source-telemetry-integrations/dojo/dojo-io-integration.mdx b/src/content/docs/browser/browser-integrations/dojo-io-integration.mdx similarity index 90% rename from src/content/docs/more-integrations/open-source-telemetry-integrations/dojo/dojo-io-integration.mdx rename to src/content/docs/browser/browser-integrations/dojo-io-integration.mdx index c26b29fb122..c2e3e341e55 100644 --- a/src/content/docs/more-integrations/open-source-telemetry-integrations/dojo/dojo-io-integration.mdx +++ b/src/content/docs/browser/browser-integrations/dojo-io-integration.mdx @@ -1,12 +1,13 @@ --- title: Dojo.io integration tags: - - dojo.io integration - - dojo integration - - new relic integrations -metaDescription: "The New Relic Dojo.io integration sends performance metrics and inventory data from your Dojo.io framework to the New Relic platform." -redirects: + - dojo.io integration + - dojo integration + - new relic integrations +metaDescription: The New Relic Dojo.io integration sends performance metrics and inventory data from your Dojo.io framework to the New Relic platform. +redirects: - /docs/infrastructure/host-integrations/host-integrations-list/dojo-io-integration + - /docs/more-integrations/open-source-telemetry-integrations/dojo/dojo-io-integration freshnessValidatedDate: never --- import dojodashboard from 'images/infrastructure_screenshot-crop_dojo-dashboard.webp' diff --git a/src/content/docs/iast/troubleshooting.mdx b/src/content/docs/iast/troubleshooting.mdx index cd55ba457e4..2bfffc9c712 100644 --- a/src/content/docs/iast/troubleshooting.mdx +++ b/src/content/docs/iast/troubleshooting.mdx @@ -17,7 +17,7 @@ If you don't find your problem listed here, you can always reach out to [New Rel id="iast-results" title="Where do I find IAST results?" > - Go to **[one.newrelic.com](https://one.newrelic.com) > All capabilities > IAST > Tests & Applications**. Click on an application to check the application testing efficiency, vulnerabilities, APIs covered, and methods calls, amongst other data. + Go to **[one.newrelic.com](https://one.newrelic.com) > All capabilities > IAST > Tests**. Click on an application to check the application testing efficiency, vulnerabilities, APIs covered, and methods calls, amongst other data. @@ -38,9 +38,9 @@ If you don't find your problem listed here, you can always reach out to [New Rel If you can see your application in the New Relic UI and the security agent successfully started IAST, but you don't see vulnerabilities in the UI, check the following: - - The level of efficiency for your application: Go to **[one.newrelic.com](https://one.newrelic.com) > All capabilities > IAST > Tests & Applications**. Search for your application and check the summary section. If IAST coverage is low for your application, add additional test cases to your application to get a higher level of testing efficiency. + - The level of efficiency for your application: Go to **[one.newrelic.com](https://one.newrelic.com) > All capabilities > IAST > Tests**. Search for your application and check the summary section. If IAST coverage is low for your application, add additional test cases to your application to get a higher level of testing efficiency. - - The IAST coverage: Go to **[one.newrelic.com](https://one.newrelic.com) > All capabilities > IAST > Tests & Applications**. Search for your application and click on it. Under the summary section, check if IAST analysis coverage is high and no vulnerabilities are detected, that means your application is secure. + - The IAST coverage: Go to **[one.newrelic.com](https://one.newrelic.com) > All capabilities > IAST > Tests**. Search for your application and click on it. Under the summary section, check if IAST analysis coverage is high and no vulnerabilities are detected, that means your application is secure. - Your application's framework or vulnerability category is not supported. @@ -52,7 +52,7 @@ If you don't find your problem listed here, you can always reach out to [New Rel id="see-my-application" title="I don't see my application in IAST" > - If you don't see your application in **[one.newrelic.com](https://one.newrelic.com) > All capabilities > IAST > Tests & Applications**, check the following: + If you don't see your application in **[one.newrelic.com](https://one.newrelic.com) > All capabilities > IAST > Tests**, check the following: - Your application is up and running: Check the application process or the [APM & Services page](/docs/alerts-applied-intelligence/new-relic-alerts/advanced-alerts/advanced-techniques/view-events-their-products#products). - The application's logs to find out if there's a problem. @@ -60,7 +60,8 @@ If you don't find your problem listed here, you can always reach out to [New Rel - The `newrelic.yml` config file includes the modification of the parameters as indicated on the [install page](/docs/iast/install). - Go to the `nr-security-home/logs` directory and find the `[SETP-8]` line in the `LANGUAGE-security-collector-init.log` file. Check if there is an unexpected error and know what failed. - The application has traffic. Generate some traffic to allow IAST to test your application. - - The TLS Certificate is correct. + - Proxy or Firewall blocking access. Whitelist the following IPs `3.134.136.130, 18.219.177.104, 18.117.21.106` for the domain **csec.nr-data.net**, the following IPs `3.130.22.102, 3.138.243.136, 3.139.218.150` for the domain **csec-gov.nr-data.net** and the following IPs `18.185.235.118, 3.125.193.113, 3.75.166.122` for the domain **csec.eu01.nr-data.net**. But our recommendation is to add domains in the whitelist instead of the IPs as these IPs are bound to change anytime. + - The TLS Certificate is correct. Add Let's Encrypt CA certificate (download from [Let's Encrypt Certificates](https://letsencrypt.org/certificates/#root-certificates)) to your local trust store. Include both the root certificates and the intermediate ones (ISRG Root X1 & Let's Encrypt R3) to establish the complete chain of trust. - Your application's framework or vulnerability category is supported. @@ -78,7 +79,7 @@ If you don't find your problem listed here, you can always reach out to [New Rel When the security agent is working correctly: - - You see your application in **[one.newrelic.com](https://one.newrelic.com) > All capabilities > IAST > Tests & Applications**. The application is started and there is traffic generated. + - You see your application in **[one.newrelic.com](https://one.newrelic.com) > All capabilities > IAST > Tests**. The application is started and there is traffic generated. - In the `nr-security-home/logs` directory, search for the `LANGUAGE-security-collector-init.log` file. Replace `LANGUAGE` in the filename with the one you are using. Search for these steps to see where the problem is: - [STEP-1]: The security agent is starting. - [STEP-2]: The security agent generates a unique identifier. For web socket connection, you'll see Node auth headers. @@ -107,7 +108,7 @@ If you don't find your problem listed here, you can always reach out to [New Rel You can check if IAST is working, even if you're seeing your application in the IAST UI and the security agent started successfully. Follow these steps for checking it: - 1. Go to **[one.newrelic.com](https://one.newrelic.com) > All capabilities > IAST > Tests & Applications**. + 1. Go to **[one.newrelic.com](https://one.newrelic.com) > All capabilities > IAST > Tests**. 2. Search for your application in the **Application tests** tab and click on it. @@ -187,7 +188,7 @@ If you don't find your problem listed here, you can always reach out to [New Rel Update the status of your vulnerability if you think IAST has reported a false positive. Follow these steps: - - Search your application: Go to **[one.newrelic.com](https://one.newrelic.com) > All capabilities > IAST > Tests & Applications**. + - Search your application: Go to **[one.newrelic.com](https://one.newrelic.com) > All capabilities > IAST > Tests**. - Click on the all applications tab and select the vulnerability that is not an actual vulnerability. @@ -229,7 +230,7 @@ If you don't find your problem listed here, you can always reach out to [New Rel ``` - You can skip this step if you're on a linux environment. + You can skip this step if you're on a Linux environment. - For a specific case of **Outbound HTTP Request** or calls to external services, you need to [update your application method](/docs/apm/agents/go-agent/instrumentation/instrument-go-segments/#go-external-segments). diff --git a/src/content/docs/more-integrations/terraform/terraform-intro.mdx b/src/content/docs/infrastructure-as-code/terraform/terraform-intro.mdx similarity index 98% rename from src/content/docs/more-integrations/terraform/terraform-intro.mdx rename to src/content/docs/infrastructure-as-code/terraform/terraform-intro.mdx index 43ab7204043..18e267f5d5b 100644 --- a/src/content/docs/more-integrations/terraform/terraform-intro.mdx +++ b/src/content/docs/infrastructure-as-code/terraform/terraform-intro.mdx @@ -1,7 +1,9 @@ --- -title: 'Getting started with New Relic and Terraform' -metaDescription: 'Learn how to provision New Relic resources using [Terraform](https://www.terraform.io/).' +title: Getting started with New Relic and Terraform +metaDescription: Learn how to provision New Relic resources using [Terraform](https://www.terraform.io/). freshnessValidatedDate: never +redirects: + - /docs/more-integrations/terraform/terraform-intro --- [Terraform](https://www.terraform.io/) is a popular infrastructure-as-code software tool built by HashiCorp. You use it to provision all kinds of infrastructure and services, including New Relic and alerts. diff --git a/src/content/docs/more-integrations/terraform/terraform-modules.mdx b/src/content/docs/infrastructure-as-code/terraform/terraform-modules.mdx similarity index 97% rename from src/content/docs/more-integrations/terraform/terraform-modules.mdx rename to src/content/docs/infrastructure-as-code/terraform/terraform-modules.mdx index 9edaababa45..afc5c090462 100644 --- a/src/content/docs/more-integrations/terraform/terraform-modules.mdx +++ b/src/content/docs/infrastructure-as-code/terraform/terraform-modules.mdx @@ -1,8 +1,10 @@ --- -title: 'Using Terraform Modules and Remote Storage' -template: 'GuideTemplate' -metaDescription: 'Learn how to use [Terraform](https://www.terraform.io/) modules in your configurations and store them remotely.' +title: Using Terraform Modules and Remote Storage +template: GuideTemplate +metaDescription: Learn how to use [Terraform](https://www.terraform.io/) modules in your configurations and store them remotely. freshnessValidatedDate: never +redirects: + - /docs/more-integrations/terraform/terraform-modules --- [Terraform](https://www.terraform.io/) is a popular infrastructure-as-code software tool built by HashiCorp. You use it to provision all kinds of infrastructure and services, including New Relic dashboards and alerts. diff --git a/src/content/docs/more-integrations/terraform/terragrunt.mdx b/src/content/docs/infrastructure-as-code/terraform/terragrunt.mdx similarity index 98% rename from src/content/docs/more-integrations/terraform/terragrunt.mdx rename to src/content/docs/infrastructure-as-code/terraform/terragrunt.mdx index 3b630bbbf5c..9bc923c81d5 100644 --- a/src/content/docs/more-integrations/terraform/terragrunt.mdx +++ b/src/content/docs/infrastructure-as-code/terraform/terragrunt.mdx @@ -1,9 +1,11 @@ --- -title: 'Using Terragrunt to Manage Multiple Environments' -metaDescription: 'Learn how to use [Terragrunt](https://www.terraform.io/) to manage configurations in multiple environments' +title: Using Terragrunt to Manage Multiple Environments +metaDescription: Learn how to use [Terragrunt](https://www.terraform.io/) to manage configurations in multiple environments translate: - kr freshnessValidatedDate: never +redirects: + - /docs/more-integrations/terraform/terragrunt --- [Terraform](https://www.terraform.io/) is a popular infrastructure-as-code software tool built by HashiCorp. You use it to provision all kinds of infrastructure and services, including New Relic and alerts. diff --git a/src/content/docs/more-integrations/open-source-telemetry-integrations/atlassian/atlassian-integration.mdx b/src/content/docs/infrastructure/host-integrations/host-integrations-list/atlassian-integration.mdx similarity index 95% rename from src/content/docs/more-integrations/open-source-telemetry-integrations/atlassian/atlassian-integration.mdx rename to src/content/docs/infrastructure/host-integrations/host-integrations-list/atlassian-integration.mdx index 8cf785876ea..185a25bd4af 100644 --- a/src/content/docs/more-integrations/open-source-telemetry-integrations/atlassian/atlassian-integration.mdx +++ b/src/content/docs/infrastructure/host-integrations/host-integrations-list/atlassian-integration.mdx @@ -1,13 +1,15 @@ --- title: Atlassian Jira integration tags: - - Integrations - - Open source telemetry integrations - - OpenTelemetry - - Atlassian - - Quickstart -metaDescription: "Monitor Atlassian with New Relic." -freshnessValidatedDate: 2024-04-24 + - Integrations + - Open source telemetry integrations + - OpenTelemetry + - Atlassian + - Quickstart +metaDescription: Monitor Atlassian with New Relic. +freshnessValidatedDate: 2024-04-24T00:00:00.000Z +redirects: + - /docs/more-integrations/open-source-telemetry-integrations/atlassian/atlassian-integration --- import opentelemetryAtlassianNRapiToken from 'images/opentelemetry_screenshot-crop_connect-nr-jira.webp' diff --git a/src/content/docs/more-integrations/cloudfoundry-integrations/vmware-tanzu-dotnet-buildpack-integration.mdx b/src/content/docs/infrastructure/host-integrations/host-integrations-list/cloudfoundry-integrations/vmware-tanzu-dotnet-buildpack-integration.mdx similarity index 98% rename from src/content/docs/more-integrations/cloudfoundry-integrations/vmware-tanzu-dotnet-buildpack-integration.mdx rename to src/content/docs/infrastructure/host-integrations/host-integrations-list/cloudfoundry-integrations/vmware-tanzu-dotnet-buildpack-integration.mdx index f1f06cbd6c4..d9b5b40be0f 100644 --- a/src/content/docs/more-integrations/cloudfoundry-integrations/vmware-tanzu-dotnet-buildpack-integration.mdx +++ b/src/content/docs/infrastructure/host-integrations/host-integrations-list/cloudfoundry-integrations/vmware-tanzu-dotnet-buildpack-integration.mdx @@ -6,6 +6,8 @@ tags: - Tanzu metaDescription: Use our integration to gain increased visibility into the performance of your VMware Tanzu environment. freshnessValidatedDate: never +redirects: + - /docs/more-integrations/cloudfoundry-integrations/vmware-tanzu-dotnet-buildpack-integration --- import infrastructureVmwareTanzuDashboard from 'images/infrastructure_screenshot-crop_vmware-tanzu-dashboard.webp' diff --git a/src/content/docs/more-integrations/cloudfoundry-integrations/vmware-tanzu-firehose-nozzle-integration.mdx b/src/content/docs/infrastructure/host-integrations/host-integrations-list/cloudfoundry-integrations/vmware-tanzu-firehose-nozzle-integration.mdx similarity index 97% rename from src/content/docs/more-integrations/cloudfoundry-integrations/vmware-tanzu-firehose-nozzle-integration.mdx rename to src/content/docs/infrastructure/host-integrations/host-integrations-list/cloudfoundry-integrations/vmware-tanzu-firehose-nozzle-integration.mdx index 078ecec2ac9..161e50e0602 100644 --- a/src/content/docs/more-integrations/cloudfoundry-integrations/vmware-tanzu-firehose-nozzle-integration.mdx +++ b/src/content/docs/infrastructure/host-integrations/host-integrations-list/cloudfoundry-integrations/vmware-tanzu-firehose-nozzle-integration.mdx @@ -6,10 +6,11 @@ tags: - Tanzu metaDescription: Use our integration to gain increased visibility into the performance of your VMware Tanzu environment. dataSource: vmware-tanzu -freshnessValidatedDate: 2023-11-13 +freshnessValidatedDate: 2023-11-13T00:00:00.000Z redirects: - /docs/infrastructure/host-integrations/host-integrations-list/vmware-tanzu-monitoring - /docs/cloudfoundry/vmware-tanzu/vmware-tanzu-firehose-nozzle-integration + - /docs/more-integrations/cloudfoundry-integrations/vmware-tanzu-firehose-nozzle-integration --- import infrastructureVmwareTanzuDashboard from 'images/infrastructure_screenshot-crop_vmware-tanzu-dashboard.webp' diff --git a/src/content/docs/more-integrations/cloudfoundry-integrations/vmware-tanzu-service-broker-integration.mdx b/src/content/docs/infrastructure/host-integrations/host-integrations-list/cloudfoundry-integrations/vmware-tanzu-service-broker-integration.mdx similarity index 99% rename from src/content/docs/more-integrations/cloudfoundry-integrations/vmware-tanzu-service-broker-integration.mdx rename to src/content/docs/infrastructure/host-integrations/host-integrations-list/cloudfoundry-integrations/vmware-tanzu-service-broker-integration.mdx index 52640bce5d3..b8f9713fb3b 100644 --- a/src/content/docs/more-integrations/cloudfoundry-integrations/vmware-tanzu-service-broker-integration.mdx +++ b/src/content/docs/infrastructure/host-integrations/host-integrations-list/cloudfoundry-integrations/vmware-tanzu-service-broker-integration.mdx @@ -6,6 +6,8 @@ tags: - Tanzu metaDescription: Use our integration to gain increased visibility into the performance of your VMware Tanzu environment. freshnessValidatedDate: never +redirects: + - /docs/more-integrations/cloudfoundry-integrations/vmware-tanzu-service-broker-integration --- import infrastructureVmwareTanzuImport from 'images/vmware-service-broker-import.webp' diff --git a/src/content/docs/more-integrations/open-source-telemetry-integrations/lampy/lampy-integration.mdx b/src/content/docs/infrastructure/host-integrations/host-integrations-list/lampy-integration.mdx similarity index 96% rename from src/content/docs/more-integrations/open-source-telemetry-integrations/lampy/lampy-integration.mdx rename to src/content/docs/infrastructure/host-integrations/host-integrations-list/lampy-integration.mdx index 9c49216245c..9220e88a950 100644 --- a/src/content/docs/more-integrations/open-source-telemetry-integrations/lampy/lampy-integration.mdx +++ b/src/content/docs/infrastructure/host-integrations/host-integrations-list/lampy-integration.mdx @@ -1,15 +1,16 @@ --- title: LAMPy stack monitoring integration tags: - - New Relic integrations - - LAMPy - - Linux - - Apache - - Python - - MySQL + - New Relic integrations + - LAMPy + - Linux + - Apache + - Python + - MySQL metaDescription: Use New Relic Linux, Apache, Python and MySQL monitoring to get a dashboard with metrics from your LAMPy application. -redirects: +redirects: - /docs/infrastructure/host-integrations/host-integrations-list/lampy-integration + - /docs/more-integrations/open-source-telemetry-integrations/lampy/lampy-integration freshnessValidatedDate: never --- diff --git a/src/content/docs/more-integrations/open-source-telemetry-integrations/airflow/monitoring-airflow-ot.mdx b/src/content/docs/infrastructure/host-integrations/host-integrations-list/monitoring-airflow-ot.mdx similarity index 98% rename from src/content/docs/more-integrations/open-source-telemetry-integrations/airflow/monitoring-airflow-ot.mdx rename to src/content/docs/infrastructure/host-integrations/host-integrations-list/monitoring-airflow-ot.mdx index 768a448f23b..13f7c92f535 100644 --- a/src/content/docs/more-integrations/open-source-telemetry-integrations/airflow/monitoring-airflow-ot.mdx +++ b/src/content/docs/infrastructure/host-integrations/host-integrations-list/monitoring-airflow-ot.mdx @@ -9,7 +9,8 @@ tags: metaDescription: Monitor Airflow data with New Relic using OpenTelemetry. redirects: - /docs/more-integrations/open-source-telemetry-integrations/opentelemetry/airflow/monitoring-airflow-ot -freshnessValidatedDate: 2023-11-16 + - /docs/more-integrations/open-source-telemetry-integrations/airflow/monitoring-airflow-ot +freshnessValidatedDate: 2023-11-16T00:00:00.000Z --- import opentelemetryAirflow01 from 'images/opentelemetry_screenshot_airflow_01.webp' diff --git a/src/content/docs/more-integrations/open-source-telemetry-integrations/jenkins/monitoring-jenkins-ot.mdx b/src/content/docs/infrastructure/host-integrations/host-integrations-list/monitoring-jenkins-ot.mdx similarity index 97% rename from src/content/docs/more-integrations/open-source-telemetry-integrations/jenkins/monitoring-jenkins-ot.mdx rename to src/content/docs/infrastructure/host-integrations/host-integrations-list/monitoring-jenkins-ot.mdx index 557e85016a1..db23464b83f 100644 --- a/src/content/docs/more-integrations/open-source-telemetry-integrations/jenkins/monitoring-jenkins-ot.mdx +++ b/src/content/docs/infrastructure/host-integrations/host-integrations-list/monitoring-jenkins-ot.mdx @@ -1,5 +1,5 @@ --- -title: Monitor Jenkins with OpenTelemetry and New Relic +title: Monitor Jenkins with OpenTelemetry and New Relic tags: - Integrations - Open source telemetry integrations @@ -9,6 +9,7 @@ tags: metaDescription: Here is a simple example to setup the Jenkins OpenTelemetry plugin to send data to New Relic. redirects: - /docs/more-integrations/open-source-telemetry-integrations/opentelemetry/jenkins/monitoring-jenkins-ot + - /docs/more-integrations/open-source-telemetry-integrations/jenkins/monitoring-jenkins-ot freshnessValidatedDate: never --- diff --git a/src/content/docs/more-integrations/open-source-telemetry-integrations/statsd/statsd-monitoring-integration.mdx b/src/content/docs/infrastructure/host-integrations/host-integrations-list/statsd-monitoring-integration.mdx similarity index 99% rename from src/content/docs/more-integrations/open-source-telemetry-integrations/statsd/statsd-monitoring-integration.mdx rename to src/content/docs/infrastructure/host-integrations/host-integrations-list/statsd-monitoring-integration.mdx index d868a46d14f..8b046bd06c3 100644 --- a/src/content/docs/more-integrations/open-source-telemetry-integrations/statsd/statsd-monitoring-integration.mdx +++ b/src/content/docs/infrastructure/host-integrations/host-integrations-list/statsd-monitoring-integration.mdx @@ -1,5 +1,5 @@ --- -title: 'StatsD monitoring integration' +title: StatsD monitoring integration tags: - Integrations - On-host integrations @@ -13,6 +13,7 @@ redirects: - /docs/infrastructure/host-integrations/host-integrations-list/statsd-monitoring-integration - /docs/integrations/host-integrations/host-integrations-list/statsd-monitoring-integration - /docs/infrastructure/host-integrations/host-integrations-list/statsd-monitoring-integration-version-2 + - /docs/more-integrations/open-source-telemetry-integrations/statsd/statsd-monitoring-integration freshnessValidatedDate: never --- diff --git a/src/content/docs/infrastructure/install-infrastructure-agent/get-started/requirements-infrastructure-agent.mdx b/src/content/docs/infrastructure/install-infrastructure-agent/get-started/requirements-infrastructure-agent.mdx index af9ef69d903..fc3acb1144d 100644 --- a/src/content/docs/infrastructure/install-infrastructure-agent/get-started/requirements-infrastructure-agent.mdx +++ b/src/content/docs/infrastructure/install-infrastructure-agent/get-started/requirements-infrastructure-agent.mdx @@ -58,7 +58,7 @@ The infrastructure agent supports these processor architectures: * **ARM**: arm64 architecture including [AWS Graviton 2 processor](https://aws.amazon.com/ec2/graviton/) is supported on compatible Linux operating sytems. On-host integrations are also supported (with the exception of the Oracle integration). * **macOS**: both 64-bit x86 and Apple silicon. -## Operating systems +## Operating systems [#os] The infrastructure agent supports these operating systems up to their manufacturer's end-of-life. diff --git a/src/content/docs/more-integrations/open-source-telemetry-integrations/roku/roku-open-source-video-agent.mdx b/src/content/docs/more-integrations/open-source-telemetry-integrations/roku/roku-open-source-video-agent.mdx deleted file mode 100644 index a61e02b5439..00000000000 --- a/src/content/docs/more-integrations/open-source-telemetry-integrations/roku/roku-open-source-video-agent.mdx +++ /dev/null @@ -1,25 +0,0 @@ ---- -title: Roku open-source agent -tags: - - Agents - - Open-source licensed agents - - Open-source licensed agents -metaDescription: A brief introduction to New Relic's open-source Roku video agent. -redirects: - - /docs/integrations/open-source-telemetry-integrations/roku/roku-open-source-video-agent - - /docs/agents/open-source-licensed-agents/ruby-open-source-video-agent -freshnessValidatedDate: never ---- - -Monitor Roku behavior with New Relic using the [Roku open-source agent](https://github.com/newrelic/video-agent-roku). The agent contains two parts, to capture two separate categories of Roku behavior: - -* App events like app starts and HTTP requests -* Video playback within the app - - - This agent is released as open source on GitHub. A change log is also available there for the latest updates. - - -## Get started [#get_started] - -For requirements, installation, and configuration information, see the [Open-source Roku agent README](https://github.com/newrelic/video-agent-roku/blob/master/README.md) on GitHub. diff --git a/src/content/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-best-practices-logs.mdx b/src/content/docs/opentelemetry/best-practices/opentelemetry-best-practices-logs.mdx similarity index 96% rename from src/content/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-best-practices-logs.mdx rename to src/content/docs/opentelemetry/best-practices/opentelemetry-best-practices-logs.mdx index 9444e917252..e8b20beba96 100644 --- a/src/content/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-best-practices-logs.mdx +++ b/src/content/docs/opentelemetry/best-practices/opentelemetry-best-practices-logs.mdx @@ -8,9 +8,10 @@ tags: translate: - kr metaDescription: Details on how New Relic works with OpenTelemetry logs -freshnessValidatedDate: 2024-05-17 +freshnessValidatedDate: 2024-05-17T00:00:00.000Z redirects: - - /docs/more-integrations/open-source-telemetry-integrations/opentelemetry/view-your-data/opentelemetry-logs-page + - /docs/more-integrations/open-source-telemetry-integrations/opentelemetry/view-your-data/opentelemetry-logs-page + - /docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-best-practices-logs --- This documentation focuses on how New Relic processes OpenTelemetry logs received through its dedicated OTLP endpoint. diff --git a/src/content/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-best-practices-metrics.mdx b/src/content/docs/opentelemetry/best-practices/opentelemetry-best-practices-metrics.mdx similarity index 98% rename from src/content/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-best-practices-metrics.mdx rename to src/content/docs/opentelemetry/best-practices/opentelemetry-best-practices-metrics.mdx index 5cbafba6c58..ae067d0b0d9 100644 --- a/src/content/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-best-practices-metrics.mdx +++ b/src/content/docs/opentelemetry/best-practices/opentelemetry-best-practices-metrics.mdx @@ -1,14 +1,15 @@ --- -title: 'OpenTelemetry metrics in New Relic' +title: OpenTelemetry metrics in New Relic tags: - Integrations - Open source telemetry integrations - OpenTelemetry metaDescription: Details on how New Relic works with OpenTelemetry metrics -freshnessValidatedDate: 2024-05-23 +freshnessValidatedDate: 2024-05-23T00:00:00.000Z redirects: - /docs/more-integrations/open-source-telemetry-integrations/opentelemetry/get-started/cumulative-metrics-transition-guide/ - /docs/more-integrations/open-source-telemetry-integrations/opentelemetry/cumulative-metrics-transition-guide/ + - /docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-best-practices-metrics --- OpenTelemetry provides a dimensional metrics [data model](https://opentelemetry.io/docs/specs/otel/metrics/data-model/), an [API](https://opentelemetry.io/docs/specs/otel/metrics/api/) for recording metric telemetry, and an [SDK](https://opentelemetry.io/docs/specs/otel/metrics/sdk/) for aggregating and exporting metric data. diff --git a/src/content/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-best-practices-resources.mdx b/src/content/docs/opentelemetry/best-practices/opentelemetry-best-practices-resources.mdx similarity index 98% rename from src/content/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-best-practices-resources.mdx rename to src/content/docs/opentelemetry/best-practices/opentelemetry-best-practices-resources.mdx index d320a7aede1..e6418c8f3c8 100644 --- a/src/content/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-best-practices-resources.mdx +++ b/src/content/docs/opentelemetry/best-practices/opentelemetry-best-practices-resources.mdx @@ -4,8 +4,10 @@ tags: - Integrations - Open source telemetry integrations - OpenTelemetry -metaDescription: Details on how New Relic works with OpenTelemetry resources +metaDescription: Details on how New Relic works with OpenTelemetry resources freshnessValidatedDate: 2024-05-08 +redirects: + - /docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-best-practices-resources --- All data from OpenTelemetry is associated with a [resource](https://opentelemetry.io/docs/concepts/resources). diff --git a/src/content/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-best-practices-traces.mdx b/src/content/docs/opentelemetry/best-practices/opentelemetry-best-practices-traces.mdx similarity index 95% rename from src/content/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-best-practices-traces.mdx rename to src/content/docs/opentelemetry/best-practices/opentelemetry-best-practices-traces.mdx index 5b1e05f5344..ba644e9fbce 100644 --- a/src/content/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-best-practices-traces.mdx +++ b/src/content/docs/opentelemetry/best-practices/opentelemetry-best-practices-traces.mdx @@ -1,11 +1,13 @@ --- -title: 'OpenTelemetry traces in New Relic' +title: OpenTelemetry traces in New Relic tags: - Integrations - Open source telemetry integrations - OpenTelemetry metaDescription: Details on how New Relic works with OpenTelemetry traces -freshnessValidatedDate: 2024-05-23 +freshnessValidatedDate: 2024-05-23T00:00:00.000Z +redirects: + - /docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-best-practices-traces --- OpenTelemetry provides a rich tracing ecosystem, with an [API](https://opentelemetry.io/docs/specs/otel/trace/api/) for recording trace telemetry, an [SDK](https://opentelemetry.io/docs/specs/otel/trace/sdk/) for exporting span data, and [context propagation](https://opentelemetry.io/docs/specs/otel/context/api-propagators/) for tracing across application boundaries. diff --git a/src/content/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-data-overview.mdx b/src/content/docs/opentelemetry/best-practices/opentelemetry-data-overview.mdx similarity index 85% rename from src/content/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-data-overview.mdx rename to src/content/docs/opentelemetry/best-practices/opentelemetry-data-overview.mdx index b4b3e06436e..ca22bd5513a 100644 --- a/src/content/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-data-overview.mdx +++ b/src/content/docs/opentelemetry/best-practices/opentelemetry-data-overview.mdx @@ -6,10 +6,11 @@ tags: - OpenTelemetry - OTLP metaDescription: Overview of OpenTelemetry data in New RElic -freshnessValidatedDate: 2024-05-31 +freshnessValidatedDate: 2024-05-31T00:00:00.000Z redirects: - - /docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-best-practices-alerts/ - - /docs/more-integrations/open-source-telemetry-integrations/opentelemetry/view-your-data/opentelemetry-data-explorer-query-builder/ + - /docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-best-practices-alerts/ + - /docs/more-integrations/open-source-telemetry-integrations/opentelemetry/view-your-data/opentelemetry-data-explorer-query-builder/ + - /docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-data-overview --- OpenTelemetry has a rich ecosystem of instrumentation and tooling which can be integrated with New Relic via [OTLP](https://opentelemetry.io/docs/specs/otlp/). This documentation describes how New Relic receives, processes, and ingests OTLP data. See [Get started with OpenTelemetry and New Relic](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/get-started/opentelemetry-get-started-intro/) for information on common integration patterns. diff --git a/src/content/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-otlp-troubleshooting.mdx b/src/content/docs/opentelemetry/best-practices/opentelemetry-otlp-troubleshooting.mdx similarity index 98% rename from src/content/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-otlp-troubleshooting.mdx rename to src/content/docs/opentelemetry/best-practices/opentelemetry-otlp-troubleshooting.mdx index 3f19a8e98f1..3863decd1d2 100644 --- a/src/content/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-otlp-troubleshooting.mdx +++ b/src/content/docs/opentelemetry/best-practices/opentelemetry-otlp-troubleshooting.mdx @@ -7,9 +7,10 @@ tags: - OTLP - Troubleshoot metaDescription: Troubleshoot common OTLP ingest errors -freshnessValidatedDate: 2024-05-06 +freshnessValidatedDate: 2024-05-06T00:00:00.000Z redirects: - - /docs/more-integrations/open-source-telemetry-integrations/opentelemetry/opentelemetry-troubleshooting/ + - /docs/more-integrations/open-source-telemetry-integrations/opentelemetry/opentelemetry-troubleshooting/ + - /docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-otlp-troubleshooting --- New Relic has supported [native OTLP ingest](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-otlp/) for several years. In the process of working through support cases that come up from time to time, we've learned about common issues users face. For some, the problem is easy to identify and fix. Others are deviously tricky, given that the internet is unreliable and there are many components (software, networking, hardware, etc.) involved under the control of various parties, such as customers, New Relic, and public networking infrastructure outside the control of either. With so much complexity, configuration, and failure points, it can be difficult to determine which is at fault and how to best address. diff --git a/src/content/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-otlp.mdx b/src/content/docs/opentelemetry/best-practices/opentelemetry-otlp.mdx similarity index 99% rename from src/content/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-otlp.mdx rename to src/content/docs/opentelemetry/best-practices/opentelemetry-otlp.mdx index 7f9eb5ecefc..30f85ae7660 100644 --- a/src/content/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-otlp.mdx +++ b/src/content/docs/opentelemetry/best-practices/opentelemetry-otlp.mdx @@ -6,13 +6,14 @@ tags: - OpenTelemetry - OTLP metaDescription: Configure OTLP exporter for New Relic -freshnessValidatedDate: 2024-05-06 +freshnessValidatedDate: 2024-05-06T00:00:00.000Z redirects: - /docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-best-practices-attributes/ - /docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-best-practices-batching/ - /docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-best-practices-compression/ - /docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-best-practices-overview - /docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-best-practices-versions + - /docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-otlp --- [OpenTelemetry Protocol](https://github.com/open-telemetry/opentelemetry-proto/blob/main/docs/specification.md), or OTLP for short, is a general purpose telemetry data delivery protocol designed for the OpenTelemetry project. Each OpenTelemetry language SDK provides OTLP exporters, and the OpenTelemetry collector has OTLP receivers and exporters. Additionally, various tools outside the OpenTelemetry project have added support for OTLP export. diff --git a/src/content/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/get-started/apm-monitoring/opentelemetry-apm-intro.mdx b/src/content/docs/opentelemetry/get-started/apm-monitoring/opentelemetry-apm-intro.mdx similarity index 92% rename from src/content/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/get-started/apm-monitoring/opentelemetry-apm-intro.mdx rename to src/content/docs/opentelemetry/get-started/apm-monitoring/opentelemetry-apm-intro.mdx index 5d78698afd2..26cafff07bb 100644 --- a/src/content/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/get-started/apm-monitoring/opentelemetry-apm-intro.mdx +++ b/src/content/docs/opentelemetry/get-started/apm-monitoring/opentelemetry-apm-intro.mdx @@ -1,5 +1,5 @@ --- -title: "APM: Monitor apps and services with OpenTelemetry" +title: 'APM: Monitor apps and services with OpenTelemetry' tags: - Integrations - Open source telemetry integrations @@ -7,11 +7,12 @@ tags: translate: - kr metaDescription: Set up OpenTelemetry-based APM monitoring with New Relic. -freshnessValidatedDate: 2024-05-14 +freshnessValidatedDate: 2024-05-14T00:00:00.000Z redirects: - - /docs/more-integrations/open-source-telemetry-integrations/opentelemetry/get-started/opentelemetry-set-up-your-app/ - - /docs/more-integrations/open-source-telemetry-integrations/opentelemetry/get-started/apm-monitoring/opentelemetry-apm-java - - /docs/more-integrations/open-source-telemetry-integrations/opentelemetry/get-started/apm-monitoring/opentelemetry-apm-python + - /docs/more-integrations/open-source-telemetry-integrations/opentelemetry/get-started/opentelemetry-set-up-your-app/ + - /docs/more-integrations/open-source-telemetry-integrations/opentelemetry/get-started/apm-monitoring/opentelemetry-apm-java + - /docs/more-integrations/open-source-telemetry-integrations/opentelemetry/get-started/apm-monitoring/opentelemetry-apm-python + - /docs/more-integrations/open-source-telemetry-integrations/opentelemetry/get-started/apm-monitoring/opentelemetry-apm-intro --- import moreintegrationsNativeOtlpNoCollector from 'images/more-integrations_diagram_native-otlp-no-collector.webp' diff --git a/src/content/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/get-started/apm-monitoring/opentelemetry-apm-ui.mdx b/src/content/docs/opentelemetry/get-started/apm-monitoring/opentelemetry-apm-ui.mdx similarity index 98% rename from src/content/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/get-started/apm-monitoring/opentelemetry-apm-ui.mdx rename to src/content/docs/opentelemetry/get-started/apm-monitoring/opentelemetry-apm-ui.mdx index d34df12e6a0..c8126696593 100644 --- a/src/content/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/get-started/apm-monitoring/opentelemetry-apm-ui.mdx +++ b/src/content/docs/opentelemetry/get-started/apm-monitoring/opentelemetry-apm-ui.mdx @@ -5,7 +5,7 @@ tags: - Open source telemetry integrations - OpenTelemetry metaDescription: The OpenTelemetry APM UI provides tools for identifying and diagnosing problems with services monitoring with OpenTelemetry. -freshnessValidatedDate: 2024-05-17 +freshnessValidatedDate: 2024-05-17T00:00:00.000Z redirects: - /docs/more-integrations/open-source-telemetry-integrations/opentelemetry/view-your-data/opentelemetry-view-your-data - /docs/integrations/open-source-telemetry-integrations/opentelemetry/view-your-opentelemetry-data-new-relic @@ -24,6 +24,7 @@ redirects: - /docs/more-integrations/open-source-telemetry-integrations/opentelemetry/view-your-data/opentelemetry-errors-inbox-page - /docs/more-integrations/open-source-telemetry-integrations/opentelemetry/view-your-data/opentelemetry-metrics-explorer-page - /docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-apm-ui/ + - /docs/more-integrations/open-source-telemetry-integrations/opentelemetry/get-started/apm-monitoring/opentelemetry-apm-ui --- import opentelemetryViewSpanEvents from 'images/opentelemetry_screenshot-crop_view-span-events.webp' diff --git a/src/content/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/get-started/collector-infra-monitoring/opentelemetry-collector-infra-intro.mdx b/src/content/docs/opentelemetry/get-started/collector-infra-monitoring/opentelemetry-collector-infra-intro.mdx similarity index 100% rename from src/content/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/get-started/collector-infra-monitoring/opentelemetry-collector-infra-intro.mdx rename to src/content/docs/opentelemetry/get-started/collector-infra-monitoring/opentelemetry-collector-infra-intro.mdx diff --git a/src/content/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/get-started/collector-processing/opentelemetry-collector-processing-intro.mdx b/src/content/docs/opentelemetry/get-started/collector-processing/opentelemetry-collector-processing-intro.mdx similarity index 89% rename from src/content/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/get-started/collector-processing/opentelemetry-collector-processing-intro.mdx rename to src/content/docs/opentelemetry/get-started/collector-processing/opentelemetry-collector-processing-intro.mdx index b678e80366f..21c027c4f5f 100644 --- a/src/content/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/get-started/collector-processing/opentelemetry-collector-processing-intro.mdx +++ b/src/content/docs/opentelemetry/get-started/collector-processing/opentelemetry-collector-processing-intro.mdx @@ -5,11 +5,12 @@ tags: - Open source telemetry integrations - OpenTelemetry metaDescription: Use the OpenTelemetry collector as a general purpose telemetry data processing tool -freshnessValidatedDate: 2024-05-13 +freshnessValidatedDate: 2024-05-13T00:00:00.000Z redirects: - - /docs/more-integrations/open-source-telemetry-integrations/opentelemetry/collector/opentelemetry-collector-basic - - /docs/more-integrations/open-source-telemetry-integrations/opentelemetry/collector/opentelemetry-collector-configs - - /docs/more-integrations/open-source-telemetry-integrations/opentelemetry/collector/opentelemetry-collector-intro + - /docs/more-integrations/open-source-telemetry-integrations/opentelemetry/collector/opentelemetry-collector-basic + - /docs/more-integrations/open-source-telemetry-integrations/opentelemetry/collector/opentelemetry-collector-configs + - /docs/more-integrations/open-source-telemetry-integrations/opentelemetry/collector/opentelemetry-collector-intro + - /docs/more-integrations/open-source-telemetry-integrations/opentelemetry/get-started/collector-processing/opentelemetry-collector-processing-intro --- import opentelemetryNativeOtlpWithCollector from 'images/opentelemetry_diagram_native-otlp-with-collector.webp' @@ -83,4 +84,4 @@ service: For a working example, see the [New Relic OpenTelemetry examples repository](https://github.com/newrelic/newrelic-opentelemetry-examples/tree/main/other-examples/collector/nr-config). -For additional collector examples, see [Collector for infrastructure monitoring](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/get-started/collector-infra-monitoring/opentelemetry-collector-infra-intro). \ No newline at end of file +For additional collector examples, see [Collector for infrastructure monitoring](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/get-started/collector-infra-monitoring/opentelemetry-collector-infra-intro). diff --git a/src/content/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/get-started/opentelemetry-get-started-intro.mdx b/src/content/docs/opentelemetry/get-started/opentelemetry-get-started-intro.mdx similarity index 94% rename from src/content/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/get-started/opentelemetry-get-started-intro.mdx rename to src/content/docs/opentelemetry/get-started/opentelemetry-get-started-intro.mdx index 80e77637dfc..88bf16e27d4 100644 --- a/src/content/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/get-started/opentelemetry-get-started-intro.mdx +++ b/src/content/docs/opentelemetry/get-started/opentelemetry-get-started-intro.mdx @@ -1,5 +1,5 @@ --- -title: 'Get started with OpenTelemetry and New Relic' +title: Get started with OpenTelemetry and New Relic tags: - Integrations - Open source telemetry integrations @@ -15,6 +15,7 @@ redirects: - /docs/integrations/open-source-telemetry-integrations/opentelemetry/opentelemetry-architecture-recipes/ - /docs/more-integrations/open-source-telemetry-integrations/opentelemetry/opentelemetry-quick-start - /docs/more-integrations/open-source-telemetry-integrations/opentelemetry/opentelemetry-setup + - /docs/more-integrations/open-source-telemetry-integrations/opentelemetry/get-started/opentelemetry-get-started-intro freshnessValidatedDate: never --- diff --git a/src/content/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/opentelemetry-introduction.mdx b/src/content/docs/opentelemetry/opentelemetry-introduction.mdx similarity index 98% rename from src/content/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/opentelemetry-introduction.mdx rename to src/content/docs/opentelemetry/opentelemetry-introduction.mdx index 59b2194118b..b78ce780461 100644 --- a/src/content/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/opentelemetry-introduction.mdx +++ b/src/content/docs/opentelemetry/opentelemetry-introduction.mdx @@ -17,7 +17,8 @@ redirects: - /docs/integrations/open-source-telemetry-integrations/opentelemetry/opentelemetry-concepts/ - /docs-website/src/content/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/opentelemetry-ref-architecture/ - /docs/more-integrations/open-source-telemetry-integrations/opentelemetry/opentelemetry-comparison -freshnessValidatedDate: 2024-06-01 + - /docs/more-integrations/open-source-telemetry-integrations/opentelemetry/opentelemetry-introduction +freshnessValidatedDate: 2024-06-01T00:00:00.000Z --- import moreintegrationsOtelRefArch from 'images/more-integrations_diagram_otel-ref-arch.webp' diff --git a/src/content/docs/more-integrations/grafana-integrations/get-started/grafana-support-prometheus-promql.mdx b/src/content/docs/query-your-data/grafana-integrations/get-started/grafana-support-prometheus-promql.mdx similarity index 97% rename from src/content/docs/more-integrations/grafana-integrations/get-started/grafana-support-prometheus-promql.mdx rename to src/content/docs/query-your-data/grafana-integrations/get-started/grafana-support-prometheus-promql.mdx index fff24875376..63dc8f9b190 100644 --- a/src/content/docs/more-integrations/grafana-integrations/get-started/grafana-support-prometheus-promql.mdx +++ b/src/content/docs/query-your-data/grafana-integrations/get-started/grafana-support-prometheus-promql.mdx @@ -9,6 +9,7 @@ redirects: - /docs/integrations/grafana-integrations/get-started/grafana-support-prometheus-promql - /docs/grafana-support-prometheus-promql - /docs/integrations/grafana-integrations/set-configure/grafana-support-prometheus-promql + - /docs/more-integrations/grafana-integrations/get-started/grafana-support-prometheus-promql freshnessValidatedDate: never --- diff --git a/src/content/docs/more-integrations/grafana-integrations/set-configure/configure-new-relic-prometheus-data-source-grafana.mdx b/src/content/docs/query-your-data/grafana-integrations/set-configure/configure-new-relic-prometheus-data-source-grafana.mdx similarity index 98% rename from src/content/docs/more-integrations/grafana-integrations/set-configure/configure-new-relic-prometheus-data-source-grafana.mdx rename to src/content/docs/query-your-data/grafana-integrations/set-configure/configure-new-relic-prometheus-data-source-grafana.mdx index 9623c7775f9..d683e444d58 100644 --- a/src/content/docs/more-integrations/grafana-integrations/set-configure/configure-new-relic-prometheus-data-source-grafana.mdx +++ b/src/content/docs/query-your-data/grafana-integrations/set-configure/configure-new-relic-prometheus-data-source-grafana.mdx @@ -8,6 +8,7 @@ metaDescription: How to configure New Relic as a Prometheus data source for Graf redirects: - /docs/integrations/grafana-integrations/set-configure/configure-new-relic-prometheus-data-source-grafana - /docs/configure-prometheus-data-source-grafana + - /docs/more-integrations/grafana-integrations/set-configure/configure-new-relic-prometheus-data-source-grafana freshnessValidatedDate: never --- diff --git a/src/content/docs/video-agents/open-source-video-agents.mdx b/src/content/docs/video-agents/open-source-video-agents.mdx new file mode 100644 index 00000000000..b2b7258ca30 --- /dev/null +++ b/src/content/docs/video-agents/open-source-video-agents.mdx @@ -0,0 +1,23 @@ +--- +title: Open-source video monitoring tools +tags: + - Agents + - Open-source licensed agents +metaDescription: A brief introduction to New Relic's video agents. +redirects: + - /docs/integrations/open-source-telemetry-integrations/roku/roku-open-source-video-agent + - /docs/agents/open-source-licensed-agents/ruby-open-source-video-agent + - /docs/more-integrations/open-source-telemetry-integrations/roku/roku-open-source-video-agent +freshnessValidatedDate: 2024-06-20 +--- + +New Relic has a variety of open-source tools for monitoring video. Some are in the category of experimental and some are community projects: + +* iOS & tvOS +* Android Mobile and TV +* Chromecast +* Roku (device or TV) + +For requirements, installation, and configuration information, see our [wiki](https://github.com/newrelic-experimental/video-documentation/wiki) on GitHub. + + diff --git a/src/content/whats-new/2024/06/images/nim1.png b/src/content/whats-new/2024/06/images/nim1.png new file mode 100644 index 00000000000..52a0cb86d4a Binary files /dev/null and b/src/content/whats-new/2024/06/images/nim1.png differ diff --git a/src/content/whats-new/2024/06/whats-new-06-24-nvidianim.md b/src/content/whats-new/2024/06/whats-new-06-24-nvidianim.md new file mode 100644 index 00000000000..14cf1001d5a --- /dev/null +++ b/src/content/whats-new/2024/06/whats-new-06-24-nvidianim.md @@ -0,0 +1,34 @@ +--- +title: 'New Relic AI monitoring now integrates with NVIDIA NIM inference microservices' +summary: 'Troubleshoot and optimize your AI apps built with NVIDIA NIM using in-depth insights across the AI stack' +releaseDate: '2024-06-24' +learnMoreLink: 'https://newrelic.com/blog/how-to-relic/ai-monitoring-for-nvidia-nim' +getStartedLink: 'https://docs.newrelic.com/docs/ai-monitoring/intro-to-ai-monitoring/#get-started' +--- + +Building, deploying, and monitoring generative AI applications is complex. This is where NVIDIA and New Relic can provide a streamlined path for developing, deploying, and monitoring AI-powered enterprise applications in production. + +NVIDIA NIM is a set of inference microservices that provides pre-built, optimized LLM models that simplify the deployment across NVIDIA accelerated infrastructure, both in the data center and cloud. + +New Relic AI monitoring now integrates with NVIDIA NIM to help engineers quickly troubleshoot and optimize the performance, quality, cost of AI applications, ultimately helping organizations adopt AI faster and achieve quicker ROI. + +![NIM integration](./images/nim1.png "A screenshot that shows the NIM integration") + +* **Full AI stack visibility:** Spot issues faster with a holistic view across apps, NVIDIA GPU-based infrastructure and AI layer. +* **Deep trace insights for every response:** Fix performance and quality issues like bias, toxicity, and hallucinations by tracing the entire lifecycle of AI responses +* **Model inventory:** Easily isolate model-related performance, error, and cost issues by tracking key metrics across all NVIDIA NIM inference microservices in one place +* **Model comparison:** Compare the performance of NVIDIA NIM inference microservices running in production in a single view to optimize model choice. +* **Enhanced data security:** In addition to NVIDIA’s self-hosted model’s security advantage, New Relic allows you to exclude monitoring of sensitive data (PII) in your AI requests and responses + + + + + + + + + + + + + diff --git a/src/i18n/content/es/docs/iast/troubleshooting.mdx b/src/i18n/content/es/docs/iast/troubleshooting.mdx index 9e410371768..7abe9283ddb 100644 --- a/src/i18n/content/es/docs/iast/troubleshooting.mdx +++ b/src/i18n/content/es/docs/iast/troubleshooting.mdx @@ -18,7 +18,7 @@ Si no encuentra su problema en la lista aquí, siempre puede comunicarse con [el id="iast-results" title="¿Dónde encuentro los resultados del IAST?" > - Vaya a **[one.newrelic.com](https://one.newrelic.com) > All capabilities > IAST > Tests & Applications**. Haga clic en una aplicación para verificar la eficiencia de las pruebas de la aplicación, las vulnerabilidades, las API cubiertas y las llamadas a métodos, entre otros datos. + Vaya a **[one.newrelic.com](https://one.newrelic.com) > All capabilities > IAST > Tests**. Haga clic en una aplicación para verificar la eficiencia de las pruebas de la aplicación, las vulnerabilidades, las API cubiertas y las llamadas a métodos, entre otros datos. **[one.newrelic.com](https://one.newrelic.com) > All capabilities > IAST > Tests & Applications**. Busque su aplicación y consulte la sección de resumen. Si la cobertura IAST es baja para su aplicación, agregue casos de prueba adicionales a su aplicación para obtener un mayor nivel de eficiencia de prueba. + * El nivel de eficiencia de su aplicación: vaya a **[one.newrelic.com](https://one.newrelic.com) > All capabilities > IAST > Tests**. Busque su aplicación y consulte la sección de resumen. Si la cobertura IAST es baja para su aplicación, agregue casos de prueba adicionales a su aplicación para obtener un mayor nivel de eficiencia de prueba. - * La cobertura de IAST: vaya a **[one.newrelic.com](https://one.newrelic.com) > All capabilities > IAST > Tests & Applications**. Busque su aplicación y haga clic en ella. En la sección de resumen, verifique si la cobertura del análisis IAST es alta y no se detectan vulnerabilidades, eso significa que su aplicación es segura. + * La cobertura de IAST: vaya a **[one.newrelic.com](https://one.newrelic.com) > All capabilities > IAST > Tests**. Busque su aplicación y haga clic en ella. En la sección de resumen, verifique si la cobertura del análisis IAST es alta y no se detectan vulnerabilidades, eso significa que su aplicación es segura. * Framework de su aplicación o la categoría de vulnerabilidades no son compatibles. @@ -49,7 +49,7 @@ Si no encuentra su problema en la lista aquí, siempre puede comunicarse con [el id="see-my-application" title="No veo mi aplicación en IAST" > - Si no ve su aplicación en **[one.newrelic.com](https://one.newrelic.com) > All capabilities > IAST > Tests & Applications**, verifique lo siguiente: + Si no ve su aplicación en **[one.newrelic.com](https://one.newrelic.com) > All capabilities > IAST > Tests**, verifique lo siguiente: * Su aplicación está en funcionamiento: consulte el proceso de aplicación o la [página APM y servicios](/docs/alerts-applied-intelligence/new-relic-alerts/advanced-alerts/advanced-techniques/view-events-their-products#products). * El registro de la aplicación para saber si hay algún problema. @@ -73,7 +73,7 @@ Si no encuentra su problema en la lista aquí, siempre puede comunicarse con [el Cuando el agente de seguridad está funcionando correctamente: - * Verá su aplicación en **[one.newrelic.com](https://one.newrelic.com) > All capabilities > IAST > Tests & Applications**. La aplicación se inicia y se genera tráfico. + * Verá su aplicación en **[one.newrelic.com](https://one.newrelic.com) > All capabilities > IAST > Tests**. La aplicación se inicia y se genera tráfico. * En el directorio `nr-security-home/logs` , busque el archivo `LANGUAGE-security-collector-init.log` . Reemplace `LANGUAGE` en el nombre del archivo con el que está utilizando. Busque estos pasos para ver dónde está el problema: @@ -103,7 +103,7 @@ Si no encuentra su problema en la lista aquí, siempre puede comunicarse con [el > Puede comprobar si IAST está funcionando, incluso si ve su aplicación en la UI de IAST y el agente de seguridad se inició correctamente. Siga estos pasos para comprobarlo: - 1. Vaya a **[one.newrelic.com](https://one.newrelic.com) > All capabilities > IAST > Tests & Applications**. + 1. Vaya a **[one.newrelic.com](https://one.newrelic.com) > All capabilities > IAST > Tests**. 2. Busque su aplicación en la pestaña **Application tests** y haga clic en ella. @@ -173,7 +173,7 @@ Si no encuentra su problema en la lista aquí, siempre puede comunicarse con [el > Actualice el estado de sus vulnerabilidades si cree que IAST ha informado un falso positivo. Sigue estos pasos: - * Busque su aplicación: Vaya a **[one.newrelic.com](https://one.newrelic.com) > All capabilities > IAST > Tests & Applications**. + * Busque su aplicación: Vaya a **[one.newrelic.com](https://one.newrelic.com) > All capabilities > IAST > Tests**. * Haga clic en la pestaña de todas las aplicaciones y seleccione las vulnerabilidades que no sean vulnerabilidades reales. diff --git a/src/i18n/content/es/docs/more-integrations/best-practices-integration.mdx b/src/i18n/content/es/docs/more-integrations/best-practices-integration.mdx deleted file mode 100644 index f16a3d0f768..00000000000 --- a/src/i18n/content/es/docs/more-integrations/best-practices-integration.mdx +++ /dev/null @@ -1,29 +0,0 @@ ---- -title: Mejores prácticas para la integración de usuario -tags: - - Best practices - - Integrations -metaDescription: Here are some best practices for controlling how you expose your New Relic data when you're using an integration. -freshnessValidatedDate: '2024-04-24T00:00:00.000Z' -translationType: machine ---- - -Como administrador de New Relic, debe operar su organización New Relic con el principio de privilegio mínimo. Este principio es un concepto de seguridad en el que un usuario solo debe tener acceso a los datos, sistemas y recursos específicos necesarios para completar una tarea necesaria para la organización. Si sigue este principio, puede reducir el riesgo de acceso no autorizado a datos confidenciales. Esto incluye la asignación de permisos según las funciones y responsabilidades laborales. En una [organización New Relic ](/docs/accounts/accounts-billing/account-structure/new-relic-account-structure/), el acceso basado en cuenta le permite controlar qué información está disponible para el usuario en su organización. Esto garantiza que los datos confidenciales permanezcan seguros y que solo el personal autorizado pueda verlos. - -Lidiar con la integración con sistemas de terceros puede complicar el acceso a las aplicaciones. Por ejemplo, es posible que el usuario de Atlassian Jira no tenga acceso a New Relic. El sistema también puede carecer de permisos o controles centralizados. Conozca las mejores prácticas para compartir datos en esta página. - -## Cuenta y alcance de clave de API [#account-api-key-scope] - -Lo primero que debe considerar al controlar el acceso a sus datos de New Relic es el alcance de su cuenta. Su organización puede tener varias cuentas y los usuarios pueden tener acceso a las cuentas. Esto le permite limitar los datos que estos usuarios pueden ver. Si su organización sólo tiene una única cuenta, esto significa que todos los usuarios tienen acceso a la misma información. En esta situación, es posible que solo desees exponer algunos datos a través de una integración. - -Algunas integraciones con New Relic aprovechan la capacidad de generar una clave de API para exponer sus datos a otros sistemas (por ejemplo, la integración Atlassian). Si un usuario tiene acceso a 3 de 5 cuentas en una organización New Relic , su clave de API generada tendrá acceso a esas mismas 3 cuentas. - - - Tenga en cuenta que una clave de API hereda los permisos de cuenta del usuario que la generó. - - -Es importante comprender esta distinción al configurar una integración. Por ejemplo, es posible que desee asegurarse de generar una clave de API de un usuario que tenga los permisos correctos. Es posible que desee que el usuario solo tenga acceso a determinadas cuentas de la aplicación. Esto limita lo que pueden ver y compartir con otros. Por ejemplo, digamos que tienes más usuarios en tu aplicación Atlassian que en tus cuentas New Relic y configuras la integración de Atlassian. El usuario de la integración Atlassian podrá ver los datos New Relic compartidos con el usuario Atlassian en la aplicación Atlassian, independientemente de si esos tienen acceso a las cuentas New Relic correspondientes. - -## Aprovechamiento del usuario de integración [#integration-user-leverage] - -Al configurar la integración de terceros con New Relic, recomendamos encarecidamente utilizar un usuario de integración dedicado. Esto significa [crear un usuario de New Relic](/docs/accounts/accounts-billing/new-relic-one-user-management/user-permissions/) solo para una integración específica. Puedes darle a este usuario un nombre que represente la integración en cuestión. Una gran ventaja de esto es que no necesita utilizar su acceso de nivel de administrador para la integración. Todo lo que tienes que hacer es crear el nuevo usuario y asignar solo las cuentas que deseas exponer a la integración. Luego, genere una clave de API para el usuario de integración. Esto permite que la clave de API que utiliza para una integración exponga solo los detalles de la cuenta que desea utilizar para la integración. También le permite desacoplar su acceso personal a New Relic del de la integración. \ No newline at end of file diff --git a/src/i18n/content/es/docs/more-integrations/cloudfoundry-integrations/vmware-tanzu-dotnet-buildpack-integration.mdx b/src/i18n/content/es/docs/more-integrations/cloudfoundry-integrations/vmware-tanzu-dotnet-buildpack-integration.mdx deleted file mode 100644 index e755ebba15a..00000000000 --- a/src/i18n/content/es/docs/more-integrations/cloudfoundry-integrations/vmware-tanzu-dotnet-buildpack-integration.mdx +++ /dev/null @@ -1,140 +0,0 @@ ---- -title: New Relic .NET para VMware Tanzu -tags: - - Integrations - - Cloudfoundry - - Tanzu -metaDescription: Use our integration to gain increased visibility into the performance of your VMware Tanzu environment. -freshnessValidatedDate: never -translationType: machine ---- - -import infrastructureVmwareTanzuDashboard from 'images/infrastructure_screenshot-crop_vmware-tanzu-dashboard.webp' - -import infrastructureVmwareTanzuAlertChart from 'images/infrastructure_screenshot-crop_vmware-tanzu-alert-chart.webp' - -Esta documentación describe el paquete de extensión New Relic .NET para VMware Tanzu y proporciona instrucciones sobre cómo instalar el mosaico. El mosaico puede vincular el agente New Relic a aplicaciones .NET Core o .NET framework para que pueda monitor en un entorno VMware Tanzu. - -El paquete de extensión New Relic .NET para VMware Tanzu le permite vincular sus aplicaciones ..NET Core y framework al agente New Relic .NET. Esto le permite monitor el estado y el rendimiento de estas aplicaciones, analizar los datos capturados por los agentes y, además, correlacionar los datos capturados del agente con la infraestructura métrica y de eventos de VMware Tanzu recopilados por [New Relic Firehose Mouth](https://network.pivotal.io/products/nr-firehose-nozzle/). - -## Requisitos previos [#prereqs] - -Este producto ha sido probado y es compatible con las versiones de VMware Tanzu OpsManager hasta v3.0 inclusive y Tanzu aplicación Service 5.0. - -El paquete de compilación de extensión New Relic .NET para VMware Tanzu requiere lo siguiente: - -* Una cuenta activa de New Relic con una clave de licencia. Esto se utiliza para vincular aplicaciones .NET al agente .NET New Relic. -* Para utilizar paquetes de compilación múltiples en el manifiesto de la aplicación, necesita CLI v6.38 o posterior. Para obtener información general sobre cómo agregar paquetes de compilación a manifiestos, consulte [Envío de una aplicación con varios paquetes de compilación](https://docs.pivotal.io/application-service/buildpacks/use-multiple-buildpacks.html) en la documentación de Cloud Foundry. -* Para utilizar la extensión .NET HWC, necesita HWC buildpack 3.0.3 o después. -* Para utilizar la extensión .NET Core, necesita el paquete de compilación dotnet core 2.1.5 o después. - -La siguiente tabla proporciona información sobre la versión y la compatibilidad con la versión de New Relic .NET Extension Buildpack para VMware Tanzu. - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
- Elemento - - Detalles -
- Versión en mosaico - - 1.1.13 -
- Fecha de lanzamiento - - 25 de enero de 2024 -
- Versión del componente de software - - Paquete de compilación de extensión New Relic .NET 1.1.13 -
- Versiones compatibles de Ops Manager - - 2.9.x, 2.10.x y 3.0.x -
- Servicio de aplicación VMware Tanzu compatible para versiones de máquina virtual (VM) - - 2.10.x, 2.11.x, 2.12.x, 2.13.x, 3.0.x, 4.0.x y 5.0.x -
- Versión de células madre BOSH - - Ubuntu Jammy -
- Soporte IaaS - - AWS, GCP, Azure y vSphere -
- -## Instalacion [#install] - -El paquete de extensión New Relic .NET para VMware Tanzu se puede instalar a través del mosaico en Ops Manager. Alternativamente, puede extraer el archivo `.Pivotal` e instalar paquetes de extensión individuales usando el comando cf línea de comando Interface (CLI) `cf create-buildpack`. - -Después de comenzar a monitorear sus aplicaciones, puede configurar en función de cualquier métrica recopilada por el agente .NET mediante el subsistema de alertas de New Relic. - -El paquete de compilación de extensión New Relic .NET para VMware Tanzu instala uno o más de los siguientes paquetes de compilación según la configuración del mosaico (un total de 8 paquetes de compilación de extensión): - -* New Relic .NET Core para la aplicación .NET Core que se ejecuta en la pila Ubuntu Jammy 1.\*. Este paquete de compilación de extensión no está almacenado en caché. -* New Relic .NET Core Extension Cached Buildpack para la aplicación .NET Core que se ejecuta en Ubuntu Jammy 1.\* en VMware Tanzu desconectado (aislado) en despliegue. Esto es para soportar entornos con espacios abiertos donde no hay acceso al mundo exterior. -* 3 New Relic HWC para la aplicación .NET framework que se ejecuta en la pila de Windows 2019. Este paquete de compilación de extensión no está almacenado en caché. -* 3 paquetes de compilación en caché de extensión New Relic HWC para la aplicación .NET framework que se ejecuta en la pila de Windows 2019 en VMware Tanzu desconectado (aislado). Esto es para soportar entornos con espacios abiertos donde no hay acceso al mundo exterior. - -Todos los paquetes de compilación utilizan el enfoque de paquetes de compilación múltiples de Cloud Foundry y requieren que se especifique el paquete de compilación estándar .NET Core o el paquete de compilación HWC como el último paquete de compilación en la cadena de paquetes de compilación, ya sea en el manifiesto de la aplicación o en la línea de comando `cf push` . - - - La versión en caché de este paquete de extensión para .NET Core y .NET framework contiene la versión New Relic .NET agente `9.1.1` - - -## Comentario [#feedback] - -Si tiene una solicitud de característica, preguntas o información sobre un error, envíe un problema en [github](https://github.com/newrelic/newrelic-dotnet-buildpack-tile/issues). \ No newline at end of file diff --git a/src/i18n/content/es/docs/more-integrations/cloudfoundry-integrations/vmware-tanzu-firehose-nozzle-integration.mdx b/src/i18n/content/es/docs/more-integrations/cloudfoundry-integrations/vmware-tanzu-firehose-nozzle-integration.mdx deleted file mode 100644 index 2094084ba87..00000000000 --- a/src/i18n/content/es/docs/more-integrations/cloudfoundry-integrations/vmware-tanzu-firehose-nozzle-integration.mdx +++ /dev/null @@ -1,178 +0,0 @@ ---- -title: New Relic para VMware Tanzu -tags: - - Integrations - - Cloudfoundry - - Tanzu -metaDescription: Use our integration to gain increased visibility into the performance of your VMware Tanzu environment. -dataSource: vmware-tanzu -freshnessValidatedDate: '2023-11-13T00:00:00.000Z' -translationType: machine ---- - -import infrastructureVmwareTanzuDashboard from 'images/infrastructure_screenshot-crop_vmware-tanzu-dashboard.webp' - -import infrastructureVmwareTanzuAlertChart from 'images/infrastructure_screenshot-crop_vmware-tanzu-alert-chart.webp' - -[La boquilla New Relic para VMware Tanzu](https://network.pivotal.io/products/nr-firehose-nozzle) recopila métrica y eventos generados por todos los componentes y aplicaciones de VMware Tanzu que se ejecutan en las celdas de VMware Tanzu Diego a través de [Loggregator Firehose](https://docs.pivotal.io/pivotalcf/loggregator/index.html). La boquilla recopila datos a través de la puerta de enlace del proxy log remoto (RLP) y los envía a [New Relic](https://www.newrelic.com) para su procesamiento y visualización. - -newrelicone-dashboards-vmware-tanzu.png - -## Descripción general [#overview] - -Después de la instalación, la boquilla comienza a recolectar y empujar el evento Firehose a New Relic para su procesamiento y visualización. New Relic organiza los datos según los tipos de eventos de Firehose y muestra cada tipo de evento de Firehose en su propio dashboard independiente. - -La boquilla se puede instalar como un mosaico en Ops Manager o desplegar usando el comando CLI cf push como una aplicación normal. Luego puede monitor el estado y el rendimiento de su despliegue de VMware Tanzu y configurarlo en función de cualquier métrica recopilada de VMware Tanzu Firehose. - -## Requisitos previos [#prereqs] - -New Relic para VMware Tanzu tiene los siguientes requisitos: - -* Una cuenta New Relic activa con una licencia Pro o Pro Trial. Si aún no tienes una cuenta de New Relic, puedes obtener una [licencia de prueba gratuita de 14 días](http://newrelic.com/signup?funnel=pivotal-cloud-foundry&partner=Pivotal+Cloud+Foundry). -* New Relic Insights incluida en la licencia -* Versiones de VMware Tanzu v2.10.x a v5.0.x. - -## Característica clave [#key-features] - -Puede monitor los datos de estado y rendimiento de los componentes de VMware Tanzu, incluidos: - -* Dominio de VMware Tanzu -* VMware Tanzu implementando -* Tipo de evento de manguera contra incendios -* Origen -* Trabajo -* Dirección IP del componente -* Detalle de la aplicación -* Contenedor - -Seleccione el elemento de una lista de valores para cualquiera de las métricas anteriores y filtre el dashboard según el valor seleccionado. También puedes filtrar un dashboard por múltiples métricas. - -## Filtrado de eventos [#event-filtering] - -Cuando se transmite una gran cantidad de eventos desde Firehose, es posible que desee filtrar los eventos no deseados generados por Firehose. Si necesita que la boquilla capture cualquiera de los tipos de eventos de Firehose (`ValueMetric`, `CounterEvent`, `ContainerMetric`, `HttpStartStop`, `LogMessage`), debe especificarlos como una lista de tipos de eventos separados por comas en el Propiedad `"Selected Events"` , ubicada en la pestaña Configuración avanzada de la configuración del mosaico. - -A partir de la versión 2.X de la boquilla, se agregan los eventos `ContainerMetric`, `CounterEvent` y `ValueMetric` . evento incluye el valor `min`, `max`, `sum`, `sample count` y `last` de cada métrica. Esto reduce la cantidad de eventos creados por la boquilla y al mismo tiempo proporciona detalles sobre cada tipo de métrica. Si es necesario, configure los filtros LogMessage para incluir o excluir subconjuntos del evento LogMessage. - -Si es necesario, configure `LogMessage Filters` para incluir o excluir subconjuntos del evento LogMessage. - -## Ejemplos de filtrado [#filter-examples] - -* **LogMessage Source Include Filter** - - : Solo genera eventos para mensaje de registro con una fuente incluida en esta lista separada por comas o barras verticales. - -* **LogMessage Source Exclude Filter** - - : No genere eventos para mensaje de registro con una fuente incluida en esta lista separada por comas o barras verticales. - -* **LogMessage Message Include Filter** - - : Solo genera eventos para mensaje de registro que contengan el texto enumerado en esta lista separada por comas o barras verticales. - -* **LogMessage Message Exclude Filter** - - : No genere eventos para mensaje de registro que contengan texto enumerado en esta lista separada por comas o barras verticales. - -Se pueden combinar múltiples filtros LogMessage para limitar la creación de eventos. Los filtros de inclusión se procesan antes que los filtros de exclusión. - - - **Note**: Cuando ejecuta el inyector como una aplicación, puede utilizar las variables de entorno anteriores en el archivo de manifiesto de la aplicación. - - -## Instantánea del producto [#product-snapshot] - -La siguiente tabla proporciona información sobre la versión y la compatibilidad con la versión de New Relic Mouth para VMware Tanzu. - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
- Elemento - - Detalles -
- Versión en mosaico - - 2.9.0 -
- Fecha de lanzamiento - - 14 de noviembre de 2023 -
- Versión del componente de software - - New Relic v2.9.0 -
- Versiones compatibles de Ops Manager - - v2.9.x, v2.10.x y v3.0.x -
- Servicio de aplicación VMware Tanzu compatible para versiones de máquina virtual (VM) - - v2.10.x, v2.11.x, v2.12.x, v2.13.x, v3.0.x, v4.0.x y v5.0.x -
- Versión de células madre BOSH - - Ubuntu Jammy -
- Soporte IaaS - - AWS, GCP, Azure y vSphere -
- -## Comentario [#feedback] - -Si tiene una solicitud de característica, preguntas o información sobre un error, envíe un problema en [github](https://github.com/newrelic/newrelic-pcf-nozzle-tile/issues). \ No newline at end of file diff --git a/src/i18n/content/es/docs/more-integrations/cloudfoundry-integrations/vmware-tanzu-service-broker-integration.mdx b/src/i18n/content/es/docs/more-integrations/cloudfoundry-integrations/vmware-tanzu-service-broker-integration.mdx deleted file mode 100644 index 951ee53799b..00000000000 --- a/src/i18n/content/es/docs/more-integrations/cloudfoundry-integrations/vmware-tanzu-service-broker-integration.mdx +++ /dev/null @@ -1,447 +0,0 @@ ---- -title: New Relic para VMware Tanzu -tags: - - Integrations - - Cloudfoundry - - Tanzu -metaDescription: Use our integration to gain increased visibility into the performance of your VMware Tanzu environment. -freshnessValidatedDate: never -translationType: machine ---- - -import infrastructureVmwareTanzuImport from 'images/vmware-service-broker-import.webp' - -import infrastructureVmwareTanzuImport2 from 'images/vmware-service-broker-import-2.webp' - -import infrastructureVmwareTanzuImport3 from 'images/vmware-service-broker-import-3.webp' - -import infrastructureVmwareTanzuImport4 from 'images/vmware-service-broker-import-4.webp' - -import infrastructureVmwareTanzuImport5 from 'images/vmware-service-broker-import-5.webp' - -import infrastructureVmwareTanzuImport6 from 'images/vmware-service-broker-import-6.webp' - -import infrastructureVmwareTanzuImport7 from 'images/vmware-service-broker-import-7.webp' - -import infrastructureVmwareTanzuImport8 from 'images/vmware-service-broker-import-8.webp' - -import infrastructureVmwareTanzuImport9 from 'images/vmware-service-broker-import-9.webp' - -import infrastructureVmwareTanzuImport10 from 'images/vmware-service-broker-import-10.webp' - -import infrastructureVmwareTanzuImport11 from 'images/vmware-service-broker-import-11.webp' - -import infrastructureVmwareTanzuImport12 from 'images/vmware-service-broker-import-12.webp' - -import infrastructureVmwareTanzuImport13 from 'images/vmware-service-broker-import-13.webp' - -import infrastructureVmwareTanzuImport14 from 'images/vmware-service-broker-import-14.webp' - -import infrastructureVmwareTanzuImport15 from 'images/vmware-service-broker-import-15.webp' - -import infrastructureVmwareTanzuImport16 from 'images/vmware-service-broker-import-16.webp' - -import infrastructureVmwareTanzuImport17 from 'images/vmware-service-broker-import-17.webp' - -import infrastructureVmwareTanzuImport18 from 'images/vmware-service-broker-import-18.webp' - -New Relic Service Broker para VMware Tanzu le permite usar una o más cuentas New Relic y se implementa como una aplicación Java en VMware Tanzu. Un intermediario de servicios permite que las aplicaciones de Cloud Foundry se vinculen a servicios y los consuman fácilmente desde el Administrador de aplicaciones o desde la línea de comando. - -## Cómo funciona [#works] - -El corredor expone el servicio New Relic en Marketplace y permite al usuario crear directamente una instancia de servicio y vincularla a sus aplicaciones, ya sea desde Apps Manager o desde la línea de comando. - -El mosaico New Relic Service Broker para VMware Tanzu instala New Relic Service Broker como una aplicación, lo registra como agente de servicios en VMware Tanzu y expone sus planes de servicio en Marketplace. Cada plan de servicio está asociado con una cuenta New Relic existente, que se configura durante la configuración del mosaico. - -La selección de un plan vincula su aplicación con el agente de New Relic y el agente comienza a informar a la cuenta de New Relic que está asociada con el plan seleccionado. Esto hace que la instalación y el uso posterior de New Relic en sus aplicaciones VMware Tanzu sean más fáciles y directos. - -## Requisitos previos [#prereqs] - -New Relic para VMware Tanzu tiene los siguientes requisitos: - -* Agente de servicios v1.12.18 y posteriores -* Para los agentes de servicios en la versión 1.12.12 y anteriores, los GUID únicos para los planes se calcularon de manera diferente. Para que estos planes no rompan la compatibilidad, los GUID deben ser los mismos que antes. El script de migración conserva los GUID de los planes existentes en la colección de planes para la versión 1.12.12 y versiones anteriores. - - - Debe anular el GUID de su plan si cambió la clave de licencia original asociada con un agente de servicios en la versión 1.12.12 o anterior. Para obtener el GUID del plan original de Cloud Controller, ejecute el siguiente script: - - ```shell - cf curl $(cf curl /v2/services?q=label:newrelic | grep “service_plans_url” | - - awk ‘{print $2}’ | sed ‘s/[",]//g’) | egrep “"name":|"unique_id":” | - - sed ‘s/[",]//g’ | tr -s " " | awk ’ {name=$0; getline; printf(\t%-40s %-40s \n”,name,$0)}’ - ``` - - ¿Hay dos nuevas propiedades etiquetadas como plan anterior al 1.12.12? y Anulación de guía de plan (broker 1.12.12 o anterior) en la colección de planes para cada plan en la configuración de mosaico. No cambie ninguna de estas propiedades porque se configuran internamente cuando sea necesario. - - * En New Relic Service Broker v1.12.13 y posteriores, deje el plan anterior a 1.12.12 sin marcar y la Anulación de guía del plan en blanco. - * El mosaico es compatible con Ops Manager v2.9.x, v2.10.x y v3.0.x. - * Puede instalar el mosaico en cualquiera de estas versiones y actualizar desde v1.9.x a cualquier versión de Ops Manager hasta v3.x inclusive. - * No se requieren rutas de actualización para versiones anteriores del mosaico, ya que no se admiten versiones anteriores a la v1.9.0. - * La versión 1.12.6 y posteriores del mosaico admiten la migración desde versiones anteriores del mosaico y conservan los servicios y planes de servicio existentes. - * Si está utilizando mosaicos anteriores a la versión 1.11.4, primero debe actualizar a v1.11.4, luego a la v1.12.9 y luego a la última versión del mosaico. - - -La siguiente tabla proporciona información sobre la versión y la compatibilidad con la versión del agente de servicios para VMware Tanzu. - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
- Elemento - - Detalles -
- Versión - - 1.12.34 -
- Fecha de lanzamiento - - 25 de enero de 2024 -
- Versión del componente de software - - New Relic 1.12.34 -
- Versiones compatibles de Ops Manager - - 2.9.x, 2.10.x y 3.x -
- Servicio de aplicación VMware Tanzu compatible para versiones de máquina virtual (VM) - - 2.10.x, 2.11.x, 2.12.x, 2.13.x, 3.x, 4.x y 5.x -
- Versión de células madre BOSH - - Ubuntu Jammy -
- Soporte IaaS - - AWS, GCP, Azure y vSphere -
- -El mosaico actual elimina el grupo de seguridad `all_open` de la configuración de seguridad predeterminada del mosaico. Si está utilizando una versión anterior del mosaico, haga que su entorno VMware Tanzu sea más seguro eliminando el grupo de seguridad `all_open` de la configuración del grupo de seguridad de la aplicación (ASG). La nueva versión del mosaico no abre la seguridad ni la cierra si ya estaba abierta. - -## Instalar a través del Administrador de operaciones [#install-ops] - -Para descargar New Relic Service Broker para el mosaico VMware Tanzu e instalarlo en VMware Tanzu Ops Manager, haga lo siguiente: - -1. Descargue el archivo del producto de Pivotal Network. - -2. Importe el archivo del producto a su instalación de Ops Manager. - -3. Haga clic en el signo - - **+** - - o - - **Add next** - - en la descripción del producto cargado en la vista de navegación izquierda del Administrador de operaciones para agregar este producto a su área de prueba. - -4. Haga clic en el mosaico recién agregado y revise las opciones configurables. - -5. Haga clic en - - **Apply Changes** - - . - -## Configurar el mosaico [#configure-tile] - -1. Log sesión en el Administrador de operaciones. - -2. Haga clic en **Import a Product** e importe el mosaico New Relic Service Broker para VMware Tanzu. - - vmware-service-broker-import.png - -3. Haga clic en el botón **+** a la derecha del "New Relic Service Broker" que cargó. - - vmware-service-broker-import-2.png - -4. Seleccione el mosaico New Relic . - - vmware-service-broker-import-3.png - -5. Configure la zona de disponibilidad y la red. - - vmware-service-broker-import-4.png - -6. Configure el acceso global de Service Broker. Puede mantener el acceso global habilitado para todos los planes de servicio (predeterminado) o puede desactivar el acceso global. Puede dar acceso a través de la configuración para una o más organizaciones para cada plan de servicio que agregue. - - vmware-service-broker-import-5.png - -7. Configure el New Relic Service Broker. Haga clic en Agregar en la pantalla Plan de servicio para crear un nuevo plan de servicio. - - vmware-service-broker-import-6.png - -8. Cree un plan de servicio con su clave de licencia de New Relic. - - * Ingrese un nombre para el plan de servicio (sin espacios). - * Introduzca la descripción del plan. - * Log sesión en su cuenta New Relic y navegue hasta la página Configuración de la cuenta en el menú desplegable en la esquina superior derecha de la página. Copie la clave de licencia de su cuenta New Relic y péguela aquí. - - vmware-service-broker-import-7.png - - * Si está actualizando desde New Relic Service Broker 1.12.12 o anterior, asegúrese de seguir las instrucciones en la sección de actualización de este documento para marcar el indicador "plan anterior a 1.12.12" e ingresar el GUID del plan anterior a 1.12.12. - * Si está ejecutando New Relic Firehose Boquilla y desea enrutar los datos de cada aplicación a una cuenta New Relic separada (a diferencia de la cuenta central Firehose Boquilla de New Relic), ingrese la cuenta objetivo de New Relic y la Insights Insertar clave aquí. - * Si en los pasos anteriores desmarcó Acceso global, debe ingresar una lista de organizaciones separadas por comas para que el sistema les permita el acceso al servicio para permitir al usuario crear una instancia de servicio de este plan. - -vmware-service-broker-import-8.png - -9. Seleccione el botón en la parte superior de la página para ir a `INSTALLATION DASHBOARD` - - vmware-service-broker-import-9.png - -10. Aplica tus cambios. - - * Haga clic en el botón azul en la parte superior derecha. - * Para acelerar el proceso, puede desmarcar la casilla Seleccionar todos los productos y seleccionar aplicar el cambio al mosaico de New Relic Service Broker. - - vmware-service-broker-import-10.png - -11. Al finalizar la instalación, consulte el Mercado de servicios en el Administrador de aplicaciones. Seleccione el mosaico New Relic . - - vmware-service-broker-import-11.png - -12. Vea los planes de servicio de New Relic y seleccione el plan deseado. - - vmware-service-broker-import-12.png - -13. Ingrese el nombre de la instancia de servicio y haga clic en el botón "CREAR" para crear la instancia de servicio. - - vmware-service-broker-import-13.png - -14. Plan de servicio creado. - - vmware-service-broker-import-14.png - -15. Vincula el servicio New Relic a una aplicación. - - * En el Administrador de aplicaciones, vaya a una aplicación. - - vmware-service-broker-import-15.png - - * Seleccione la pestaña Servicio. - - * Haga clic en el botón VINCULAR SERVICIO y seleccione la instancia de servicio que acaba de crear. - - vmware-service-broker-import-16.png - - * Haga clic en el botón VINCULAR en la parte inferior derecha. - - vmware-service-broker-import-17.png - -16. Vuelva a preparar la aplicación. Puede seleccionar el enlace en la parte superior de la página **Bind** , o en una ventana de terminal, y ejecutar `cf restage` para realizar los cambios. - - vmware-service-broker-import-18.png - - ```shell - cf restage APPNAME - ``` - -Log sesión en New Relic para ver los datos de monitoreo. - -## Configurar con proxy HTTP [#configure-http] - -Si el entorno VMware Tanzu necesita utilizar un proxy HTTP o HTTPS para la comunicación saliente externa, el intermediario de servicios no necesita saber nada sobre el proxy HTTP, ya que transmite la clave de licencia a las aplicaciones del consumidor. La aplicación del consumidor debe especificar `http\_proxy` o `https\_proxy` como variable de entorno para que el agente se comunique externamente con aplicaciones que no sean Java y usar `JAVA_OPTS` para aplicaciones Java. Además, el Agente New Relic también debe configurarse con su propio conjunto de parámetros `(-Dnewrelic.config.\*)` para comunicarse con su controlador a través del proxy para aplicaciones en lenguaje Java. - -Para especificar el uso de `http_proxy` para que el agente de la aplicación New Relic que no es Java se comunique con su controlador mediante el proxy, ejecute los siguientes comandos: - -```shell -cf set-env APPNAME http_proxy 'http://user:password@proxy-server.customer.example.com:8080' -cf set-env APPNAME https_proxy 'http://user:password@proxy-server.customer.example.com:8080' -``` - -Para especificar el uso de `JAVA_OPTS` para que el agente de Java New Relic se comunique con su controlador mediante el proxy, ejecute el siguiente comando: - -```shell -cf set-env APPNAME JAVA_OPTS " -Dtest.value=barbar - -Dnewrelic.config.proxy_host=proxy.customer.example.com - -Dnewrelic.config.proxy_port=8080 -``` - -Si una aplicación Java también necesita comunicarse a través de un proxy, agregue la configuración del proxy Java además de la configuración del proxy del agente New Relic con el siguiente comando: - -```shell -cf set-env APPNAME JAVA_OPTS " -Dtest.value=barbar - -Dnewrelic.config.proxy_host=proxy.customer.example.com - -Dnewrelic.config.proxy_port=8080 - -Dhttp.proxyHost=proxy.customer.example.com-Dhttp.proxyPort=8080 - -Dhttps.proxyHost=proxy.customer.example.com -Dhttps.proxyPort=8080 -``` - -Para una aplicación que no sea Java y que necesite comunicarse mediante un proxy, ejecute los siguientes comandos: - -```shell -cf set-env APPNAME http_proxy http://user@password:myproxy....:8080/ -cf set-env APPNAME https_proxy https://user@password:myproxy....:8080/ -``` - -Siempre que realice cambios en las variables de entorno de Cloud Foundry, debe volver a configurar sus aplicaciones para que los cambios sean efectivos. - -```shell -cf restage APPNAME -``` - -Puede configurar estas variables de entorno individualmente por aplicación, o con grupos de variables de entorno que se configurarán para todas las aplicaciones como parte de entornos de prueba, ejecución, etc. utilizando la herramienta de interfaz de línea de comando (cf CLI) de Cloud Foundry. - -## Grupos de variables de entorno [#variable-groups] - -* `running-environment-variable-group/revg`: recuperar el contenido del grupo de variables de entorno en ejecución -* `staging-environment-variable-group/sevg`: Recupera el contenido del grupo de variables de entorno de prueba. -* `set-staging-environment-variable-group/ssevg`: Pase el parámetro como JSON para crear un grupo de variables de entorno de prueba -* `set-running-environment-variable-group/srevg`: Pase el parámetro como JSON para crear un grupo de variables de entorno en ejecución - -Utilice la variable de entorno `JAVA\_OPTS` para especificar variables de entorno específicas del agente New Relic en el grupo de entorno de prueba para que el paquete de compilación de Java pueda usarlas y enviarlas al lugar correcto. Especificar JAVA_OPTS en el grupo de variables de entorno de ejecución no producirá nada, ya que el paquete de compilación no lo sabrá. - -Por ejemplo: - -```shell -cf ssevg '{ "JAVA_OPTS" : " -Dtest.value=barbar - -Dnewrelic.config.proxy_host=proxy.customer.example.com - -Dnewrelic.config.proxy_port=8080 -Dhttp.proxyHost=proxy.customer.example.com - -Dhttp.proxyPort=8080 -Dhttps.proxyHost=proxy.customer.example.com - -Dhttps.proxyPort=8080 -Dspring.profiles.active=dev - -Dnewrelic.config.log_level=finer - -Djavax.net.debug=all ", "test_env_profile" : "Staging" }' -``` - -Para obtener más información, consulte [Prioridad de los ajustes de configuración](https://docs.newrelic.com/docs/agents/java-agent/configuration/java-agent-configuration-config-file#config-options-precedence). - -## Dependencia del paquete para Buildpacks sin conexión [#product-dependencies] - -Si está ejecutando VMware Tanzu en un entorno fuera de línea (desconectado), debe volver a crear y empaquetar la dependencia, incluidos los archivos binarios del agente New Relic, utilizando paquetes de compilación fuera de línea en su entorno VMware Tanzu. - -Para obtener más información, consulte [Dependencia de empaquetado para paquetes de compilación sin conexión](https://docs.cloudfoundry.org/buildpacks/depend-pkg-offline.html). - -## Comentario [#feedback] - -Si tiene una solicitud de característica, preguntas o información sobre un error, envíe un problema en [github](https://github.com/newrelic/newrelic-service-broker-tile/issues). \ No newline at end of file diff --git a/src/i18n/content/es/docs/more-integrations/grafana-integrations/get-started/grafana-support-prometheus-promql.mdx b/src/i18n/content/es/docs/more-integrations/grafana-integrations/get-started/grafana-support-prometheus-promql.mdx deleted file mode 100644 index b2d1777fdaa..00000000000 --- a/src/i18n/content/es/docs/more-integrations/grafana-integrations/get-started/grafana-support-prometheus-promql.mdx +++ /dev/null @@ -1,45 +0,0 @@ ---- -title: Soporte de Grafana con Prometheus y PromQL -tags: - - Integrations - - Grafana integrations - - Get started -metaDescription: Read about about how you can use New Relic within Grafana and our options for Prometheus and Prom QL support. -freshnessValidatedDate: never -translationType: machine ---- - -En Grafana, puede configurar New Relic como fuente de datos de Prometheus. No solo eso, dentro de Grafana puedes consultar métrica almacenada en New Relic usando el [lenguaje de consulta PromQL](/docs/integrations/prometheus-integrations/view-query-data/supported-promql-features). - -## Utilice el panel de Grafana existente con New Relic [#Grafana-dashboards] - -Cuando integra Prometheus métrica con New Relic a través de [escritura remota](/docs/integrations/prometheus-integrations/get-started/monitor-prometheus-new-relic#remote-write), [Prometheus Agent](/docs/integrations/prometheus-integrations/get-started/monitor-prometheus-new-relic#agent) o [OpenMetrics Integration](/docs/integrations/prometheus-integrations/get-started/monitor-prometheus-new-relic#OpenMetric) (2.0+) y configura New Relic como fuente de datos de Prometheus en Grafana, puede usar Grafana existente y acceder sin problemas al monitoreo adicional. confiabilidad y escala que ofrecemos. - -## Compatibilidad y requisitos [#compat-requirements] - -Antes de comenzar, asegúrese de haber terminado de integrar Prometheus métrica y de estar ejecutando una versión suficientemente reciente de Grafana. - -* Debe tener configurado [Remote Write](/docs/integrations/prometheus-integrations/get-started/monitor-prometheus-new-relic#remote-write), [Prometheus agente](/docs/integrations/prometheus-integrations/get-started/monitor-prometheus-new-relic#agent) o [OpenMetrics integración](/docs/integrations/prometheus-integrations/get-started/monitor-prometheus-new-relic#OpenMetrics) (v2.0+) antes de poder configurar las fuentes de datos de New Relic Prometheus en Grafana. -* Solo puede configurar fuentes de datos de New Relic Prometheus utilizando este método en las versiones 6.7.0 o posteriores de Grafana. Deberá configurar encabezados personalizados en la UI y esto no es posible con versiones anteriores. Para obtener más información, consulte [Configurar New Relic como fuente de datos de Prometheus para Grafana](/docs/integrations/grafana-integrations/set-configure/configure-new-relic-prometheus-data-source-grafana). - -### Soporte para PromQL - -Nuestra API de Prometheus emula las API de consulta de Prometheus. Admitimos el lenguaje de consulta Prometheus (PromQL) a través de nuestro modo de consulta estilo PromQL. Hacemos todo lo posible para traducir automáticamente la consulta de sintaxis PromQL a la aproximación NRQL más cercana. - -Para obtener más información sobre cómo funciona esto y las diferencias que puede observar entre Prometheus y New Relic, consulte [Característica PromQL compatible](/docs/integrations/prometheus-integrations/view-query-data/supported-promql-features). - -## Haga que los datos fluyan en Grafana [#get-data] - -Para que sus datos de New Relic estén disponibles en Grafana, puede configurar una fuente de datos de Prometheus nueva o existente en solo un par de sencillos pasos: - -1. En la UI de Grafana, agregue y [configure una nueva fuente de datos](/docs/integrations/grafana-integrations/set-configure/configure-new-relic-prometheus-data-source-grafana). -2. Guarde la nueva fuente de datos y comience a ver sus datos. - -## ¿Que sigue? [#whats-next] - -¿Listo para configurar una fuente de datos de Grafana? - -* Lea la documentación práctica para configurar la [integración de escritura remota de Prometheus](/docs/integrations/prometheus-integrations/install-configure/set-your-prometheus-remote-write-integration), [el agente Prometheus](/docs/infrastructure/prometheus-integrations/install-configure-prometheus-agent/setup-prometheus-agent) o la [integración de Prometheus OpenMetrics](/docs/integrations/prometheus-integrations/install-configure/install-update-or-uninstall-your-prometheus-openmetrics-integration). -* Lea la documentación práctica para [configurar fuentes de datos de Prometheus en Grafana](/docs/integrations/grafana-integrations/set-configure/configure-new-relic-prometheus-data-source-grafana). - - \ No newline at end of file diff --git a/src/i18n/content/es/docs/more-integrations/grafana-integrations/set-configure/configure-new-relic-prometheus-data-source-grafana.mdx b/src/i18n/content/es/docs/more-integrations/grafana-integrations/set-configure/configure-new-relic-prometheus-data-source-grafana.mdx deleted file mode 100644 index 4870750e058..00000000000 --- a/src/i18n/content/es/docs/more-integrations/grafana-integrations/set-configure/configure-new-relic-prometheus-data-source-grafana.mdx +++ /dev/null @@ -1,144 +0,0 @@ ---- -title: Configure New Relic como fuente de datos de Prometheus para Grafana -tags: - - Integrations - - Grafana integrations - - Set up and configure -metaDescription: How to configure New Relic as a Prometheus data source for Grafana -freshnessValidatedDate: never -translationType: machine ---- - -import moreintegrationsGrafanaDataSourceConfig from 'images/more-integrations_screenshot-crop_grafana-data-source-config.webp' - -Puede configurar una [fuente de datos de Prometheus](https://grafana.com/docs/grafana/latest/features/datasources/prometheus/) en [Grafana](https://grafana.com/login) para consultar los datos almacenados en la base de datos de New Relic (NRDB) utilizando nuestro [lenguaje de consulta estilo PromQL](/docs/integrations/prometheus-integrations/view-query-data/supported-promql-features). - -## Agregar una fuente de datos de Prometheus [#create-update] - -Siga estos pasos para agregar New Relic como fuente de datos de Prometheus para Grafana. Estas instrucciones detallan cómo completar el proceso cuando se trabaja con las versiones 6.7 y superiores de Grafana. - - - Debe [completar el proceso de integración de escritura remota de Prometheus](/docs/integrations/prometheus-integrations/install-configure/set-your-prometheus-remote-write-integration) antes de comenzar el proceso de configuración. - - -1. En New Relic, [cree una nueva clave de consulta de Insights](/docs/apis/intro-apis/new-relic-api-keys/#insights-query-key). - - - Nota: En Grafana, deberá colocar esto en un encabezado HTTP **X-Query-Key** personalizado (consulte el paso 7 a continuación), pero es la misma entidad que la clave de consulta New Relic. - - -2. Desde la pantalla [de Grafana](https://grafana.com/login) **Home** , vaya a **Configuration > Data Sources** y haga clic en **Add data source**. - -3. En la pantalla **Add data source** , en las opciones **Time series databases** , seleccione **Prometheus**. - -4. Ingrese el **Name** que desea usar para su nueva fuente de datos de Prometheus. - -5. Configure el interruptor **Default** en la posición de encendido o apagado, dependiendo de si desea que esta sea su fuente de datos predeterminada para Prometheus consulta. - - * Desactivado: esta no es su fuente de datos predeterminada - * Activado: esta es su fuente de datos predeterminada - -6. Ingrese el **URL** correcto: - - * EE. UU.: [prometheus-api.newrelic.com](https://prometheus-api.newrelic.com) - * UE: [prometheus-api.eu.newrelic.com](https://prometheus-api.eu.newrelic.com) - -7. En **Custom Headers**, seleccione **Add Header**. Establezca el nombre **Header** en **X-Query-Key.** Para **Value**, ingrese la clave de consulta que creó en el paso 1. - -8. Haga clic en **Save & Test**. - - - Si sus gráficos aparecen como grupos de puntos y no como líneas conectadas, puede cambiar el estilo del gráfico para mostrar líneas. Para hacer esto, vaya a **[Graph panel](https://grafana.com/docs/grafana/latest/panels/visualizations/graph-panel/)** de Grafana y seleccione **Stacking and null value > connected**. - - - - - Screen capture of the add data source workflow in Grafana - -
- Grafana Data Source Config.png, por [dbarnesbrown.newrelic.com](/users/dbarnesbrownnewreliccom) -
-
-
- - - -## Consideraciones de versiones - -New Relic recomienda encarecidamente utilizar las versiones 6.7.x y superiores para configurar New Relic como fuente de datos de Prometheus. Si elige completar la configuración mientras ejecuta una versión anterior, deberá realizar una de las siguientes acciones para configurar correctamente su fuente de datos: - -* Configure la nueva fuente de datos para usar autenticación básica y luego ingrese la clave de consulta como contraseña en el flujo de trabajo de autenticación básica. -* Configure la nueva URL de la fuente de datos para incluir la clave de consulta: `` https://prometheus-api.newrelic.com/auth/`` `` - -## Personaliza el comportamiento de la API de Prometheus [#customize-API] - -Los encabezados son particularmente importantes si ha conectado varios servidores Prometheus a New Relic mediante la [integración de escritura remota](/docs/integrations/prometheus-integrations/install-configure/set-your-prometheus-remote-write-integration). Aquí hay algunos detalles sobre la personalización. - - - - El parámetro [Clave de consulta](/docs/apis/get-started/intro-apis/types-new-relic-api-keys#x-query-key) es necesario para autenticarse con New Relic e identificar la cuenta que contiene su métrica. Grafana llama a esto **X-Query key**, mientras que aparece como **Query key** en la UI de New Relic. - - Detalles: - - * Requerido - * Una clave de consulta API utilizada para la autenticación - * Si está utilizando la integración de escritura remota de Prometheus, la X-consulta debe corresponder a la misma cuenta que la X-clave de licencia utilizada para integrarse para la escritura remota. - - - - - El soporte de autocompletar de Grafana no maneja métricas que no se ajusten estrictamente a las convenciones de nomenclatura de Prometheus. New Relic recomienda excluir cualquier métrica que no se ajuste a este parámetro. - - - Detalles: - - * Opcional - * Límites métricos expuestos por la API a los provenientes de Prometheus - * Predeterminado = verdadero si no se especifica - - - - Este parámetro es útil si está recopilando métricas de varios servidores Prometheus. Por ejemplo, si está utilizando Grafana, es posible que desee crear una fuente de datos para cada servidor Prometheus conectado a New Relic y luego otra fuente de datos que pueda usarse para realizar consultas en todos los servidores Prometheus. - - Detalles: - - * Opcional - * Límites métricos expuestos por la API a los recopilados del servidor Prometheus especificado - * Este valor debe coincidir con el parámetro de URL `prometheus_server` en la URL de escritura remota utilizada para conectarse a su servidor Prometheus en New Relic. - * El valor predeterminado es devolver la métrica recopilada de todos los servidores. - - - -## Eliminar una fuente de datos de Prometheus [#delete] - -Para eliminar una fuente de datos en Grafana: - -1. Vaya a - - **Configuration > Data Sources** - - . - -2. Haga clic en la fuente de datos que desea eliminar. - -3. Haga clic en el botón - - **Delete** - - en la parte inferior de la página. \ No newline at end of file diff --git a/src/i18n/content/es/docs/more-integrations/java-integrations/vertx-eventbus-integration.mdx b/src/i18n/content/es/docs/more-integrations/java-integrations/vertx-eventbus-integration.mdx deleted file mode 100644 index a53c733809f..00000000000 --- a/src/i18n/content/es/docs/more-integrations/java-integrations/vertx-eventbus-integration.mdx +++ /dev/null @@ -1,164 +0,0 @@ ---- -title: Java Vert.x Event Bus integración -tags: - - nrlabs - - nrlabs-data - - apm - - java - - vertx - - vert.x - - eventbus - - expert services -metaDescription: Provides instrumentation for monitoring the Vert.x Event Bus. -freshnessValidatedDate: never -translationType: machine ---- - -[Java Vert.x Event Bus integración](https://github.com/newrelic/newrelic-java-vertx/tree/main) proporciona instrumentación para monitoreo del (Vert.x)\[https://vertx.io/] Event Bus, que permite el seguimiento del flujo de eventos a través del bus. Diseñado específicamente para Vert.x Verticles que se extienden` AbstractVerticle`, esta extensión instrumenta cada clase desplegar para monitor todos los métodos excepto aquellos específicamente definidos por `AbstractVerticle`. - -## Métodos admitidos - -La integración rastrea o excluye métrica. Aquí hay una lista de cada uno: - -Métodos rastreados: - -* Métodos que facilitan el seguimiento del flujo de eventos. -* Métodos que mejoran la visibilidad del comportamiento y rendimiento de la aplicación. - -Métodos excluidos: - -* Métodos de configuración y ciclo de vida específicos (`start`, `stop`, `rxStart`, `rxStop`, `config`, `deploymentID`, `getVertx`, `init`, `processArgs`) - -## Instalar el agente de Java - -Se debe instalar el agente Java APM para configurar las extensiones Java Vert.x. Siga las instrucciones para [instalar el agente Java APM](https://docs.newrelic.com/install/java/). - -Una vez que Java agente APM esté instalado y configurado para su aplicación, cree una carpeta `extensions` en el directorio `newrelic` si aún no existe: - -```bash -# Open your Java APM Agent installation location and create 'extensions' folder ( if it is not existing) -cd path/to/newrelic -mkdir extensions -``` - -## Instalar y configurar Java Vert.x Event Bus integración [#install] - - - - - curl - - - - Powershell - - - - Web - - - - - - Para instalar y configurar Java Vert.x Event Bus integración, sigue estos pasos: - - * Actualice la ubicación de la carpeta `extensions` del agente Java APM en el script bash proporcionado. - * Copie los comandos actualizados a un script bash `install_vertx_integration.sh`. - * Ejecute el script para integrar Java Vert.x Event Bus Monitoreo con New Relic APM. - - ```sh - #!/bin/bash - - # Define variables - apiUrl="https://api.github.com/repos/newrelic/newrelic-java-vertx/releases/latest" - tempZipPath="/tmp/latest.zip" - tempExtractPath="/tmp/Extracted" - extensionsDir="/path/to/newrelic/extensions" - - # Retrieve the download URL for the latest release ZIP file - downloadUrl=$(curl -s "$apiUrl" | grep -o "browser_download_url.*\.zip" | cut -d '"' -f 3) - - echo $downloadUrl - - # Check if the download URL is empty or invalid - if [ -z "$downloadUrl" ]; then - echo "Failed to retrieve download URL. Exiting." - exit 1 - fi - - # Download the latest release ZIP file - curl -L -o "$tempZipPath" "$downloadUrl" - - # Check if the ZIP file was downloaded successfully - if [ ! -f "$tempZipPath" ]; then - echo "Failed to download the ZIP file. Exiting." - exit 1 - fi - - # Create a temporary extraction folder - mkdir -p "$tempExtractPath" - - # Extract the contents of the ZIP file to the temporary folder - unzip -q "$tempZipPath" -d "$tempExtractPath" - - # Check if the extraction was successful - if [ $? -ne 0 ]; then - echo "Failed to extract the ZIP file. Exiting." - exit 1 - fi - - # Copy all .jar files to the Java APM Agent 'extensions' directory - find "$tempExtractPath" -name "*.jar" -exec cp {} "$extensionsDir" \; - - # Clean up temporary files - rm "$tempZipPath" - rm -r "$tempExtractPath" - - echo "Installation completed successfully." - ``` - - - - Para instalar y configurar Java Vert.x Event Bus integración, sigue estos pasos: - - * Actualice la ubicación de la carpeta 'extensiones' del agente Java APM en los comandos de PowerShell proporcionados. - - ```sh - # Define variables - $apiUrl = "https://api.github.com/repos/newrelic/newrelic-java-vertx/releases/latest" - $tempZipPath = "C:\Temp\latest.zip" - $tempExtractPath = "C:\Temp\Extracted" - $extensionsDir = "C:\Path\To\newrelic\extensions" - - # Download the latest release ZIP file from GitHub - $response = Invoke-WebRequest -Uri $apiUrl - $downloadUrl = ($response.Content | ConvertFrom-Json).assets[0].browser_download_url - Invoke-WebRequest -Uri $downloadUrl -OutFile $tempZipPath - - # Extract the contents of the ZIP file to a temporary folder - New-Item -ItemType Directory -Path $tempExtractPath -Force - Expand-Archive -Path $tempZipPath -DestinationPath $tempExtractPath - - # Copy all .jar files to the Java APM Agent 'extensions' directory - Get-ChildItem -Path $tempExtractPath -Filter "*.jar" | Copy-Item -Destination $extensionsDir - - # Clean up temporary files - Remove-Item -Path $tempZipPath -Force - Remove-Item -Path $tempExtractPath -Recurse -Force - - ``` - - - - Desde [Java Vert.x Event Bus Integration Releases](https://github.com/newrelic/newrelic-java-vertx/releases/), descargue `vertx-instrumentation-vx.y.z.zip` a un directorio temporal y descomprímalo. Copie todos los archivos 'jar' a la carpeta 'extensiones' de New Relic Java agente APM. - - - - -## Verifica tu integración - -Luego de configurar Java Vert.x Event Bus integración, podrás visualizar el Vert.x de tu aplicación Event Bus transacción y traza directamente dentro de New Relic APM and Services. - -## Informar problemas de integración - -Si encuentra algún problema con Java Vert.x Event Bus integración, por favor repórtalos en el [repositorio de GitHub](https://github.com/newrelic/newrelic-java-vertx/issues). Sus comentarios nos ayudan a identificar y abordar los problemas rápidamente, lo que garantiza una experiencia de monitoreo fluida y confiable para Vert.x. aplicación. Gracias por contribuir a la mejora de nuestra integración. \ No newline at end of file diff --git a/src/i18n/content/es/docs/more-integrations/java-integrations/vertx-extensions-integration.mdx b/src/i18n/content/es/docs/more-integrations/java-integrations/vertx-extensions-integration.mdx deleted file mode 100644 index b72f7bbfe6c..00000000000 --- a/src/i18n/content/es/docs/more-integrations/java-integrations/vertx-extensions-integration.mdx +++ /dev/null @@ -1,163 +0,0 @@ ---- -title: New Relic Java para Vert.x Extensiones -tags: - - nrlabs - - nrlabs-data - - apm - - java - - vertx - - vert.x - - sql - - kafka - - mssql - - postgres - - oracle - - db2 - - cassandra - - jdbc - - redis - - rabbitmq - - rxjava - - mongodb - - reactive - - coroutines - - expert services -metaDescription: 'provides instrumentation for monitoring the Vert.x Cassandra, JDBCClient, Coroutines, Kafka, RxJava, SQL Clients, Redis, MongoDB, Reactive and Service Proxy.' -freshnessValidatedDate: never -translationType: machine ---- - -[Instrumentación Java para Vert.x Extensions](https://github.com/newrelic/newrelic-java-vertx-extensions/tree/main) proporciona instrumentación para monitoreo Vert.x Cassandra, JDBCClient, Coroutines, Kafka, RxJava, SQL Clients, Redis, MongoDB, Reactive y Service Proxy. - -## Instalar el agente de Java - -Se debe instalar el agente Java APM para configurar las extensiones Java Vert.x. Siga las instrucciones para [instalar el agente Java APM](https://docs.newrelic.com/install/java/) - -Una vez que Java agente APM esté instalado y configurado para su aplicación, cree una carpeta `extensions` en el directorio `newrelic` si aún no existe: - -```bash -# Open your Java APM Agent installation location and create 'extensions' folder ( if it is not existing) -cd path/to/newrelic -mkdir extensions -``` - -## Instalar y configurar la instrumentación Java para Vert.x Extensiones [#install] - - - - - curl - - - - Powershell - - - - Web - - - - - - Para instalar y configurar la instrumentación Java para Vert.x Extensiones, sigue estos pasos: - - * Actualice la ubicación de la carpeta `extensions` del agente Java APM en el script bash proporcionado. - * Copie los comandos actualizados a un script bash, `install_vertx_integration.sh`. - * Ejecute el script para integrar la instrumentación Java para Vert.x Extensiones con New Relic APM. - - ```sh - #!/bin/bash - - # Define variables - apiUrl="https://api.github.com/repos/newrelic/newrelic-java-vertx-extensions/releases/latest" - tempZipPath="/tmp/latest.zip" - tempExtractPath="/tmp/Extracted" - extensionsDir="/path/to/newrelic/extensions" - - # Retrieve the download URL for the latest release ZIP file - downloadUrl=$(curl -s "$apiUrl" | grep -o "browser_download_url.*\.zip" | cut -d '"' -f 3) - - echo $downloadUrl - - # Check if the download URL is empty or invalid - if [ -z "$downloadUrl" ]; then - echo "Failed to retrieve download URL. Exiting." - exit 1 - fi - - # Download the latest release ZIP file - curl -L -o "$tempZipPath" "$downloadUrl" - - # Check if the ZIP file was downloaded successfully - if [ ! -f "$tempZipPath" ]; then - echo "Failed to download the ZIP file. Exiting." - exit 1 - fi - - # Create a temporary extraction folder - mkdir -p "$tempExtractPath" - - # Extract the contents of the ZIP file to the temporary folder - unzip -q "$tempZipPath" -d "$tempExtractPath" - - # Check if the extraction was successful - if [ $? -ne 0 ]; then - echo "Failed to extract the ZIP file. Exiting." - exit 1 - fi - - # Copy all .jar files to the Java APM Agent 'extensions' directory - find "$tempExtractPath" -name "*.jar" -exec cp {} "$extensionsDir" \; - - # Clean up temporary files - rm "$tempZipPath" - rm -r "$tempExtractPath" - - echo "Installation completed successfully." - ``` - - - - Para instalar y configurar la instrumentación Java para Vert.x Extensiones, sigue estos pasos: - - * Actualice la ubicación de la carpeta 'extensiones' del agente Java APM en los comandos de PowerShell proporcionados: - - ```sh - # Define variables - $apiUrl = "https://api.github.com/repos/newrelic/newrelic-java-vertx-extensions/releases/latest" - $tempZipPath = "C:\Temp\latest.zip" - $tempExtractPath = "C:\Temp\Extracted" - $extensionsDir = "C:\Path\To\newrelic\extensions" - - # Download the latest release ZIP file from GitHub - $response = Invoke-WebRequest -Uri $apiUrl - $downloadUrl = ($response.Content | ConvertFrom-Json).assets[0].browser_download_url - Invoke-WebRequest -Uri $downloadUrl -OutFile $tempZipPath - - # Extract the contents of the ZIP file to a temporary folder - New-Item -ItemType Directory -Path $tempExtractPath -Force - Expand-Archive -Path $tempZipPath -DestinationPath $tempExtractPath - - # Copy all .jar files to the Java APM Agent 'extensions' directory - Get-ChildItem -Path $tempExtractPath -Filter "*.jar" | Copy-Item -Destination $extensionsDir - - # Clean up temporary files - Remove-Item -Path $tempZipPath -Force - Remove-Item -Path $tempExtractPath -Recurse -Force - ``` - - - - Desde [instrumentación Java para versiones de extensiones Vert.x](https://github.com/newrelic/newrelic-java-vertx-extensions/releases/), descargue `vertx-instrumentation-vx.y.z.zip` a un directorio temporal y descomprímalo. Copie todos los archivos `jar` a la carpeta `extensions` del agente Java de New Relic APM. - - - - -## Verifica tu integración - -Luego de configurar la instrumentación Java para Vert.x Extensiones, puede visualizar la transacción y traza de las extensiones Vert.x de su aplicación directamente dentro de New Relic APM y Servicios. - -## Informar problemas de integración - -Si tiene algún problema con la instrumentación Java para Vert.x Extensiones, infórmalas en el [repositorio de GitHub](https://github.com/newrelic/newrelic-java-vertx-extensions/issues). Sus comentarios nos ayudan a identificar y abordar los problemas rápidamente, lo que garantiza una experiencia de monitoreo fluida y confiable para Vert.x. aplicación. ¡Gracias por contribuir a la mejora de nuestra integración! \ No newline at end of file diff --git a/src/i18n/content/es/docs/more-integrations/open-source-telemetry-integrations/airflow/monitoring-airflow-ot.mdx b/src/i18n/content/es/docs/more-integrations/open-source-telemetry-integrations/airflow/monitoring-airflow-ot.mdx deleted file mode 100644 index 11e5134462b..00000000000 --- a/src/i18n/content/es/docs/more-integrations/open-source-telemetry-integrations/airflow/monitoring-airflow-ot.mdx +++ /dev/null @@ -1,172 +0,0 @@ ---- -title: Monitor el flujo de aire de Apache con OpenTelemetry -tags: - - Integrations - - Open source telemetry integrations - - OpenTelemetry - - Airflow - - Quickstart -metaDescription: Monitor Airflow data with New Relic using OpenTelemetry. -freshnessValidatedDate: '2023-11-16T00:00:00.000Z' -translationType: machine ---- - -import opentelemetryAirflow01 from 'images/opentelemetry_screenshot_airflow_01.webp' - -import opentelemetryAirflow02 from 'images/opentelemetry_screenshot_airflow_02.webp' - -monitor los datos de Apache Airflow configurando [OpenTelemetry](https://airflow.apache.org/docs/apache-airflow/stable/administration-and-deployment/logging-monitoring/metrics.html#setup-opentelemetry) para enviar datos a New Relic, donde puede visualizar tareas, operadores y ejecuciones de DAG como métrica. - -Screenshot showing sample Airflow DAG runs in New Relic - -## Requisitos previos [#prerequisites] - -Antes de habilitar OpenTelemetry en Apache Airflow, deberá instalar el paquete Airflow con el extra `otel` . El método de instalación depende de su enfoque de implementación de Airflow: - -### Opción 1: instalación desde PyPi [#install-pypi] - -1. Siga las instrucciones de instalación de [la documentación de Airflow](https://airflow.apache.org/docs/apache-airflow/stable/installation/installing-from-pypi.html). - -2. Al instalar con pip, agregue el `otel` adicional al comando. Por ejemplo: - - `pip install "apache-airflow[otel]"` - -### Opción 2: instalación desde docker [#install-docker] - -1. Configure la imagen de Airflow Docker siguiendo las instrucciones de [la documentación de Airflow](https://airflow.apache.org/docs/docker-stack/index.html). - -2. Amplíe la imagen docker prediseñada utilizando un Dockerfile para instalar el extra `otel`. Puede reemplazar la última etiqueta con la versión que desee de la imagen. - - ``` - FROM apache/airflow:latest - RUN pip install --no-cache-dir "apache-airflow[otel]==$AIRFLOW_VERSION" - ``` - - - `$AIRFLOW_VERSION` ya está configurado por el contenedor apache/airflow, pero se puede reemplazar con un número de versión para otras imágenes base. - - -## Configuración [#configuration] - -Para enviar Airflow métrica a New Relic, configure la métrica OpenTelemetry para exportar datos a un [recolector OpenTelemetry](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/collector/opentelemetry-collector-intro/), que luego reenviará los datos a un [extremo OTLP](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/opentelemetry-setup/#note-endpoints) de New Relic usando un . - - - Debido a la actual falta de soporte de Airflow para enviar datos de OpenTelemetry con encabezados de autenticación, el recolector de OpenTelemetry es esencial para autenticarse con New Relic. - - -### Configurar el recolector OpenTelemetry [#configuration-collector] - -1. Siga el [ejemplo del recolector básico](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/collector/opentelemetry-collector-basic/) para configurar su recolector OpenTelemetry. - -2. Configure el recolector con su extremo OTLP apropiado, como `https://otlp.nr-data.net:4317`. - -3. Para la autenticación, agregue su - - - - a la variable de entorno `NEW_RELIC_LICENSE_KEY` para que complete el encabezado `api-key` . - -4. Asegúrese de que se pueda acceder al puerto 4318 en el recolector desde la instancia de Airflow en ejecución. (Para docker, es posible que necesite utilizar una [reddocker ](https://docs.docker.com/network/)). - -5. Lanzamiento el recolector. - -### Configurar flujo de aire métrico [#configuration-airflow] - -Airflow envía métrica usando OTLP sobre HTTP, que usa el puerto `4318`. Airflow tiene múltiples métodos para [configurar las opciones de configuración](https://airflow.apache.org/docs/apache-airflow/stable/howto/set-config.html). - - - Si su entorno tiene Airflow ejecutándose en un contenedor docker junto con el recolector OpenTelemetry, deberá cambiar la configuración `otel_host` de `localhost` a la dirección del contenedor del recolector. - - -Elija uno de los siguientes métodos para configurar las opciones requeridas para Airflow. - -1. Configure las opciones requeridas en el archivo `airflow.cfg` . - - ``` - [metrics] - otel_on = True - otel_host = localhost - otel_port = 4318 - otel_ssl_active = False - ``` - -2. O establezca las opciones requeridas como variables de entorno. - - ``` - export AIRFLOW__METRICS__OTEL_ON=True - export AIRFLOW__METRICS__OTEL_HOST=localhost - export AIRFLOW__METRICS__OTEL_PORT=4318 - export AIRFLOW__METRICS__OTEL_SSL_ACTIVE=False - ``` - - - Airflow tiene [configuraciones métricas adicionales](https://airflow.apache.org/docs/apache-airflow/stable/administration-and-deployment/logging-monitoring/metrics.html#setup-opentelemetry) que pueden resultar útiles. Esto incluye la capacidad de [cambiar el nombre de las métricas](https://airflow.apache.org/docs/apache-airflow/stable/administration-and-deployment/logging-monitoring/metrics.html#rename-metrics) antes de enviarlas, lo cual resulta útil si los nombres de las métricas exceden el límite de 63 bytes para OpenTelemetry. - - -## Los datos de validación se envían a New Relic [#validation] - -Para confirmar que New Relic está recopilando sus datos de Airflow, ejecute un DAG o una tubería: - -1. Inicie sesión en flujo de aire. - -2. Haga clic en el botón Ejecutar en uno de los DAG del tutorial existente, o en el suyo propio. - -3. Espere a que la canalización termine de ejecutarse. - -4. Vaya a - - **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > APM & services > Services - OpenTelemetry > Airflow** - - . - -5. Haga clic en - - **Metrics Explorer** - - para visualizar métricas para ejecuciones de canalizaciones. - -## Panel de control del edificio [#building-dashboards] - -Con Airflow métrica, puede crear un panel sobre tuberías individuales, el rendimiento general o ver una comparación entre diferentes tuberías. Haga clic aquí para obtener más información sobre [cómo consultar su métrica](/docs/data-apis/understand-data/metric-data/query-metric-data-type/). - -Esta consulta recupera una lista de todas las métricas reportadas para Airflow: - -```sql -SELECT uniques(metricName) FROM Metric WHERE entity.name = 'Airflow' AND metricName LIKE 'airflow.%' SINCE 30 MINUTES AGO LIMIT 100 -``` - -Asegúrate de cambiar el límite (`100`) si tus nombres métricos lo exceden. - -Esta consulta muestra una comparación de diferentes tiempos de finalización para ejecuciones exitosas de diferentes DAG: - -```sql -SELECT latest(airflow.dagrun.duration.success) FROM Metric FACET dag_id WHERE entity.name = 'Airflow' SINCE 30 minutes AGO TIMESERIES -``` - -Screenshot showing sample Airflow DAG runs in New Relic - -Esta consulta muestra recuentos de ejecuciones DAG fallidas, que se pueden utilizar para crear para canalizaciones críticas: - -```sql -SELECT count(airflow.dagrun.duration.failed) FROM Metric FACET dag_id WHERE entity.name = 'Airflow' SINCE 30 minutes AGO TIMESERIES -``` - -Screenshot showing sample Airflow failures in New Relic - - - New Relic no mantiene las métricas OpenTelemetry de Airflow, por lo que si tiene algún problema con la instrumentación, [cree un nuevo problema en el repositorio de GitHub de Airflow](https://github.com/apache/airflow/issues). - - - \ No newline at end of file diff --git a/src/i18n/content/es/docs/more-integrations/open-source-telemetry-integrations/atlassian/atlassian-integration.mdx b/src/i18n/content/es/docs/more-integrations/open-source-telemetry-integrations/atlassian/atlassian-integration.mdx deleted file mode 100644 index 6192575090d..00000000000 --- a/src/i18n/content/es/docs/more-integrations/open-source-telemetry-integrations/atlassian/atlassian-integration.mdx +++ /dev/null @@ -1,123 +0,0 @@ ---- -title: Integración de Atlassian Jira -tags: - - Integrations - - Open source telemetry integrations - - OpenTelemetry - - Atlassian - - Quickstart -metaDescription: Monitor Atlassian with New Relic. -freshnessValidatedDate: '2024-04-24T00:00:00.000Z' -translationType: machine ---- - -import opentelemetryAtlassianNRapiToken from 'images/opentelemetry_screenshot-crop_connect-nr-jira.webp' - -import opentelemetryJiraIncidentManagement from 'images/opentelemetry_screenshot-full_jira-incident-mgt.webp' - -import opentelemetryJiraNRConfiguration from 'images/opentelemetry_screenshot-full_jira-nr-configuration.webp' - -New Relic ofrece una integración con Atlassian Jira que sincroniza su problema de New Relic y la información de incidentes con Jira. Estos datos luego aparecen en Jira en el [incidente característico](https://support.atlassian.com/jira-software-cloud/docs/what-is-the-incidents-feature/) y le permiten conectarlos con problemas de Jira para mejorar su flujo de trabajo de interrupción. Las secciones cubren cómo configurar esta integración y las mejores prácticas para usarla. - - - Esta característica aún está en versión preliminar, ¡pero te animamos a que la pruebes! - - -## Compartir datos [#data-sharing] - -Cuando instalas la aplicación New Relic para Jira desde Atlassian Marketplace, habilitas la integración para realizar estas acciones: - -* Lea entidad, incidente y problemas de Jira. -* Escribe entidad, incidente y issues a Jira. -* Elimine entidad, incidente y problemas tanto de New Relic como de Jira para reflejar los informes de datos con cada entidad. - - - Esta integración expondrá sus problemas de New Relic e información sobre incidentes a todos los usuarios en el espacio de trabajo de Jira relacionado. Es posible que el usuario de Jira en este espacio de trabajo no tenga acceso a New Relic e, incluso si lo tuviera, es posible que no tenga acceso a las mismas cuentas New Relic que su usuario de clave de API. - - Si tiene información de cuenta de New Relic para ocultar, utilice un [usuario de integración](/docs/more-integrations/best-practices-integration/#integration-user-leverage) que no tenga acceso a sus cuentas confidenciales. - - -## Instalacion [#installation] - -Siga estos pasos para integrar New Relic con Jira. - - - - ## Instale la aplicación New Relic para Jira [#install-nr-jira-app] - - Debes instalar la aplicación New Relic for Jira para sincronizar tus datos entre New Relic y Atlassian. Tenga en cuenta que debe tener la licencia de administrador del sitio Jira para instalar la aplicación Marketplace. Vaya a [Atlassian Marketplace](https://marketplace.atlassian.com/apps/1233828/new-relic-for-jira?tab=overview&hosting=cloud) y haga clic en el botón **Install**. - - - Si no tiene el permiso de administrador del sitio, puede solicitarlo a su administrador. Le recomendamos que haga un seguimiento con el administrador de su sitio Jira para completar el proceso de instalación de la aplicación. - - - - - ## Crear una clave API de New Relic [#create-new-relic-key] - - Luego de instalar la aplicación New Relic para Jira, deberá crear una [clave API deNew Relic ](/docs/apis/intro-apis/new-relic-api-keys/). El administrador del sitio de Jira y el administrador de New Relic decidirán las cuentas expuestas a Jira. El usuario que tenga el acceso correcto a la cuenta de New Relic , podrá generar una clave de API de New Relic. La clave de API de New Relic tiene acceso a las mismas cuentas que el usuario que las generó. - - Cree y administre su clave de API desde la [New Relic página de clave de API UI](https://one.newrelic.com/launcher/api-keys-ui.api-keys-launcher) o en la página log del [API token de](https://id.atlassian.com/manage-profile/security/api-tokens) Atlassian y haga clic en **Create API token**. - - - - ## Aplicar una clave de API de New Relic [#apply-new-relic-key] - - Una vez que haya creado una clave de API, puede aplicar esa clave a la primera página de la aplicación New Relic Connect. - - Pegue su token API de New Relic en la aplicación New Relic Atlassian Marketplace y haga clic en **Connect**. - - Apply a New Relic API key - - - - ## Seleccione sus servicios New Relic [#select-nr-services] - - Una vez que la aplicación New Relic for Jira esté conectada a través de una clave de API, verá una lista de todas las entidades asociadas con las cuentas en esa clave de API. Selecciona el incidente característico en la navegación, luego conecta cualquier entidad que quieras exponer en Jira. - - Aprenda cómo [conectar y eliminar servicios en Jira](https://support.atlassian.com/jira-software-cloud/docs/connect-jira-service-management-services-to-jira-software/). - - Jira incident management page - - - - ## Ver problemas e incidentes New Relic en Atlassian Jira [#see-issues-incidents] - - Después de haber seleccionado su entidad New Relic , la aplicación comienza a sincronizar datos de New Relic en Atlassian Jira. Abra la pestaña de incidentes para ver una lista de incidentes detectados. - - - -## Habilitar el incidente característico [#enable-incidents-feature] - -Si tiene licencias de administrador del proyecto, siga estos pasos para habilitar la característica de incidente: - -1. Desde la barra lateral de su proyecto, vaya a **Project settings > Features**. -2. Activa o desactiva la característica **Incidents**. -3. Una vez habilitado, seleccione **Incidents** en la barra lateral de su proyecto para usar la característica. - -Consulta la página [de incidentes característicos](https://support.atlassian.com/jira-software-cloud/docs/what-is-the-incidents-feature/) en la documentación de soporte de Atlassian para obtener más información. - -## Eliminar una conexión entre New Relic y Jira [#remove-connection] - -Puede dejar de sincronizar datos de New Relic y eliminar los datos sincronizados en cualquier momento. Si tiene licencias de administrador del sitio de Jira, puede hacerlo desde la página de configuración de New Relic dentro de Jira. Puede seleccionar su organización conectada y hacer clic en **Delete**. Una vez que finalice el proceso, ya no verás el incidente New Relic ni la información del problema en el incidente característico de Jira. - -## Conectar a una organización diferente [#different-organization] - -Para conectarse a una organización diferente o cambiar el acceso a la cuenta que proporciona su clave de API, vaya a la página de configuración de New Relic dentro de Jira. - -Cuando seleccione **Connect another New Relic organization**, deberá proporcionar una clave API de New Relic. Agregar una nueva clave eliminará su conexión actual, incluidos todos los datos sincronizados con Atlassian. Luego iniciará un nuevo proceso de sincronización entre la cuenta y el acceso de la organización a la nueva clave de API. - -New Relic configuration from Jira \ No newline at end of file diff --git a/src/i18n/content/es/docs/more-integrations/open-source-telemetry-integrations/dojo/dojo-io-integration.mdx b/src/i18n/content/es/docs/more-integrations/open-source-telemetry-integrations/dojo/dojo-io-integration.mdx deleted file mode 100644 index a88a1ca1f6d..00000000000 --- a/src/i18n/content/es/docs/more-integrations/open-source-telemetry-integrations/dojo/dojo-io-integration.mdx +++ /dev/null @@ -1,43 +0,0 @@ ---- -title: Integración de Dojo.io -tags: - - dojo.io integration - - dojo integration - - new relic integrations -metaDescription: The New Relic Dojo.io integration sends performance metrics and inventory data from your Dojo.io framework to the New Relic platform. -freshnessValidatedDate: never -translationType: machine ---- - -import dojodashboard from 'images/infrastructure_screenshot-crop_dojo-dashboard.webp' - -Con la ayuda del dashboard Dojo de New Relic, puede realizar un seguimiento de las principales Métricas web de su aplicación, cuánto tiempo pasa su usuario en su sitio y métricas críticas del rendimiento browser , como la carga inicial de la página y las páginas con errores de Javascript. Creado con nuestro agente, el dashboard de Dojo le permite ver todos sus datos más importantes en un solo lugar. - -A screenshot of the Dojo dashboard - -## Instalar el agente de infraestructura (opcional) [#infra-install] - -Si bien nuestra integración de Dojo no está creada con nuestro agente de infraestructura, recomendamos instalarla si desea obtener datos de rendimiento sobre sus hosts. Puede instalar el agente de infraestructura de dos maneras diferentes: - -* Nuestra [instalación guiada](https://one.newrelic.com/nr1-core?state=4f81feab-35f7-e97e-9903-52510f8542bd) es una herramienta CLI que inspecciona su sistema e instala el agente de infraestructura junto con el agente de monitoreo de aplicaciones que mejor funcione para su sistema. Para obtener más información sobre cómo funciona nuestra instalación guiada, consulte nuestra [descripción general de la instalación guiada](/docs/infrastructure/host-integrations/installation/new-relic-guided-install-overview). -* Si prefiere instalar nuestro agente de infraestructura manualmente, puede seguir un tutorial para la instalación manual para [Linux](/docs/infrastructure/install-infrastructure-agent/linux-installation/install-infrastructure-monitoring-agent-linux), [Windows](/docs/infrastructure/install-infrastructure-agent/windows-installation/install-infrastructure-monitoring-agent-windows/) o [macOS](/docs/infrastructure/install-infrastructure-agent/macos-installation/install-infrastructure-monitoring-agent-macos/). - -## Instalar el agente del navegador [#browser-install] - -1. Instale nuestro agente del navegador yendo a nuestro [iniciador de instalación](https://one.newrelic.com/marketplace?account=3510613&state=79352429-fa28-4c25-1123-30c4b23ff83c) y haciendo clic en - - **Browser monitoring** - - . - -2. Seleccione su cuenta y siga las instrucciones en la UI. - -3. Instale el dashboard de Dojo prediseñado en la [página de observabilidad instantánea de Dojo.](https://newrelic.com/instant-observability/dojo) - -## ¿Que sigue? [#whats-next] - -Con el agente del navegador instalado e equipado con su aplicación, podrá ver sus datos sin procesar en [métrica & evento](/docs/query-your-data/explore-query-data/browse-data/introduction-data-explorer/). El valor predeterminado transforma los datos sin procesar en tablas y gráficos que brindan una vista de alto nivel del estado de su sistema. Para instalar nuestro panel predeterminado, vaya a nuestra [página de observabilidad instantánea](https://newrelic.com/instant-observability/) \ No newline at end of file diff --git a/src/i18n/content/es/docs/more-integrations/open-source-telemetry-integrations/dropwizard/dropwizard-reporter.mdx b/src/i18n/content/es/docs/more-integrations/open-source-telemetry-integrations/dropwizard/dropwizard-reporter.mdx deleted file mode 100644 index 0b771b8461d..00000000000 --- a/src/i18n/content/es/docs/more-integrations/open-source-telemetry-integrations/dropwizard/dropwizard-reporter.mdx +++ /dev/null @@ -1,27 +0,0 @@ ---- -title: Reportero del asistente desplegable -tags: - - Integrations - - Open source telemetry integrations - - Dropwizard -metaDescription: New Relic offers an integration that exports data from your DropWizard and sends it to your New Relic account. -freshnessValidatedDate: never -translationType: machine ---- - -[Dropwizard](https://www.dropwizard.io/en/latest/) es un framework de Java para desarrollar servicios web RESTful de alto rendimiento y fáciles de operar al proporcionar instrumentación métrica lista para usar. El reportero DropWizard de New Relic envía su métrica Dropwizard a su cuenta New Relic. - -¿Quieres probar nuestro reportero Dropwizard? ¡ [Crea una cuenta New Relic](https://newrelic.com/signup) gratis! No se requiere tarjeta de crédito. - -Recursos para nuestro reportero de Dropwizard: - -* [LÉAME](https://github.com/newrelic/dropwizard-metrics-newrelic) -* [Especificaciones de integración](https://github.com/newrelic/newrelic-exporter-specs/tree/master/dropwizard) - -## Encuentra tus datos - -Para encontrar tus datos, ve a **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > All entities**. Busque su servicio por nombre. Desde allí, puede explorar su métrica usando **Metrics and events** y crear un panel usando su métrica. - -Para obtener más información sobre cómo consultar sus datos una vez que estén en New Relic, consulte [consultar sus datos](/docs/using-new-relic/data/understand-data/query-new-relic-data) e [Introducción a NRQL](/docs/query-data/nrql-new-relic-query-language/getting-started/introduction-nrql). - - \ No newline at end of file diff --git a/src/i18n/content/es/docs/more-integrations/open-source-telemetry-integrations/elixir/elixir-open-source-agent.mdx b/src/i18n/content/es/docs/more-integrations/open-source-telemetry-integrations/elixir/elixir-open-source-agent.mdx deleted file mode 100644 index 0a0aedff9db..00000000000 --- a/src/i18n/content/es/docs/more-integrations/open-source-telemetry-integrations/elixir/elixir-open-source-agent.mdx +++ /dev/null @@ -1,27 +0,0 @@ ---- -title: Agente de código abierto Elixir -tags: - - Agents - - Open-source licensed agents - - Open-source licensed agents -metaDescription: A brief introduction to New Relic's open-source Elixir agent. -freshnessValidatedDate: never -translationType: machine ---- - -Monitor el comportamiento [de Elixir](https://github.com/newrelic/elixir_agent) con New Relic utilizando el agente de código abierto de Elixir. El agente: - -* Le ayuda a rastrear transacciones, rastreo distribuido y otras partes del comportamiento de su aplicación. -* Proporciona una descripción general de la actividad [BEAM](http://erlang.org/faq/implementations.html#idp32950544) subyacente. - - - Este agente se publica como código abierto en [GitHub](https://github.com/newrelic/). También hay disponible un log de cambios para las últimas actualizaciones. - - -## Empezar [#get_started] - -Para obtener información sobre requisitos, instalación y configuración, consulte el [archivo README del agente Elixir de código abierto](https://github.com/newrelic/elixir_agent/blob/master/README.md) en GitHub. - -Visite [el repositorio Elixir de New Relic en GitHub](https://github.com/newrelic/elixir_agent) si tiene preguntas sobre la instalación, el uso u otros temas. Informar problemas o errores como problema en el [repositorio de GitHub](https://github.com/newrelic/elixir_agent/issues). - - \ No newline at end of file diff --git a/src/i18n/content/es/docs/more-integrations/open-source-telemetry-integrations/jenkins/monitoring-jenkins-ot.mdx b/src/i18n/content/es/docs/more-integrations/open-source-telemetry-integrations/jenkins/monitoring-jenkins-ot.mdx deleted file mode 100644 index 26434d04795..00000000000 --- a/src/i18n/content/es/docs/more-integrations/open-source-telemetry-integrations/jenkins/monitoring-jenkins-ot.mdx +++ /dev/null @@ -1,258 +0,0 @@ ---- -title: Monitor Jenkins con OpenTelemetry y New Relic -tags: - - Integrations - - Open source telemetry integrations - - OpenTelemetry - - Jenkins - - Quickstart -metaDescription: Here is a simple example to setup the Jenkins OpenTelemetry plugin to send data to New Relic. -freshnessValidatedDate: never -translationType: machine ---- - -import opentelemetryJenkis01 from 'images/opentelemetry_screenshot-full_jenkins-01.webp' - -import opentelemetryIntegrationsJenkins02 from 'images/opentelemetry_screenshot-full_integrations-jenkins-02.webp' - -import opentelemetryIntegrationsJenkins03 from 'images/opentelemetry_screenshot-full_integrations-jenkins-03.webp' - -import opentelemetryOpentelemetryJenkins04 from 'images/opentelemetry_screenshot-full_opentelemetry-jenkins-04.webp' - -import opentelemetryJenkins05 from 'images/opentelemetry_screenshot-full_jenkins-05.webp' - -Monitor Jenkins con el [complemento OpenTelemetry](https://plugins.jenkins.io/opentelemetry) visualizando trabajos y ejecuciones de canalizaciones como [rastreo distribuido](/docs/distributed-tracing/concepts/introduction-distributed-tracing). También puede instalar el [inicio rápido](https://newrelic.com/instant-observability/jenkins) para obtener un dashboard prediseñado para monitor su canalización de Jenkins. - -Screenshot showing sample Jenkins dashboard in New Relic - -## Requisitos previos [#prerequisites] - -Primero debe instalar el complemento OpenTelemetry de Jenkins: - -1. Log en Jenkins. - -2. Desde el dashboard, haga clic en - - **Manage Jenkins** - - . - -3. En Configuración del sistema, haga clic en - - **Plugins** - - . - -4. Haga clic en la pestaña - - **Available plugins** - - y busque - - **OpenTelemetry** - - . - -5. Seleccione la casilla de verificación - - **OpenTelemetry** - - y - - **Install without restart** - - . - -6. Una vez completada la instalación, haga clic en - - **Manage Jenkins** - - . - -7. En - - **System Configuration** - - , haga clic en - - **System** - - . - -8. Desplácese hacia abajo y busque una sección llamada - - **OpenTelemetry** - - . Si no puede verlo, reinicie Jenkins. - -Screenshot showing Jenkins OpenTelemetry plugin - -## Configuración [#configuration] - -Necesita un [extremo OTLP](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/opentelemetry-setup/#note-endpoints) de New Relic y un para configurar el complemento Jenkins OpenTelemetry para enviar datos a New Relic. - -Screenshot showing Jenkins OpenTelemetry configuration - -1. Ingrese un extremo OTLP. Por ejemplo, `https://otlp.nr-data.net:4317`. - -2. Para autenticación, seleccione - - **Header Authentication** - - : a. En el campo - - **Header Name** - - , ingrese - - **api-key** - - . b. En el campo - - **Header Value** - - , ingrese un texto secreto que contenga su clave de licencia de ingesta de New Relic. - -3. Guarde los cambios. - -Si no tiene un texto secreto creado con su clave de licencia de New Relic, haga clic en el botón **+ Add** y seleccione **Jenkins Credentials Provider** para crear uno. Puede mantener los valores predeterminados excepto **kind** y **secret** y el **description** es opcional. - -Screenshot showing Jenkins Credential Provider - -1. En el menú desplegable - - **Kind** - - , seleccione - - **Secret text** - - . - -2. En el campo - - **secret** - - , ingrese su clave de licencia de ingesta de New Relic. - -3. Opcionalmente, agregue una descripción para indicar para qué sirve el texto secreto. - -## Validación [#validation] - -Ejecute un trabajo o cree una nueva canalización para ver los datos de Jenkins en New Relic. A continuación se explica cómo construir una tubería: - -1. Log en Jenkins y haga clic en - - **New Item** - - . - -2. Introduzca un nombre de elemento, haga clic en - - **Pipeline** - - y luego - - **OK** - - . - -3. Desplácese hasta el final de la sección - - **Pipeline** - - . - -4. Utilice la script Pipeline y seleccione una opción del menú desplegable - - **try sample Pipeline...** - - . - -5. Clic en Guardar. - -6. En la canalización recién creada, haga clic en - - **Build Now** - - . - -7. Llegué a - - **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > APM & services > Services - OpenTelemetry > jenkins** - - . - -8. Haga clic en - - **Distributed tracing** - - para visualizar trabajos y ejecuciones de canalizaciones. - -9. Haga clic en - - **Logs** - - para ver el registro de su consola Jenkins. Si no hay ningún registro, verifique que la variable de entorno `OTEL_LOGS_EXPORTER="otlp"` esté configurada. - -Screenshot showing Jenkins OpenTelemetry plugin - -## Instale el dashboard de inicio rápido de Jenkins [#quickstart] - -Después de haber enviado los datos de su canalización de Jenkins a New Relic, también puede monitor fácilmente sus trabajos y ejecuciones de canalización con el dashboard prediseñado de [New Relic Instant observabilidad](http://newrelic.com/instant-observability). Comience en minutos con un dashboard prediseñado para ver las métricas clave en una vista consolidada: - -1. Vaya al inicio rápido de Jenkins en [Observabilidad instantánea de New Relic](https://newrelic.com/instant-observability/jenkins) y haga clic en - - **+ Install now** - - . - -2. Seleccione una cuenta y haga clic en - - **Begin installation** - - . - -3. Si ya completó la [validación](#validation), seleccione - - **done** - - para pasar al siguiente paso. - -4. El inicio rápido desplegar los recursos a su cuenta. Haga clic en - - **see your data** - - para acceder al dashboard. - -Jenkins quickstart dashboard in New Relic - - - New Relic no mantiene el complemento Jenkins OpenTelemetry, por lo que si tiene algún problema con la instrumentación, [cree un nuevo problema en el repositorio de GitHub del complemento](https://github.com/jenkinsci/opentelemetry-plugin/issues). - - - \ No newline at end of file diff --git a/src/i18n/content/es/docs/more-integrations/open-source-telemetry-integrations/kamon/kamon-reporter.mdx b/src/i18n/content/es/docs/more-integrations/open-source-telemetry-integrations/kamon/kamon-reporter.mdx deleted file mode 100644 index ff5c3f96cf2..00000000000 --- a/src/i18n/content/es/docs/more-integrations/open-source-telemetry-integrations/kamon/kamon-reporter.mdx +++ /dev/null @@ -1,44 +0,0 @@ ---- -title: Reportero kamon -tags: - - Integrations - - Open source telemetry integrations - - Kamon -metaDescription: New Relic's Kamon reporter can send telemetry data from your Kamon-instrumented applications to your New Relic account. -freshnessValidatedDate: never -translationType: machine ---- - -[Kamon](https://kamon.io/) proporciona un conjunto de herramientas de instrumentación que se especializa en instrumentación automática de aplicaciones Scala y Akka. Consta de API para instrumentación métrica y de rastreo y módulos de instrumentación automática que crean aplicación métrica y rastreo distribuida. - -Kamon también proporciona módulos de reportero para transferir telemetry data al backend de su elección. El reportero Kamon de New Relic está incluido en el paquete Kamon y puede configurarlo para enviar telemetry data desde su aplicación Kamon instrumentado a su cuenta de New Relic. - -## Habilitar reportero Kamon [#install] - -Para habilitar nuestro reportero Kamon: - -1. Si aún no lo ha hecho, [cree una cuenta New Relic](https://newrelic.com/signup). Es gratis, para siempre. - -2. Siga las [instrucciones de instalación de Kamon Reporter](https://kamon.io/docs/latest/reporters/newrelic/). - -3. Opcional: en lugar de utilizar el Kamon muestreo de trazas nativo, puede habilitar nuestra característica [Infinite Tracing](/docs/introduction-infinite-tracing) . Si utiliza esta opción, normalmente querrá configurar Kamon para que nos envíe todos los datos de la traza ([obtenga más información sobre el muestreo](/docs/distributed-tracing/concepts/how-new-relic-distributed-tracing-works)). Para habilitar el seguimiento infinito: - - 1. En la UI de New Relic, [configure un observador de trazas](/docs/infinite-tracing-set-trace-observer#set-up). - 2. Configure nuestro reportero Kamon para enviar datos al observador de traza: establezca el valor [`span-ingest-uri`](https://kamon.io/docs/latest/reporters/newrelic/) en [YOUR_TRACE_OBSERVER_URL](/docs/infinite-tracing-set-trace-observer#ui-endpoints) en su bloque de configuración `kamon.newrelic` . - - - -## Encuentra tus datos - -Para encontrar tus datos, ve a **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > All entities**. Busque su servicio por nombre. Proporcionamos una descripción general lista para usar que incluye gráficos de algunas de las métricas más útiles proporcionadas por la instrumentación Kamon. Si también estás enviando datos de rastreo distribuido, la característica **Distributed tracing** está disponible para consultar y ver la traza. - -Puede utilizar la descripción general lista para usar como punto de partida para crear su propio panel. Haga clic en el icono `...` en un gráfico para agregar ese gráfico a un dashboard o vea la consulta detrás del gráfico para modificarlo y agregarlo a su dashboard. - -Para obtener más información sobre cómo consultar sus datos una vez que estén en New Relic, consulte [consultar sus datos](/docs/using-new-relic/data/understand-data/query-new-relic-data) e [Introducción a NRQL](/docs/query-data/nrql-new-relic-query-language/getting-started/introduction-nrql). - -## Recursos - -Nuestros recursos para reporteros de Kamon incluyen: - -* [Guía de instalación y configuración](https://kamon.io/docs/latest/reporters/newrelic/) (sitio Kamon) -* [Especificaciones de integración](https://github.com/newrelic/newrelic-exporter-specs/tree/master/kamon) (New Relic GitHub) \ No newline at end of file diff --git a/src/i18n/content/es/docs/more-integrations/open-source-telemetry-integrations/lampy/lampy-integration.mdx b/src/i18n/content/es/docs/more-integrations/open-source-telemetry-integrations/lampy/lampy-integration.mdx deleted file mode 100644 index 005f2f78f73..00000000000 --- a/src/i18n/content/es/docs/more-integrations/open-source-telemetry-integrations/lampy/lampy-integration.mdx +++ /dev/null @@ -1,139 +0,0 @@ ---- -title: Integración de monitoreo stack LAMPy -tags: - - New Relic integrations - - LAMPy - - Linux - - Apache - - Python - - MySQL -metaDescription: 'Use New Relic Linux, Apache, Python and MySQL monitoring to get a dashboard with metrics from your LAMPy application.' -freshnessValidatedDate: never -translationType: machine ---- - -import infrastructureLampyDashboard from 'images/infrastructure_screenshot-full_lampy-dashboard-1.webp' - -Nuestra integración LAMPy utiliza el agente de infraestructura, la integración MySQL, la integración Apache y el agente Python para brindarle un dashboard prediseñado con sus métricas más importantes, como el tiempo de respuesta, la utilización de la CPU, el tráfico y las frecuencias de inicio de sesión. - -A screenshot depicting the LAMPy prebuilt dashboard - -
- Después de configurar nuestra integración LAMPy, le brindamos un dashboard para su aplicación web LAMPy. -
- -## Paso 1: instalar el agente de infraestructura [#infra-install] - -Para hacer esto, siga [los pasos de instalación del agente de infraestructura](/docs/infrastructure/install-infrastructure-agent/linux-installation/install-infrastructure-monitoring-agent-linux) para el host que contiene su aplicación LAMPy. - -## Paso 2: Instale la integración MySQL [#mysql-install] - -Nuestra integración LAMPy depende de la integración MySQL para funcionar. Para obtener más información y comprobar los requisitos, revise nuestros [documentos de MySQL](/install/mysql/). - -1. Desde [one.newrelic.com,](https://one.newrelic.com) haga clic en - - **Add data > Infrastructure & OS > MySQL** - - . - -2. Siga las instrucciones para instalar el agente MySQL. - -## Paso 3: instale la integración de Apache [#apache-install] - -Nuestra integración LAMPy depende de la integración de Apache para funcionar. Para obtener más información y comprobar los requisitos, consulte nuestros [documentos de Apache](/docs/infrastructure/host-integrations/host-integrations-list/apache-monitoring-integration/). - -1. Desde [one.newrelic.com,](https://one.newrelic.com) haga clic en - - **Add data > Infrastructure & OS > Apache** - - . - -2. Siga las instrucciones en pantalla para instalar el agente Apache. - -## Paso 4: instalar el agente Python [#python-install] - -Nuestra integración LAMPy depende del agente Python para funcionar. Para obtener más información y comprobar los requisitos, consulte nuestros [documentos de Python](/docs/apm/agents/python-agent/getting-started/introduction-new-relic-python/). - -1. Desde [one.newrelic.com,](https://one.newrelic.com) haga clic en **Add data > Application monitoring > Python**. - -2. Nombra tu aplicación. - -3. Descargue el archivo de configuración y colóquelo en el directorio raíz de su aplicación. - -4. Integre su agente Python que está conectado al sitio web de Django. Este agente Python también se ejecuta en el servidor Apache. - -5. Agregue esta línea a su archivo `settings.py` : - - ```py - NEW_RELIC_CONFIG_FILE = BASE_DIR / 'newrelic.ini' - ``` - -6. Agregue estas líneas a su archivo `wsgi.py` : - - ```py - import newrelic.agent - - from django.conf import settings - from django.core.wsgi import get_wsgi_application - - application = get_wsgi_application() - - newrelic.agent.initialize(settings.NEW_RELIC_CONFIG_FILE) - newrelic.agent.WSGIApplicationWrapper(application) - - ``` - -## Paso 5: reinicie su servidor Apache - -Espere unos minutos y luego proceda a buscar sus datos en New Relic. - -## Encuentra tus datos [#find-data] - -Para obtener su dashboard LAMPy: - -1. Desde [one.newrelic.com](https://one.newrelic.com), vaya a la [página](https://one.newrelic.com/marketplace) - - [**Add data**](https://one.newrelic.com/marketplace) - - [ ](https://one.newrelic.com/marketplace). - -2. Haga clic en - - **Dashboards** - - . - -3. En la barra de búsqueda, escriba `LAMPy`. - -4. Debería aparecer el dashboard de LAMPy. Haga clic en él para instalarlo. - -Su dashboard de LAMPy se considera un panel personalizado y se puede encontrar en la UI **Dashboards**. Para obtener documentos sobre el uso y edición del panel, consulte [nuestros documentos dashboard ](/docs/query-your-data/explore-query-data/dashboards/introduction-dashboards). - -Para obtener información sobre los datos reportados, consulte los documentos de cada una de las herramientas que instaló: - -* [Datos de linux](/docs/infrastructure/install-infrastructure-agent/linux-installation/install-infrastructure-monitoring-agent-linux/) -* [Datos MySQL](/install/mysql/#metrics) -* [Datos de apache](/docs/infrastructure/host-integrations/host-integrations-list/apache-monitoring-integration/) -* [Datos de Python](/docs/apm/agents/python-agent/getting-started/introduction-new-relic-python/) - -Si instaló el agente de infraestructura, también recibirá [datos de infraestructura](/docs/infrastructure/manage-your-data/data-instrumentation/default-infrastructure-monitoring-data/#infrastructure-events). - -Aquí hay un ejemplo de consulta NRQL para verificar los bytes enviados por solicitud: - -```sql -SELECT (average(`apache.server.net.bytesPerSecond`) / average(`apache.server.net.requestsPerSecond`)) as 'Bytes sent per request' -FROM Metric -TIMESERIES auto -``` - -## ¿Que sigue? [#whats-next] - -Para obtener más información sobre cómo consultar sus datos y crear un panel personalizado, consulte estos documentos: - -* [Introducción al generador de consultas](/docs/query-your-data/explore-query-data/query-builder/introduction-query-builder) -* [Introducción al panel personalizado](/docs/query-your-data/explore-query-data/dashboards/introduction-dashboards) -* [Administra tu dashboard](/docs/query-your-data/explore-query-data/dashboards/manage-your-dashboard) \ No newline at end of file diff --git a/src/i18n/content/es/docs/more-integrations/open-source-telemetry-integrations/micrometer/micrometer-metrics-registry.mdx b/src/i18n/content/es/docs/more-integrations/open-source-telemetry-integrations/micrometer/micrometer-metrics-registry.mdx deleted file mode 100644 index 706a31a0a21..00000000000 --- a/src/i18n/content/es/docs/more-integrations/open-source-telemetry-integrations/micrometer/micrometer-metrics-registry.mdx +++ /dev/null @@ -1,147 +0,0 @@ ---- -title: Reenviar datos de Micrometer a New Relic con OpenTelemetry -metaDescription: New Relic offers an integration that sends your Micrometer telemetry data to your New Relic account. -freshnessValidatedDate: never -translationType: machine ---- - -import opentelemetryMicrometerWithOtel from 'images/opentelemetry_screenshot-full_micrometer-with-otel.webp' - -New Relic admite [datos de Micrometer](https://micrometer.io/) para que puedas ver toda tu observabilidad métrica en una sola plataforma. Configurará el [puente OpenTelemetry Micrometer](https://github.com/open-telemetry/opentelemetry-java-instrumentation/tree/main/instrumentation/micrometer/micrometer-1.5/library) con el SDK de OpenTelemetry y luego utilizará el protocolo OpenTelemetry (OTLP) para reenviar los datos de su Micrometer a New Relic. - -A screenshot of the Micrometer summary page when instrumented with OpenTelemetry - -
- Vaya a **[one.newrelic.com](https://one.newrelic.com) > All Capabilities > APM & Services**, luego busque la sección **Services - OpenTelemetry** : vea los datos de su Micrometer en New Relic cuando esté conectado a través de OpenTelemetry -
- -## Compatibilidad y requisitos [#requirements] - -Antes de seguir estos procedimientos, debe: - -* Configurar el SDK OpenTelemetry métrica para [exportar datos a New Relic vía OTLP](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/opentelemetry-introduction/#how-it-works) -* Instale el puente OpenTelemetry Micrometer - -## Reenviar datos del Micrometer a New Relic [#forward-data-OpenTelemetry] - -Estos son pasos generalizados para configurar el reenvío Micrometer métrica. Es posible que desee actualizar el fragmento de código según sea necesario para adaptarlo a su entorno específico. - - - - ### Agregar instrumentación de OpenTelemetry Micrometer - - Agregue la instrumentación de OpenTelemetry Micrometer a la sección de módulos alfa de su archivo `build.gradle` : - - ```groovy - //Alpha modules - implementation 'io.opentelemetry.instrumentation:opentelemetry-micrometer-1.5' - ``` - - - - ### Agregar dependencia OpenTelemetry - - En la sección `dependencies` , agregue el SDK de OpenTelemetry y el exportador OTLP: - - ```groovy - dependencies { - implementation 'io.opentelemetry:opentelemetry-sdk' - implementation 'io.opentelemetry:opentelemetry-exporters-otlp' - } - ``` - - Un archivo de ejemplo con módulos alfa y dependencias agregadas podría verse así: - - ```groovy - plugins { - id 'java-library' - id 'org.springframework.boot' - } - - bootRun { - mainClass.set 'io.opentelemetry.example.micrometer.Application' - } - - dependencies { - implementation platform("io.opentelemetry:opentelemetry-bom-alpha:JAVA_OTEL_VERSION") - implementation 'io.opentelemetry:opentelemetry-sdk' - implementation 'io.opentelemetry:opentelemetry-exporters-otlp' - - implementation platform("io.opentelemetry.instrumentation:opentelemetry-instrumentation-bom-alpha:OTEL_JAVA_INSTRUMENTATION_VERSION") - implementation 'io.opentelemetry.instrumentation:opentelemetry-micrometer-1.5' - } - ``` - - Tenga en cuenta que deberá actualizar el fragmento con la versión correcta. - - - - ### Configurar Micrometer para reenviar datos a New Relic - - A continuación se muestra un fragmento de código de ejemplo que indica a Micrometer que utilice el puente OpenTelemetry Micrometer. - - Este fragmento actualiza su código para que OpenTelemetry pueda detectar datos de Micrometer y luego reenviar esos datos a New Relic: - - ```java - public OpenTelemetry openTelemetry() { - return OpenTelemetrySdk.builder() - .setMeterProvider( - SdkMeterProvider.builder() - .setResource( - Resource.getDefault() - .toBuilder() - .put("service.name", "micrometer-shim") - // Include instrumentation.provider=micrometer to enable - // micrometer metrics experience in New Relic - .put("instrumentation.provider", "micrometer") - .build()) - .registerMetricReader( - PeriodicMetricReader.builder( - OtlpHttpMetricExporter.builder() - .setEndpoint("https://otlp.nr-data.net") - .addHeader("api-key", - Optional - .ofNullable(System.getenv("NEW_RELIC_LICENSE_KEY")) - .filter(str -> !str.isEmpty() && !str.isBlank()) - .orElseThrow()) - // IMPORTANT: New Relic exports data using delta - // temporality rather than cumulative temporality - .setAggregationTemporalitySelector( - AggregationTemporalitySelector - .deltaPreferred()) - // Use exponential histogram aggregation for - // histogram instruments to produce better data - // and compression - .setDefaultAggregationSelector( - DefaultAggregationSelector.getDefault().with( - InstrumentType.HISTOGRAM, - Aggregation.base2ExponentialBucketHistogram())) - .build()) - // Match default micrometer collection interval of 60 - // seconds - .setInterval(Duration.ofSeconds(60)) - .build()) - .build()) - .build(); - } - ``` - - - - ### Encuentra tus datos en New Relic - - Espere unos minutos, active algunos datos de prueba, luego vaya a **[one.newrelic.com](https://one.newrelic.com) > All Capabilities > APM & Services**, luego busque **Services - OpenTelemetry** para elegir el servicio instrumentado con Micrometer. - - - -## ¿Que sigue? [#whats-next] - -Para obtener más información sobre el uso de New Relic con datos de Micrometer, recomendamos estos documentos: - -* Aprenda a crear [visualizaciones personalizadas con el panel](/docs/query-your-data/explore-query-data/dashboards/introduction-dashboards) -* [Configure algunas alertas](/docs/tutorial-create-alerts/create-an-alert) para realizar un seguimiento del rendimiento del sistema -* [Consulta tus datos con NRQL](/docs/nrql/get-started/introduction-nrql-how-nrql-works) \ No newline at end of file diff --git a/src/i18n/content/es/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-best-practices-logs.mdx b/src/i18n/content/es/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-best-practices-logs.mdx deleted file mode 100644 index 8a00d377a22..00000000000 --- a/src/i18n/content/es/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-best-practices-logs.mdx +++ /dev/null @@ -1,207 +0,0 @@ ---- -title: Registro OpenTelemetry en New Relic -tags: - - Integrations - - Open source telemetry integrations - - OpenTelemetry - - Logs -metaDescription: Details on how New Relic works with OpenTelemetry logs -freshnessValidatedDate: '2024-05-17T00:00:00.000Z' -translationType: machine ---- - -Esta documentación se centra en cómo New Relic procesa el registro OpenTelemetry recibido a través de su extremo OTLP dedicado. - -Hay dos flujos de trabajo típicos para enviar registros OpenTelemetry a New Relic: - -* [Directo al recolector](https://opentelemetry.io/docs/specs/otel/logs/#direct-to-collector): - - * La aplicación puede enviar el registro directamente al New Relic OTLP endpoint. - * Consulte la [documentación del lenguaje OpenTelemetry](https://opentelemetry.io/docs/languages/) relevante para obtener detalles de implementación específicos y [el monitoreo de OpenTelemetry APM](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/get-started/apm-monitoring/opentelemetry-apm-intro/) para obtener detalles sobre los servicios de monitoreo con New Relic. - -* [A través de archivo o `stdout`](https://opentelemetry.io/docs/specs/otel/logs/#via-file-or-stdout-logs): - - * Este método implica extraer el registro de aplicación escrito en archivos o salida estándar (`stdout`). - - * El recolector OpenTelemetry se emplea normalmente para esta tarea. Luego, los troncos raspados se envían al OTLP New Relic endpoint. - - * Puede encontrar información de configuración detallada en los siguientes recursos de OpenTelemetry: - - * [Recolector OpenTelemetry](https://opentelemetry.io/docs/collector/) - * [Receptor de registros de archivos con Kubernetes](https://opentelemetry.io/docs/kubernetes/collector/components/#filelog-receiver) - * [Un ejemplo práctico que demuestra este flujo de trabajo para una aplicación Java usando Log4j2](https://github.com/newrelic/newrelic-opentelemetry-examples/tree/main/other-examples/java/logs-in-context-log4j2) - -Independientemente del método de recopilación elegido, una integración exitosa requiere configurar su fuente log para exportar registros a este extremo. Cerciorar de revisar los [requisitos de configuración extrema](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-otlp/#configure-endpoint-port-protocol) antes de continuar. - -## Mapeo de registro log OTLP [#otlp-log-mapping] - -New Relic asigna log de OTLP al tipo de datos `Log`. La siguiente tabla describe cómo los campos del [mensaje proto`LogRecord` ](https://github.com/open-telemetry/opentelemetry-proto/blob/main/opentelemetry/proto/logs/v1/logs.proto)se asignan a New Relic `Log`: - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
- Campo OTLP `logs.proto` - - Campo New Relic `Log` -
- `ResourceLogs.Resource.attributes` - - Cada valor principal es un atributo en el campo `Log` **\[1]** -
- `ScopeLogs.InstrumentationScope.name` - - `otel.library.name` -
- `ScopeLogs.InstrumentationScope.version` - - `otel.library.version` -
- `ScopeLogs.InstrumentationScope.attributes` - - Cada valor principal es un atributo en el campo `Log` **\[1]** -
- `LogRecord.time_unix_nanos` - - `timestamp` **\[2]** -
- `LogRecord.severity_number` - - `severity.number` -
- `LogRecord.severity_text` - - `severity.text` -
- `LogRecord.body` - - `message`, y posiblemente atributo analizado **\[3]** -
- `LogRecord.attributes` - - Cada valor principal es un atributo en el campo `Log` **\[1]** -
- `LogRecord.dropped_attribute_count` - - `otel.dropped_attributes_count` -
- `LogRecord.flags` - - `w3c.flags` (entero) -
- `LogRecord.trace_id` - - `trace.id` -
- `LogRecord.span_id` - - `span.id` -
- -### Notas a pie de tabla [#otlp-mapping-notes] - -**\[1]** En caso de conflicto en el atributo de recurso, el atributo de alcance, el atributo de registro log , los campos de registro log de nivel superior y el atributo analizado de `LogRecord.body` **\[3]**, el orden del precedente (de mayor a menor) es: atributo analizado de `LogRecord.body` -> campos de nivel superior `LogRecord.*` > `LogRecord.attributes` > `ScopeLogs.InstrumentationScope.attributes` > `ResourceLogs.Resource.attributes`. - -**\[2]** Si `LogRecord.time_unix_nanos` no está presente, `timestamp` se establece en la hora en que New Relic recibió los datos. - -**\[3]** [El análisis de registros](/docs/logs/ui-data/parsing/) se aplica a `LogRecord.body` para intentar extraer el atributo del texto log sin formato. Por ejemplo, si se emplea un formato log estructurado JSON, el valor principal se convierte en atributo en el log resultante. Esto es particularmente útil cuando se recopilan registros de archivos o `stdout`. En este caso, es común no tener ningún atributo de recurso asociado con el log (requerido para [la correlación del servicioAPM ](#service-correlation)) y ningún valor para `LogRecord.trace_id` / `LogRecord.span_id` (requerido para [la correlación de traza](#trace-correlation)). La correlación funcionará según lo previsto si los campos obligatorios se pueden analizar correctamente. - -## Correlación con el servicio OpenTelemetry APM [#service-correlation] - -log se correlacionan con una entidad de servicio si incluyen el [atributo requerido](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-best-practices-resources/#required-attributes). Normalmente, estos provienen del atributo de recurso del log, como `ResourceLogs.Resource.attributes`, pero también se pueden analizar desde `LogRecord.body` como se describe en [la nota al pie n.° 3 del mapeo de OTLP](#otlp-mapping-notes). - -Para ver el registro de un servicio, navegue hasta la [página de registro](/docs/logs/ui-data/use-logs-ui/) de ese servicio. - -## Correlación con trazas [#trace-correlation] - -Log se correlacionan con una traza si `trace.id` y `span.id` atributo se pueden resolver. Normalmente, estos provienen de los campos `LogRecord.trace_id` y `LogRecord.span_id` , pero también se pueden analizar desde `LogRecord.body` como se describe en la nota al pie 3 del [mapeo OTLP](#otlp-mapping-notes). - -Para ver el registro registrado en el contexto de una traza particular, tiene dos opciones: - -* Navegue a la pestaña de **Logs** dentro de la [página de detalles de la traza](/docs/distributed-tracing/ui-data/trace-details/#view-your-logs). -* Navegue a la [página de registro](/docs/logs/ui-data/use-logs-ui/) de un servicio y haga clic en un log para abrir los detalles log. Si está asociado a una traza, podrás navegar desde los **Log details** hasta los **Trace details**. \ No newline at end of file diff --git a/src/i18n/content/es/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-best-practices-metrics.mdx b/src/i18n/content/es/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-best-practices-metrics.mdx deleted file mode 100644 index 778342621dd..00000000000 --- a/src/i18n/content/es/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-best-practices-metrics.mdx +++ /dev/null @@ -1,458 +0,0 @@ ---- -title: Métricas de OpenTelemetry en New Relic -tags: - - Integrations - - Open source telemetry integrations - - OpenTelemetry -metaDescription: Details on how New Relic works with OpenTelemetry metrics -freshnessValidatedDate: '2024-05-23T00:00:00.000Z' -translationType: machine ---- - -OpenTelemetry proporciona un [modelo de datos](https://opentelemetry.io/docs/specs/otel/metrics/data-model/) métrico dimensional, una [API](https://opentelemetry.io/docs/specs/otel/metrics/api/) para registrar telemetría métrica y un [SDK](https://opentelemetry.io/docs/specs/otel/metrics/sdk/) para agregar y exportar datos métricos. - -Esta página describe cómo New Relic maneja OpenTelemetry métrica que recibe a través del [extremo OTLPNew Relic ](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-otlp). La integración de OpenTelemetry métrica con New Relic requiere configurar la fuente métrica para exportar a este extremo; revise los requisitos de configuración del extremo. Para información sobre la configuración de servicios con OpenTelemetry métrica consulte [OpenTelemetry APM monitoreo](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/get-started/apm-monitoring/opentelemetry-apm-intro). - -## Tipo de instrumento para mapeo tipo métrica [#instrument-mapping] - -La OpenTelemetry métrica API define [varios tipos de instrumentos](https://opentelemetry.io/docs/specs/otel/metrics/api/#instrument). mediciones de registro instrumentado, que se agregan y exportan a través de OTLP como un tipo métrico particular. La siguiente tabla describe el comportamiento predeterminado sobre cómo cada instrumento OpenTelemetry agrega y exporta. Consulte [OTLP métrica mapeo](#otlp-mapping) para obtener detalles sobre cómo se trata cada tipo de métrica en New Relic. - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
- Tipo de instrumento - - Uso de ejemplo - - Agregación predeterminada - - Tipo de métrica exportada -
- [`Counter`](https://opentelemetry.io/docs/specs/otel/metrics/api/#counter) - - Bytes procesados - - [Suma](https://opentelemetry.io/docs/specs/otel/metrics/sdk/#sum-aggregation) - - [`Sum` métrica](https://github.com/open-telemetry/opentelemetry-proto/blob/a05597bff803d3d9405fcdd1e1fb1f42bed4eb7a/opentelemetry/proto/metrics/v1/metrics.proto#L217-L226), con `is_monotonic=true` -
- [Contador asincrónico](https://opentelemetry.io/docs/specs/otel/metrics/api/#asynchronous-counter) - - Observe el tiempo total de CPU del proceso - - [Suma](https://opentelemetry.io/docs/specs/otel/metrics/sdk/#sum-aggregation) - - [`Sum` métrica](https://github.com/open-telemetry/opentelemetry-proto/blob/a05597bff803d3d9405fcdd1e1fb1f42bed4eb7a/opentelemetry/proto/metrics/v1/metrics.proto#L217-L226), con `is_monotonic=true` -
- [`UpDownCounter`](https://opentelemetry.io/docs/specs/otel/metrics/api/#updowncounter) - - Artículos en una cola - - [Suma](https://opentelemetry.io/docs/specs/otel/metrics/sdk/#sum-aggregation) - - [`Sum` métrica](https://github.com/open-telemetry/opentelemetry-proto/blob/a05597bff803d3d9405fcdd1e1fb1f42bed4eb7a/opentelemetry/proto/metrics/v1/metrics.proto#L217-L226), con `is_monotonic=false` -
- [UpDownCounter asincrónico](https://opentelemetry.io/docs/specs/otel/metrics/api/#asynchronous-updowncounter) - - Observe el uso actual de la memoria - - [Suma](https://opentelemetry.io/docs/specs/otel/metrics/sdk/#sum-aggregation) - - [`Sum` métrica](https://github.com/open-telemetry/opentelemetry-proto/blob/a05597bff803d3d9405fcdd1e1fb1f42bed4eb7a/opentelemetry/proto/metrics/v1/metrics.proto#L217-L226), con `is_monotonic=false` -
- [`Histogram`](https://opentelemetry.io/docs/specs/otel/metrics/api/#histogram) - - Duración de las solicitudes http - - [Histograma de cubo explícito](https://opentelemetry.io/docs/specs/otel/metrics/sdk/#explicit-bucket-histogram-aggregation) - - [`Histogram` métrica](https://github.com/open-telemetry/opentelemetry-proto/blob/a05597bff803d3d9405fcdd1e1fb1f42bed4eb7a/opentelemetry/proto/metrics/v1/metrics.proto#L230-L236) **\[1]** -
- [`Gauge`](https://opentelemetry.io/docs/specs/otel/metrics/api/#gauge) - - Cambiar evento para la velocidad del ventilador de la CPU - - [Último valor](https://opentelemetry.io/docs/specs/otel/metrics/sdk/#last-value-aggregation) - - [`Gauge` métrica](https://github.com/open-telemetry/opentelemetry-proto/blob/a05597bff803d3d9405fcdd1e1fb1f42bed4eb7a/opentelemetry/proto/metrics/v1/metrics.proto#L211-L213) -
- [Medidor asincrónico](https://opentelemetry.io/docs/specs/otel/metrics/api/#asynchronous-gauge) - - Observe la temperatura ambiente actual - - [Último valor](https://opentelemetry.io/docs/specs/otel/metrics/sdk/#last-value-aggregation) - - [`Gauge` métrica](https://github.com/open-telemetry/opentelemetry-proto/blob/a05597bff803d3d9405fcdd1e1fb1f42bed4eb7a/opentelemetry/proto/metrics/v1/metrics.proto#L211-L213) -
- -Consulte [las pautas complementariasOpenTelemetry métrica](https://opentelemetry.io/docs/specs/otel/metrics/supplementary-guidelines/) para obtener detalles sobre cómo elegir el tipo de instrumento correcto. - -**\[1]** El histograma instrumentado también se puede agregar al histograma métrico exponencial. Consulte [el histograma métrico de OTLP](#otlp-histogram) para obtener más detalles. - -## Mapeo de métrica OTLP [#otlp-mapping] - -New Relic asigna OTLP métrica al [tipo de datos`Metric` ](https://docs.newrelic.com/docs/data-apis/understand-data/metric-data/metric-data-type/#metric-types). La siguiente tabla describe cómo se interpretan los campos de los [protomensajes métricos](https://github.com/open-telemetry/opentelemetry-proto/blob/main/opentelemetry/proto/metrics/v1/metrics.proto). Consulte [tipo de instrumento a tipo métrico](#instrument-mapping) para obtener detalles sobre cómo los SDK/OpenTelemetry API producen los distintos tipos de métrica. - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
- Protocampo métrico OTLP - - Campo New Relic `Metric` -
- `ResourceMetrics.Resource.attributes` - - Cada valor principal es un atributo en el `Metric`**\[1]** -
- `ScopeMetrics.InstrumentationScope.name` - - `otel.library.name` -
- `ScopeMetrics.InstrumentationScope.version` - - `otel.library.version` -
- `ScopeMetrics.InstrumentationScope.attributes` - - Cada valor principal es un atributo en el `Metric`**\[1]** -
- `Metric.name` - - `metricName` -
- `Metric.description` - - `description` -
- `Metric.unit` - - `unit` -
- `Metric.*.data_points.start_time_unix_nano` - - `timestamp` -
- `Metric.*.data_points.time_unix_nano` - - `endTimestamp` -
- `Metric.*.data_points.attributes` - - Cada valor principal es un atributo en el `Metric`**\[1]** -
- `Metric.gauge.data_points` - - Mapas de New Relic [`gauge`](/docs/data-apis/understand-data/metric-data/metric-data-type/#metric-types) -
- `Metric.sum.data_points` - - Mapas de New Relic [`count`, `cumulativeCount` o `gauge`](/docs/data-apis/understand-data/metric-data/metric-data-type/#metric-types) - - Ver [métricas OTLP sum](#otlp-sum) -
- `Metric.histogram.data_points` - - Mapas de New Relic [`distribution`](/docs/data-apis/understand-data/metric-data/metric-data-type/#metric-types) - - Ver [histograma métrico OTLP](#otlp-histogram) -
- `Metric.exponential_histogram.data_points` - - Mapas de New Relic [`distribution`](/docs/data-apis/understand-data/metric-data/metric-data-type/#metric-types) - - Ver [histograma métrico OTLP](#otlp-histogram) -
- `Metric.summary.data_points` - - Mapas de New Relic [`summary`](/docs/data-apis/understand-data/metric-data/metric-data-type/#metric-types) - - Ver [resumen OTLP métrica](https://github.com/open-telemetry/opentelemetry-proto/blob/a05597bff803d3d9405fcdd1e1fb1f42bed4eb7a/opentelemetry/proto/metrics/v1/metrics.proto#L254-L256) -
- -**\[1]**: En caso de conflicto en los campos atributo de recurso, atributo alcance, atributo punto métrico y campos métricos de nivel superior, el orden de precedente (de mayor a menor) es: campos `Metric.*` de nivel superior > `Metric.*.data_points.attributes` > `ScopeMetrics.InstrumentationScope.attributes` > `ResourceMetrics.Resource.attributes`. - -### Métrica OTLP sum [#otlp-sum] - -OTLP [suma métrica](https://github.com/open-telemetry/opentelemetry-proto/blob/a05597bff803d3d9405fcdd1e1fb1f42bed4eb7a/opentelemetry/proto/metrics/v1/metrics.proto#L217-L226) representa la suma de medidas a lo largo del tiempo. Las sumas incluyen un campo [`aggregation_temporality`](#aggregation-temporality) y un campo `is_monotonic` , que indica si los valores aumentan monótonamente (es decir, solo pueden subir) o no (es decir, pueden subir y bajar). La siguiente tabla describe cómo New Relic trata las diferentes variedades de suma: - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
- `is_monotonic` - - `aggregation_temporality` - - Comportamiento -
- `true` - - `cumulative` - - Mapas de New Relic [`cumulativeCount`](/docs/data-apis/understand-data/metric-data/metric-data-type/#metric-types) -
- `true` - - `delta` - - Mapas de New Relic [`count`](/docs/data-apis/understand-data/metric-data/metric-data-type/#metric-types) -
- `false` - - `cumulative` - - Mapas de New Relic [`gauge`](/docs/data-apis/understand-data/metric-data/metric-data-type/#metric-types) -
- `false` - - `delta` - - No se admite porque los datos no son significativos. Vea [esta discusión](https://github.com/open-telemetry/opentelemetry-specification/pull/2314#pullrequestreview-877408961) para más detalles. -
- -### Histograma métrico OTLP [#otlp-histogram] - -[El histograma métrico](https://github.com/open-telemetry/opentelemetry-proto/blob/a05597bff803d3d9405fcdd1e1fb1f42bed4eb7a/opentelemetry/proto/metrics/v1/metrics.proto#L230-L236) OTLP y [el histograma métrico exponencial](https://github.com/open-telemetry/opentelemetry-proto/blob/a05597bff803d3d9405fcdd1e1fb1f42bed4eb7a/opentelemetry/proto/metrics/v1/metrics.proto#L240-L246) resumen una población de mediciones con información como suma, recuento, mínimo, máximo y depósitos que describen la distribución de los valores de medición. La variedad de histograma (también llamado histograma de depósito explícito) tiene depósitos con límites explícitos. La variedad exponencial tiene categorías con límites descritos por una fórmula exponencial. Ambas variedades incluyen un campo [de temporalidad de agregación](#aggregation-temporality). - -Ambas variedades de histograma se traducen a New Relic [`distribution`](/docs/data-apis/understand-data/metric-data/metric-data-type/#metric-types), que está respaldado por una representación interna de histograma exponencial de base 2. Esta representación refleja fielmente el formato de histograma exponencial de OpenTelemetry. Por esta razón, New Relic prefiere el histograma exponencial (consulte [Agregación de mistogramas métricos](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-otlp/#metric-mistogram-aggregation) para obtener detalles sobre cómo configurar OTLP para preferir el histograma exponencial). La variedad de histograma de depósito explícito de OpenTelemetry se traduce a la representación exponencial mediante interpolación lineal. Consulte [NrSketch](https://github.com/newrelic-experimental/newrelic-sketch-java#new-relic-sketch) para obtener una explicación detallada. - -Los depósitos con límites en el infinito negativo y positivo se representan en New Relic como depósitos de ancho cero. Por ejemplo, un depósito de OpenTelemetry con límites `[-∞, 10)` se representa en New Relic como `[10, 10)`. Como resultado, es posible que vea recuentos de depósitos exagerados al final de su distribución. - -### Métrica de resumen OTLP [#otlp-summary] - -[Las métricas resumidas](https://github.com/open-telemetry/opentelemetry-proto/blob/a05597bff803d3d9405fcdd1e1fb1f42bed4eb7a/opentelemetry/proto/metrics/v1/metrics.proto#L254-L256) de OTLP son similares al histograma en que resumen una población de medidas, incluida la suma y el conteo. Sin embargo, cuando los histogramas incluyen categorías para describir la distribución de las mediciones, los resúmenes incluyen cuantiles. Estos cuantiles son de uso limitado ya que no pueden sufrir reagregación espacial o temporal. Los resúmenes incluidos en OpenTelemetry para legacy soporte , y OpenTelemetry API y el SDK no producen resúmenes. - -Los resúmenes están traducidos a New Relic [`summary`](/docs/data-apis/understand-data/metric-data/metric-data-type/#metric-types). - -## Temporalidad de agregación [#aggregation-temporality] - -La OpenTelemetry noción de [temporalidad de](https://opentelemetry.io/docs/specs/otel/metrics/data-model/#temporality) agregación define si un punto de datos métrico individuo agrega un conjunto acumulativo de mediciones (generalmente desde el inicio de la aplicación) o el conjunto delta de mediciones desde la última exportación. OTLP [sum métrica](#otlp-sum) y [histograma métrica](#otlp-histogram) tienen un campo `aggregation_temporality` que describe la semántica de sus puntos. - -Aunque aceptamos tanto la temporalidad métrica acumulativa como la delta, New Relic es generalmente un sistema delta métrica, y recomendamos al usuario que [configure su exportador OTLP para que prefiera la temporalidad delta](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-otlp/#metric-aggregation-temporality). - -Cuando la temporalidad es acumulativa, las métricas se convierten en una representación delta (con el valor acumulativo retenido para [`cumulativeCount`](/docs/data-apis/understand-data/metric-data/metric-data-type/#metric-types), el uso de una traducción con estado es un proceso con estado en el que se calcula el delta a partir de dos puntos acumulativos consecutivos del mismo serial. El `Metric.*.data_points.start_time_unix_nano` se emplea para detectar reinicios de seriales. - -## Apoyo de ejemplares [#exemplars] - -[Ejemplares](https://opentelemetry.io/docs/specs/otel/metrics/data-model/#exemplars) métricos de OpenTelemetry no son actualmente compatibles con New Relic. \ No newline at end of file diff --git a/src/i18n/content/es/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-best-practices-resources.mdx b/src/i18n/content/es/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-best-practices-resources.mdx deleted file mode 100644 index 51229bbbc47..00000000000 --- a/src/i18n/content/es/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-best-practices-resources.mdx +++ /dev/null @@ -1,111 +0,0 @@ ---- -title: Recursos de OpenTelemetry en New Relic -tags: - - Integrations - - Open source telemetry integrations - - OpenTelemetry -metaDescription: Details on how New Relic works with OpenTelemetry resources -freshnessValidatedDate: '2024-05-08T00:00:00.000Z' -translationType: machine ---- - -Todos los datos de OpenTelemetry están asociados con un [recurso](https://opentelemetry.io/docs/concepts/resources). Un recurso es una representación de la entidad que produce telemetría como atributo de recurso. Los atributos de recurso se emplean para adaptar un recurso a New Relic la noción de [entidad](/docs/new-relic-solutions/new-relic-one/core-concepts/what-entity-new-relic). - -Los datos recibidos se asocian con una entidad a través de un proceso llamado [síntesis de entidades](/docs/entities/synthesis/) mediante el cual el atributo de recurso presente se compara con reglas que determinan el tipo de entidad a la que se asociarán los datos. Para los datos obtenidos de OpenTelemetry, las reglas de síntesis de entidades están diseñadas para respetar las OpenTelemetry [convenciones semánticas de recursos](https://opentelemetry.io/docs/specs/semconv/resource) de . - -Las convenciones semánticas de recursos definen diferentes cuerpos de convenciones para describir diferentes tipos de entidad. Por ejemplo, las convenciones [de servicio](https://opentelemetry.io/docs/specs/semconv/resource/#service) y [host](https://opentelemetry.io/docs/specs/semconv/resource/host/) definen el atributo de recurso que describe una instancia de servicio u host, respectivamente. - -## Tipos de entidad admitidos [#supported-entity-types] - -Aquí se describen los tipos de entidad New Relic que son compatibles cuando se emplea la instrumentación OpenTelemetry . Para cada tipo de entidad admitida se incluyen: - -* El atributo de recurso requerido para la síntesis de entidades. -* Atributo recomendado que impulsa ciertos aspectos de la New Relic UI. -* Atributo que se convierte en [entidad etiqueta](/docs/new-relic-solutions/new-relic-one/core-concepts/use-tags-help-organize-find-your-data/), cuando está presente. - -### Servicios [#services] - -Una entidad de servicio se sintetiza siguiendo las convenciones semánticas de recursos de OpenTelemetry que describen una [instancia de servicio](https://opentelemetry.io/docs/specs/semconv/resource/#service). - -Consulte nuestra [documentación y ejemplos](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/get-started/opentelemetry-set-up-your-app) para monitorear entidades de servicios usando OpenTelemetry. - -#### Atributo requerido [#service-required-attributes] - -* [`service.name`](https://opentelemetry.io/docs/specs/semconv/attributes-registry/service): el nombre del servicio que ves en la UI proviene de este valor. - -#### Atributo recomendado [#service-recommended-attributes] - -* [`service.instance.id`](https://opentelemetry.io/docs/specs/semconv/attributes-registry/service): habilita el facetado entre varias instancias del mismo servicio. -* [`telemetry.sdk.language`](https://opentelemetry.io/docs/specs/semconv/attributes-registry/telemetry): cuando está presente, este valor controla la visualización de cualquier UI específica del tiempo de ejecución, como la página de tiempo de ejecución JVM para la aplicación Java. - -#### Entidad etiqueta [#service-entity-tags] - -* [`service.namespace`](https://opentelemetry.io/docs/specs/semconv/attributes-registry/service) -* [`telemetry.sdk.language`](https://opentelemetry.io/docs/specs/semconv/attributes-registry/telemetry) (agregado como etiqueta de idioma) -* [`telemetry.sdk.version`](https://opentelemetry.io/docs/specs/semconv/attributes-registry/telemetry) -* [`k8s.cluster.name`](https://opentelemetry.io/docs/specs/semconv/attributes-registry/k8s) -* [`k8s.namespace.name`](https://opentelemetry.io/docs/specs/semconv/attributes-registry/k8s) -* [`k8s.deployment.name`](https://opentelemetry.io/docs/specs/semconv/attributes-registry/k8s) - -### Hospedadores [#hosts] - -Una entidad de host se sintetiza siguiendo las convenciones semánticas de recursos de OpenTelemetry que describen un [host](https://opentelemetry.io/docs/specs/semconv/resource/host). - -Consulte el ejemplo de monitoreo de host en [recolector de monitoreo de infraestructura](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/get-started/collector-infra-monitoring/opentelemetry-collector-infra-intro/) para obtener más detalles. - -#### Atributo requerido [#host-required-attributes] - -* [`host.name`](https://opentelemetry.io/docs/specs/semconv/attributes-registry/host): el nombre de host que ves en la UI proviene de este valor. -* [`host.id`](https://opentelemetry.io/docs/specs/semconv/attributes-registry/host) - -#### Entidad etiqueta [#host-entity-tags] - -* [`cloud.provider`](https://opentelemetry.io/docs/specs/semconv/attributes-registry/cloud) -* [`cloud.account.id`](https://opentelemetry.io/docs/specs/semconv/attributes-registry/cloud) -* [`cloud.region`](https://opentelemetry.io/docs/specs/semconv/attributes-registry/cloud) -* [`cloud.availability_zone`](https://opentelemetry.io/docs/specs/semconv/attributes-registry/cloud) -* [`cloud.platform`](https://opentelemetry.io/docs/specs/semconv/attributes-registry/cloud) -* [`host.id`](https://opentelemetry.io/docs/specs/semconv/attributes-registry/host) -* [`host.name`](https://opentelemetry.io/docs/specs/semconv/attributes-registry/host) -* [`host.type`](https://opentelemetry.io/docs/specs/semconv/attributes-registry/host) -* [`host.arch`](https://opentelemetry.io/docs/specs/semconv/attributes-registry/host) -* [`host.image.name`](https://opentelemetry.io/docs/specs/semconv/attributes-registry/host) -* [`host.image.id`](https://opentelemetry.io/docs/specs/semconv/attributes-registry/host) -* [`host.image.version`](https://opentelemetry.io/docs/specs/semconv/attributes-registry/host) - -### Instancia Redis [#redis] - -Una instancia Redis se sintetiza empleando datos emitidos desde el recolector [receptor Redis](https://github.com/open-telemetry/opentelemetry-collector-contrib/tree/main/receiver/redisreceiver). Desafortunadamente, actualmente no existen convenciones semánticas para la instancia Redis ni atributos de identificación en la métrica que emite el receptor Redis . Por lo tanto, el usuario debe incluir manualmente el atributo que se describe a continuación. - -Consulte el ejemplo Redis en [recolector de monitoreo de infraestructura](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/get-started/collector-infra-monitoring/opentelemetry-collector-infra-intro/) para obtener más detalles. - -#### Atributo requerido [#redis-required-attributes] - -* [`server.address`](https://opentelemetry.io/docs/specs/semconv/attributes-registry/server/): el nombre de la instancia Redis que ves en la UI proviene de este valor. -* [`server.port`](https://opentelemetry.io/docs/specs/semconv/attributes-registry/server/) - -#### Entidad etiqueta [#redis-entity-tags] - -* `redis.version` -* `redis.role` -* [`host.type`](https://opentelemetry.io/docs/specs/semconv/attributes-registry/host) -* [`cloud.provider`](https://opentelemetry.io/docs/specs/semconv/attributes-registry/cloud) -* [`cloud.account.id`](https://opentelemetry.io/docs/specs/semconv/attributes-registry/cloud) -* [`cloud.region`](https://opentelemetry.io/docs/specs/semconv/attributes-registry/cloud) -* `instrumenation.name` -* [`server.address`](https://opentelemetry.io/docs/specs/semconv/attributes-registry/server/) -* [`server.port`](https://opentelemetry.io/docs/specs/semconv/attributes-registry/server/) - -## Relaciones entre entidades soportadas [#supported-entity-relationships] - -New Relic soporta relaciones entre entidades provenientes de la instrumentación OpenTelemetry . Estas relaciones se sintetizan automáticamente cuando se cumplen los criterios de relación adecuados. A continuación se detallan las relaciones que se admiten actualmente y sus criterios requeridos. - -### Servicio de hospedaje [#service-to-host] - -Las relaciones entre un servicio y una entidad host requieren que el servicio incluya el atributo de recurso `host.id` y que coincida con el `host.id` del host en el que se ejecuta. - -## Agregar una etiqueta personalizada a una entidad [#tags] - -Puedes usar etiqueta para organizar y filtrar tu entidad en la UI. [etiqueta](/docs/new-relic-solutions/new-relic-one/core-concepts/use-tags-help-organize-find-your-data/) son pares de valores principales, por ejemplo `team: operations`, agregados a varios conjuntos de datos, como aplicaciones de monitoreo y hosts. Ciertos atributos importantes están disponibles automáticamente como etiqueta, como el ID de cuenta; También puedes agregar tu propia etiqueta personalizada [directamente en la UI](/docs/new-relic-solutions/new-relic-one/core-concepts/use-tags-help-organize-find-your-data/#add-tags) o con uno de los métodos siguientes. - -Agregar un atributo de recurso con el prefijo `tags` dará como resultado una etiqueta en su entidad en New Relic. Por ejemplo, agregar el atributo `tags.mytag=myvalue` dará como resultado la etiqueta de entidad `mytag=myvalue`. \ No newline at end of file diff --git a/src/i18n/content/es/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-best-practices-traces.mdx b/src/i18n/content/es/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-best-practices-traces.mdx deleted file mode 100644 index f5472f6f4e1..00000000000 --- a/src/i18n/content/es/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-best-practices-traces.mdx +++ /dev/null @@ -1,262 +0,0 @@ ---- -title: Trazas de OpenTelemetry en New Relic -tags: - - Integrations - - Open source telemetry integrations - - OpenTelemetry -metaDescription: Details on how New Relic works with OpenTelemetry traces -freshnessValidatedDate: '2024-05-23T00:00:00.000Z' -translationType: machine ---- - -OpenTelemetry proporciona un rico ecosistema de rastreo, con una [API](https://opentelemetry.io/docs/specs/otel/trace/api/) para registrar traza telemetría, un [SDK](https://opentelemetry.io/docs/specs/otel/trace/sdk/) para exportar datos de tramo y [distribución del contexto](https://opentelemetry.io/docs/specs/otel/context/api-propagators/) para rastrear a través de los límites de las aplicaciones. - -Esta página describe cómo New Relic maneja los tramos OpenTelemetry que recibe a través del [extremo OTLP New Relic ](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-otlp). La integración de trazas de OpenTelemetry con New Relic requiere configurar la fuente de traza para exportar a este extremo; revise los requisitos de configuración del extremo. Para obtener información sobre la configuración de servicios con trazas de OpenTelemetry, consulte [OpenTelemetry APM monitoreo](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/get-started/apm-monitoring/opentelemetry-apm-intro). - -## Mapeo de tramo OTLP [#otlp-mapping] - -New Relic asigna extensiones de OTLP al tipo de datos `Span`. La siguiente tabla describe cómo se interpretan los campos del [mensaje Span proto](https://github.com/open-telemetry/opentelemetry-proto/blob/main/opentelemetry/proto/trace/v1/trace.proto) : - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
- Protocampo de tramo OTLP - - Campo New Relic `Span` -
- `ResourceSpans.Resource.attributes` - - Cada valor principal es un atributo en el `Span` **\[1]** -
- `ScopeSpans.InstrumentationScope.name` - - `otel.library.name` -
- `ScopeSpans.InstrumentationScope.version` - - `otel.library.version` -
- `ScopeSpans.InstrumentationScope.attributes` - - Cada valor principal es un atributo en el `Span` **\[1]** -
- `Span.trace_id` - - `trace.id` -
- `Span.span_id` - - `id` -
- `Span.trace_state` - - `w3c.tracestate` -
- `Span.parent_span_id` - - `parent.id` -
- `Span.name` - - `name` -
- `Span.kind` - - `span.kind` -
- `Span.start_time_unix_nano` - - `timestamp` -
- `Span.end_time_unix_nano` - - `druation.ms` (calcular con `Span.start_time_unix_nano` -
- `Span.attributes` - - Cada valor principal es un atributo en el `Span` **\[1]** -
- `Span.dropped_attribute_count` - - `otel.dropped_attributes_count` -
- `Span.events` - - Cada evento se registra como `SpanEvent` con `span.id` / `trace.id` haciendo referencia al intervalo de origen, el recuento se almacena como `nr.spanEventCount` -
- `Span.events[*].time_unix_nano` - - Almacenado como `timestamp` el `SpanEvent` -
- `Span.events[*].name` - - Almacenado como `name` el `SpanEvent` -
- `Span.events[*].attributes` - - Cada valor principal se almacena como un atributo en `SpanEvent` -
- `Span.events[*].dropped_attributes_count` - - Almacenado como `ote.dropped_Attributes_count` el `SpanEvent` -
- `Span.dropped_events_count` - - `otel.dropped_events_count` -
- `Span.status.message` - - `otel.status_description` -
- `Span.status.code` - - `otel.status_code` -
- -### Notas a pie de tabla [#otlp-mapping-notes] - -**\[1]** En caso de conflicto en los campos atributo de recurso, atributo de alcance, atributo span y span de nivel superior, el orden de precedente (de mayor a menor) es: campos `Span.*` de nivel superior > `Span.attributes` > `ScopeSpans.InstrumentationScope.attributes` > `ResourceSpans.Resource.attributes`. - -## Soporte de enlaces de extensión [#span-links-support] - -Actualmente, New Relic no admite [enlaces de tramo](https://opentelemetry.io/docs/concepts/signals/traces/#span-links) de OpenTelemetry. \ No newline at end of file diff --git a/src/i18n/content/es/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-data-overview.mdx b/src/i18n/content/es/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-data-overview.mdx deleted file mode 100644 index ab31940b5ab..00000000000 --- a/src/i18n/content/es/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-data-overview.mdx +++ /dev/null @@ -1,28 +0,0 @@ ---- -title: Datos de OpenTelemetry en New Relic -tags: - - Integrations - - Open source telemetry integrations - - OpenTelemetry - - OTLP -metaDescription: Overview of OpenTelemetry data in New RElic -freshnessValidatedDate: '2024-05-31T00:00:00.000Z' -translationType: machine ---- - -OpenTelemetry tiene un rico ecosistema de instrumentación y herramientas que se pueden integrar con New Relic a través de [OTLP](https://opentelemetry.io/docs/specs/otlp/). Esta documentación describe cómo New Relic recibe, procesa e ingiere datos OTLP. Consulte [Introducción a OpenTelemetry y New Relic](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/get-started/opentelemetry-get-started-intro/) para obtener información sobre patrones de integración comunes. - -[New Relic OTLP extremo](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-otlp/) describe los requisitos de configuración de OTLP relevantes para cualquier integración OpenTelemetry con New Relic, junto con información [sobre resolución de problemas](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-otlp-troubleshooting/) . - -OTLP se divide en señales traza, métrica y log , todas las cuales incluyen el concepto de recursos. Consulte las siguientes páginas para obtener detalles sobre cómo se procesa e ingiere cada uno: - -* [Trazas de OpenTelemetry en New Relic](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-best-practices-traces/) -* [Métricas de OpenTelemetry en New Relic](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-best-practices-metrics/) -* [Registro OpenTelemetry en New Relic](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-best-practices-logs/) -* [Recursos de OpenTelemetry en New Relic](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-best-practices-resources/) - -Todos los datos de OTLP se incorporan a la [plataforma New Relic](/docs/new-relic-solutions/new-relic-one/introduction-new-relic-platform/), que incluye muchas herramientas poderosas de observabilidad de propósito general para ayudarlo a identificar y diagnosticar problemas, que incluyen: - -* [Alertas](/docs/alerts-applied-intelligence/overview/): Recibe información cuando una señal supera un umbral. -* [Consulta personalizada](/docs/query-your-data/explore-query-data/get-started/introduction-querying-new-relic-data/): escriba una consulta NRQL personalizada para el análisis y la exploración de datos ad hoc. -* [Panel de control](/docs/query-your-data/explore-query-data/dashboards/introduction-dashboards/): cree visualizaciones de datos personalizadas que reflejen los requisitos únicos de su aplicación. \ No newline at end of file diff --git a/src/i18n/content/es/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-otlp-troubleshooting.mdx b/src/i18n/content/es/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-otlp-troubleshooting.mdx deleted file mode 100644 index 80590c75f7d..00000000000 --- a/src/i18n/content/es/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-otlp-troubleshooting.mdx +++ /dev/null @@ -1,67 +0,0 @@ ---- -title: Resolución de problemas New Relic OTLP -tags: - - Integrations - - Open source telemetry integrations - - OpenTelemetry - - OTLP - - Troubleshoot -metaDescription: Troubleshoot common OTLP ingest errors -freshnessValidatedDate: '2024-05-06T00:00:00.000Z' -translationType: machine ---- - -New Relic apoyó [la ingesta nativa de OTLP](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-otlp/) durante varios años. En el proceso de trabajar en los casos de soporte que surgen de vez en cuando, aprendimos sobre los problemas comunes que enfrentan los usuarios. Para algunos, el problema es fácil de identificar y solucionar. Otros son tortuosamente complicados, dado que Internet no es confiable y hay muchos componentes (software, redes, hardware, etc.) involucrados bajo el control de varias partes, como clientes, New Relic e infraestructura de redes públicas fuera del control de cualquiera de ellos. . Con tanta complejidad, configuración y puntos de falla, puede resultar difícil determinar cuál es el culpable y cuál es la mejor manera de abordarlo. - -Trabajar en un caso de soporte puede llevar mucho tiempo y, en ocasiones, resultar frustrante para los clientes (¡y para New Relic!). Por lo tanto, elaboramos esta guía de resolución de problemas para ayudar a establecer un entendimiento compartido y brindar herramientas para autodiagnosticar y solucionar problemas cuando sea posible. - -Primero, revise [los requisitos y recomendaciones de configuración de New Relic OTLP](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-otlp/). Contiene consejos y contexto esenciales que cualquiera que desee emplear OTLP con New Relic debe conocer. - -A continuación, consulte las secciones siguientes: - -* [Resolución general de problemas](#general-troubleshooting): resolución de problemas para cuestiones generales de OTLP -* [Catálogo de problemas](#issue-catalog): problemas comunes de los clientes y medidas de mitigación - -## Resolución general de problemas [#general-troubleshooting] - -Cuando tenga un problema con el extremo OTLP New Relic , primero siga estos pasos básicos de resolución de problemas. Si terminas abriendo un de ticket soporte, estas son las primeras cosas que te preguntamos: - -1. **Habilite logs de diagnóstico.** Cerciorar de que su cliente OTLP tenga habilitado el logging de modo que pueda ver detalles sobre cualquier error que pueda estar ocurriendo. El mecanismo para habilitar el log varía según la implementación. Consulte los documentos relevantes. -2. **Pruebe que el extremo OTLP de New Relic sea accesible.** Un simple comando de shell `curl http://otlp.nr-data.net` de la máquina en cuestión puede ayudar a determinar si hay algún problema de configuración de la red local (es decir, restricción del firewall) impide la conectividad con New Relic. -3. **Busque [`NrIntegrationError`](/docs/data-apis/manage-data/nrintegrationerror/) evento.** La ingesta de New Relic OTLP realiza una validación mínima sincrónicamente antes de devolver un código de estado exitoso. Si no ve indicaciones de errores de exportación en su log de aplicación, pero no ve datos en New Relic, intente consultar `NrIntegrationError`. Puede haber problemas con tus datos que fueron detectados durante la validación asincrónica. -4. **Determine si el problema está localizado.** A menudo, los errores se localizan en una aplicación o entorno específico. En estos casos, es útil evaluar las diferencias entre las áreas que son problemáticas y funcionan correctamente. -5. **Busque signos de clave de API no válida.** El endoint OTLP de New Relic [requiere configurar un encabezado `api-key` ](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-otlp/#api-key). La clave de API no válida o faltante es un problema común que se presenta con códigos de estado HTTP 403 o 401, o códigos de estado gRPC Unauthenticated o PermissionDenied. Si ve estos, verifique que su clave de API sea válida y esté configurada correctamente. -6. **Compruebe si la exportación se realizó correctamente luego de volver a intentarlo.** [Recomendamos que el reintento esté habilitado](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-otlp/#retry) y esperamos que los intentos de exportación ocasionalmente fallen inicialmente con errores transitorios, pero tengan éxito luego de volver a intentarlo. Sin embargo, tenemos un [SLA](/docs/licenses/license-information/referenced-policies/service-level-availability-commitment/). Si sospecha que los errores transitorios son lo suficientemente frecuentes como para exceder nuestro SLA, abra un caso de soporte. -7. **Compruebe si hay señales de que no se están reintentando los errores transitorios.** A pesar de nuestros mejores esfuerzos, puede haber casos extremos en los que el extremo OTLP de New Relic devuelva códigos de estado no recuperables para errores transitorios. Si cree que se encontró con esta situación, abra un caso de soporte. - -## Catálogo de ediciones [#issue-catalog] - -La siguiente tabla cataloga los problemas que vimos que los clientes encontraron con el extremo OTLP de New Relic . Muchos son fáciles de resolver con la configuración adecuada. La columna **Fingerprint** muestra un log típico cuando una aplicación encuentra una clase particular de problema. Consulte las columnas **Known resolution** y **Notes** para conocer los pasos de mitigación. - -| Versión del protocolo OTLP | Tipo | Idioma / Ecosistema | Fingerprint | Resolución conocida | Notas | -| -------------------------- | -------------------------------------------------- | ------------------- | --------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------- | -------------------------------------------------------------------------------------------------------------------------------------------------------------------------- | -------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------- | -| HTTP | 401 - Unauthorized | Java | `io.opentelemetry.exporter.internal.http.HttpExporter - Failed to export spans. Server responded with HTTP status code 401.` | [Incluir clave de API](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-otlp/#api-key) | Falta el encabezado `api-key` | -| HTTP | 401 - Unauthorized | Recolector | `Exporting failed. The error is not retryable. Dropping data. {"kind": "exporter", "data_type": "traces", "name": "otlphttp", "error": "Permanent error: error exporting items, request to https://otlp.nr-data.net/v1/traces responded with HTTP Status Code 401, Message=, Details=[]", "dropped_items": 4}` | [Incluir clave de API](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-otlp/#api-key) | Falta el encabezado `api-key` | -| HTTP | 401 - Unauthorized | Go | `failed to upload metrics: failed to send metrics to https://otlp.nr-data.net/v1/metrics: 401 Unauthorized` | [Incluir clave de API](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-otlp/#api-key) | Falta el encabezado `api-key` | -| HTTP | 403 - Forbidden | Java | `io.opentelemetry.exporter.internal.http.HttpExporter - Failed to export spans. Server responded with HTTP status code 403.` | [Verificar clave de API](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-otlp/#api-key) | Encabezado `api-key` no válido | -| HTTP | 403 - Forbidden | Java | `Exporting failed. The error is not retryable. Dropping data. {"kind": "exporter", "data_type": "traces", "name": "otlphttp", "error": "Permanent error: error exporting items, request to https://otlp.nr-data.net/v1/traces responded with HTTP Status Code 403, Message=, Details=[]", "dropped_items": 14}` | [Verificar clave de API](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-otlp/#api-key) | Encabezado `api-key` no válido | -| HTTP | 403 - Forbidden | Go | `traces export: failed to send to https://otlp.nr-data.net/v1/traces: 403 Forbidden` | [Verificar clave de API](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-otlp/#api-key) | Encabezado `api-key` no válido | -| HTTP | 403 - Forbidden | .NET | `Exporter failed send data to collector to {0} endpoint. Data will not be sent. Exception: {1}{https://otlp.nr-data.net:4317/v1/traces}{System.Net.Http.HttpRequestException: Response status code does not indicate success: 403 (Forbidden).` | [Verificar clave de API](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-otlp/#api-key) | Encabezado `api-key` no válido | -| HTTP | Se acabó el tiempo | Java | `io.opentelemetry.exporter.internal.http.HttpExporter - Failed to export spans. The request could not be executed. Full error message: timeout` | [Ajustar el procesamiento por lotes/tiempo de espera](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-otlp/#payload) | Ocurre después de que se agota el tiempo de exportación. Verifique la configuración del tiempo de espera y el estado de la red del cliente.
Si descartó la configuración y la red del lado del cliente, abra el caso de soporte. | -| HTTP | Se acabó el tiempo | Recolector | `max elapsed time expired failed to make an HTTP request: Post \"https://otlp.nr-data.net/v1/traces\": context deadline exceeded (Client.Timeout exceeded while awaiting headers)` | [Ajustar el procesamiento por lotes/tiempo de espera](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-otlp/#payload) | Normalmente ocurre después de que fallan los reintentos y se agota el tiempo de espera de exportación. Puede estar relacionado con la red del cliente, la configuración de reintento/tiempo de espera del cliente o la red/servidores de New Relic.
Si descartó la configuración y la red del lado del cliente, abra el caso de soporte. | -| HTTP | Se acabó el tiempo | Go | `failed to upload metrics: context deadline exceeded: retry-able request failure` | [Ajustar el procesamiento por lotes/tiempo de espera](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-otlp/#payload) | Ocurre después de que se agota el tiempo de exportación. Verifique la configuración del tiempo de espera y el estado de la red del cliente.
Si descartó la configuración y la red del lado del cliente, abra el caso de soporte. | -| HTTP | Límite de tarifa | Recolector | `Exporting failed. Will retry the request after interval. {"kind": "exporter", "data_type": "metrics", "name": "otlphttp", "error": "Throttle (29s), error: error exporting items, request to https://otlp.nr-data.net:443/v1/metrics responded with HTTP Status Code 429", "interval": "29s"}` | [Sintonizar el procesamiento por lotes](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-otlp/#payload) | Excede el límite de velocidad.
Ajuste la configuración de procesamiento por lotes para reducir la tasa de solicitudes. | -| gRPC | Código 2 - Desconocido
Se acabó el tiempo | Java | `io.opentelemetry.exporter.internal.grpc.GrpcExporter - Failed to export spans. Server responded with gRPC status code 2. Error message: timeout` | [Ajustar el procesamiento por lotes/tiempo de espera](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-otlp/#payload) | Ocurre después de que se agota el tiempo de exportación. Verifique la configuración del tiempo de espera y el estado de la red del cliente.
Si descartó la configuración y la red del lado del cliente, abra el caso de soporte. | -| gRPC | Código 2 - Desconocido
HTTP 500 | Recolector | `rpc error: code = Unknown desc = unexpected HTTP status code received from server: 500 (Internal Server Error); malformed header: missing HTTP content-type` | | El proveedor de redes New Relic produjo un código de estado no recuperable para un error transitorio.
Si esto sucede repetidamente, abra el caso de soporte. | -| gRPC | Código 2 - Desconocido
HTTP 530 | Recolector | `rpc error: code = Unknown desc = unexpected HTTP status code received from server: 530 (); transport: received unexpected content-type \"text/html; charset=UTF-8\"` | | El proveedor de redes New Relic produjo un código de estado no recuperable para un error transitorio.
Si esto sucede repetidamente, abra el caso de soporte. | -| gRPC | Código 4 - Fecha límite excedida | Recolector | `rpc error: code = DeadlineExceeded desc = context deadline exceeded` | [Ajustar el procesamiento por lotes/tiempo de espera](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-otlp/#payload) | Normalmente ocurre después de que fallan los reintentos y se agota el tiempo de espera de exportación. Puede estar relacionado con la red del cliente, la configuración de reintento/tiempo de espera del cliente o la red/servidores de New Relic.
Si descartó la configuración y la red del lado del cliente, abra el caso de soporte. | -| gRPC | Código 7 - No autenticado | Java | `io.opentelemetry.exporter.internal.grpc.GrpcExporter - Failed to export spans. Server responded with gRPC status code 7.` | [Incluir clave de API](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-otlp/#api-key) | Falta el encabezado `api-key` | -| gRPC | Código 7 - No autenticado | .NET | `Exporter failed send data to collector to {0} endpoint. Data will not be sent. Exception: {1}{https://otlp.nr-data.net:4317/}{Grpc.Core.RpcException: Status(StatusCode="Unauthenticated", Detail="")` | [Incluir clave de API](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-otlp/#api-key) | Falta el encabezado `api-key` | -| gRPC | Código 8 - Recurso agotado | Recolector | `rpc error: code = ResourceExhausted desc = Too many requests", "dropped_items": 1024` | [Sintonizar el procesamiento por lotes](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-otlp/#payload) | Excede el límite de velocidad.
Ajuste la configuración de procesamiento por lotes para reducir la tasa de solicitudes. | -| gRPC | Código 13 - Interno | Java | `io.opentelemetry.exporter.internal.grpc.GrpcExporter - Failed to export spans. Server responded with gRPC status code 13.` | | No hay suficiente información para diagnosticar. Podría ser que el proveedor de redes de New Relic produjo un código de estado no recuperable para un error transitorio.
Si esto sucede repetidamente, abra un caso de soporte. | -| gRPC | Código 13 - Interno
HTTP 400 | Recolector | `rpc error: code = Internal desc = unexpected HTTP status code received from server: 400 (Bad Request)` | | El proveedor de redes New Relic produjo un código de estado no recuperable para un error transitorio.
Si esto sucede repetidamente, abra un caso de soporte. | -| gRPC | Código 14 - No disponible
Reajuste de conexion | Recolector | `rpc error: code = Unavailable desc = error reading from server: read tcp 100.127.0.171:47470->162.247.241.110:4317: read: connection reset by peer` | [Reintento de sintonización](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-otlp/#retry) | Debería resolver con un nuevo intento. Cerciorar de que el recolector tenga recursos suficientes para manejar la contrapresión de reintento. | -| gRPC | Código 14 - No disponible
HTTP 502 | Recolector | `rpc error: code = Unavailable desc = unexpected HTTP status code received from server: 502 (Bad Gateway); transport: received unexpected content-type "text/html"` | [Reintento de sintonización](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-otlp/#retry) | Debería resolver con un nuevo intento. Cerciorar de que el recolector tenga recursos suficientes para manejar la contrapresión de reintento. | -| gRPC | Código 14 - No disponible
HTTP 503 | Recolector | `rpc error: code = Unavailable desc = unexpected HTTP status code received from server: 503 (Service Unavailable)` | [Reintento de sintonización](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-otlp/#retry) | Debería resolver con un nuevo intento. Cerciorar de que el recolector tenga recursos suficientes para manejar la contrapresión de reintento. | -| gRPC | Código 16 - Licencia denegada | Java | `io.opentelemetry.exporter.internal.grpc.GrpcExporter - Failed to export spans. Server responded with gRPC status code 16.` | [Verificar clave de API](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-otlp/#api-key) | Encabezado `api-key` no válido | -| gRPC | Código 16 - Licencia denegada | .NET | `Exporter failed send data to collector to {0} endpoint. Data will not be sent. Exception: {1}{https://otlp.nr-data.net:4317/}{Grpc.Core.RpcException: Status(StatusCode="PermissionDenied", Detail="")` | [Verificar clave de API](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-otlp/#api-key) | Encabezado `api-key` no válido | \ No newline at end of file diff --git a/src/i18n/content/es/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-otlp.mdx b/src/i18n/content/es/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-otlp.mdx deleted file mode 100644 index d4de4a7aa97..00000000000 --- a/src/i18n/content/es/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-otlp.mdx +++ /dev/null @@ -1,282 +0,0 @@ ---- -title: New Relic OTLP extremo -tags: - - Integrations - - Open source telemetry integrations - - OpenTelemetry - - OTLP -metaDescription: Configure OTLP exporter for New Relic -freshnessValidatedDate: '2024-05-06T00:00:00.000Z' -translationType: machine ---- - -[OpenTelemetry Protocol](https://github.com/open-telemetry/opentelemetry-proto/blob/main/docs/specification.md), u OTLP para abreviar, es un protocolo de entrega telemetry data de propósito general diseñado para el proyecto OpenTelemetry . Cada SDK de lenguaje OpenTelemetry proporciona exportadores OTLP, y el recolector OpenTelemetry tiene receptores y exportadores OTLP. Además, varias herramientas fuera del proyecto OpenTelemetry agregaron soporte para la exportación OTLP. - -New Relic admite la ingesta OTLP nativa y lo recomienda como el método preferido para enviar datos de OpenTelemetry a la plataforma New Relic. Este documento profundiza en el soporte OTLP de New Relic, incluidos los requisitos y recomendaciones de configuración. - -## Antes de que empieces [#before-you-begin] - -* Si aún no lo ha hecho, regístrese para obtener una [cuenta gratuita de New Relic](https://newrelic.com/signup). -* Obtenga la [clave de licencia](https://one.newrelic.com/launcher/api-keys-ui.launcher) para la cuenta New Relic a la que desea reportar datos. Esta clave de licencia se empleará para [configurar el encabezado `api-key` ](#api-key). - -## Configuración: extremo, puerto y protocolo de OTLP [#configure-endpoint-port-protocol] - -Nivel de requisito: **Required** - -Para configurar el envío de datos OTLP a New Relic, debe configurar su exportador OTLP para emplear el extremo y puerto relevantes de la siguiente tabla según su entorno. - -El mecanismo para configurar el extremo variará, pero los SDK del lenguaje OpenTelemetry generalmente admiten la configuración de la variable de entorno `OTEL_EXPORTER_OTLP_ENDPOINT=` (consulte [los documentosOpenTelemetry ](https://opentelemetry.io/docs/specs/otel/protocol/exporter/)para obtener más información). - -Además, debe configurar su exportador OTLP para emplear la [versión protobuf binaria OTLP/HTTP](https://opentelemetry.io/docs/specs/otlp/#binary-protobuf-encoding) del protocolo, si está disponible. Si bien New Relic admite todas las versiones de OTLP, el protobuf binario OTLP/HTTP demostró ser más robusto que gRPC sin ninguna reducción aparente en el rendimiento. - -El mecanismo para configurar el extremo variará, pero los SDK del lenguaje OpenTelemetry generalmente admiten la configuración de la variable de entorno `OTEL_EXPORTER_OTLP_PROTOCOL=http/protobuf` (consulte [los documentosOpenTelemetry ](https://opentelemetry.io/docs/specs/otel/protocol/exporter/)para obtener más información). - -Si está empleando un recolector, le recomendamos emplear [otlphttpexporter](https://github.com/open-telemetry/opentelemetry-collector/tree/main/exporter/otlphttpexporter). - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
- Ambiente - - gRPC - - HTTP - - Extremo - - Puertos soportados -
- OTLP de EE. UU. - - ✅ - - ✅ - - `https://otlp.nr-data.net` - - `443`, `4317`, `4318` -
- OTLP de la UE - - ✅ - - ✅ - - `https://otlp.eu01.nr-data.net` - - `443`, `4317`, `4318` -
- OTLP de la FedRAMP de EE. UU.
(Consulte [Cumplimiento de FedRAMP](/docs/security/security-privacy/compliance/fedramp-compliant-endpoints/#otlp-api) para obtener más información) -
- ✅ - - ✅ - - `https://gov-otlp.nr-data.net` - - `443`, `4317`, `4318` -
- rastreo infinito
(Ver [mejores prácticas](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-best-practices-traces#infinite-tracing) para detalles extremos) -
- ✅ - - ✅ - - `https://{trace-observer}` - - `443` -
- - - - Los estándares OTLP designan el tráfico gRPC al puerto `4317` y el tráfico HTTP al puerto `4318`. El extremo OTLP nativo New Relic US FedRamp se adhiere a esas especificaciones. También permite el tráfico gRPC y HTTP en el puerto `443`. Para simplificar, puede omitir el puerto ya que el esquema `https` selecciona automáticamente el puerto `443`. - - - - Según el [documentoOpenTelemetry ](https://opentelemetry.io/docs/specs/otel/protocol/exporter/#endpoint-urls-for-otlphttp)sobre URL extremas para OTLP/HTTP, si envía tráfico OTLP/HTTP y emplea la variable de entorno independiente de la señal (`OTEL_EXPORTER_OTLP_ENDPOINT`), simplemente puede configurar `OTEL_EXPORTER_OTLP_ENDPOINT=https://otlp.nr-data.net:{port}` y el exportador debe agregar la ruta adecuada para el tipo de señal (como `v1/traces` o `v1/metrics`). - - Si está empleando una variable de entorno específica de la señal (como `OTEL_EXPORTER_OTLP_TRACES_ENDPOINT` y `OTEL_EXPORTER_OTLP_METRICS_ENDPOINT`), debe incluir la ruta adecuada. Por ejemplo: - - ``` - OTEL_EXPORTER_OTLP_TRACES_ENDPOINT=https://otlp.nr-data.net:4318/v1/traces - ``` - - Si la ruta no sigue la sintaxis anterior, recibirá un error `404` . Tenga en cuenta que las variables de entorno específicas de la señal tienen prioridad sobre las variables de entorno independientes de la señal. - - - -## Configuración: cifrado TLS [#tls] - -Nivel de requisito: **Required** - -Para enviar datos OTLP a New Relic, debe configurar su exportador OTLP para usar TLS 1.2 (consulte [Cifrado TLS](/docs/new-relic-solutions/get-started/networks/#tls) para obtener más información). Generalmente, los exportadores de SDK y recolectores cumplen con este requisito de forma predeterminada. - -Si bien muchos exportadores de OTLP deducen la configuración de TLS del esquema extremo `https` , algunos exportadores de gRPC pueden requerir que habilites TLS explícitamente. El mecanismo para configurar gRPC TLS variará, pero los SDK del lenguaje OpenTelemetry generalmente admiten la configuración de la variable de entorno `OTEL_EXPORTER_OTLP_INSECURE=false` (consulte [los documentos de OpenTelemetry](https://opentelemetry.io/docs/specs/otel/protocol/exporter/) para obtener más información). - -## Configuración: Configuración de la clave de API [#api-key] - -Nivel de requisito: **Required** - -Para enviar datos OTLP a New Relic, debe configurar su exportador OTLP para incluir un encabezado llamado `api-key` con el valor establecido en su [clave de licencia](#prereqs). De lo contrario, se producirán errores de autenticación. - -El mecanismo para configurar los encabezados variará, pero los SDK del lenguaje OpenTelemetry generalmente admiten la configuración de la variable de entorno `OTEL_EXPORTER_OTLP_HEADERS=api-key=` (consulte [los documentos de OpenTelemetry](https://opentelemetry.io/docs/specs/otel/protocol/exporter/) para obtener más información). - -## Configuración: límites de atributos [#attribute-limits] - -Nivel de requisito: **Required** - -Para enviar datos OTLP a New Relic, debe configurar su fuente de telemetría para que se ajuste a los límites del atributo New Relic . No hacerlo puede resultar en el evento [`NrIntegrationError`](/docs/data-apis/manage-data/nrintegrationerror/) durante la validación de datos asincrónicos. - -Los límites de los atributos son los siguientes: - -* Longitud máxima del nombre del atributo: 255 caracteres -* Longitud máxima del valor del atributo: 4095 caracteres -* Tamaño máximo del valor de la matriz de atributos: 64 entradas - -Consulte [límites de atributo métrico](/docs/data-apis/ingest-apis/metric-api/metric-api-limits-restricted-attributes/) y [límites de atributo de evento](/docs/data-apis/ingest-apis/event-api/introduction-event-api/#limits) para conocer otros límites. - -El mecanismo para configurar los límites de atributos variará, pero los SDK del lenguaje OpenTelemetry generalmente admiten la configuración de las variables de entorno `OTEL_ATTRIBUTE_VALUE_LENGTH_LIMIT=4095` y `OTEL_ATTRIBUTE_COUNT_LIMIT=64` (consulte [los documentosOpenTelemetry ](https://opentelemetry.io/docs/specs/otel/configuration/sdk-environment-variables/)para obtener más información). - -Si se emplea el recolector, el [procesador de transformación](https://github.com/open-telemetry/opentelemetry-collector-contrib/tree/main/processor/transformprocessor) se puede configurar para truncar el atributo hasta los límites New Relic . - -Notas: - -* Los atributos de recursos están sujetos a límites de atributos, pero no existen variables de entorno estándar para limitarlos. Si un atributo de recurso supera el límite permitido, considere truncarlo usando el [procesador de transformación](https://github.com/open-telemetry/opentelemetry-collector-contrib/tree/main/processor/transformprocessor) recolector o sobreescribir el atributo de recurso a otro valor. -* No existe un mecanismo estándar para limitar los nombres de atributos. Sin embargo, la instrumentación generalmente no produce nombres de atributos que excedan los límites de New Relic . Si encuentra límites de longitud de nombre, elimine el atributo usando el selector. - -## Configuración: procesamiento por lotes de carga útil, compresión y límites de velocidad [#payload-limits] - -Nivel de requisito: **Required** - -Para enviar datos OTLP a New Relic, su carga debe ser menor que el tamaño máximo de carga de 1 MB (10 ^ 6 bytes). Las cargas más grandes serán rechazadas con un código de estado de error. Es posible que una carga más grande tampoco pueda exportar con un tiempo de espera antes de que se devuelva un código de estado de error. - -Además, New Relic impone [límites de tarifas](/docs/data-apis/manage-data/view-system-limits/#all_products). Cuando se excede el límite de tarifa, las solicitudes se rechazarán con un código de estado de error. - -Para evitar límites de tamaño de carga útil y límites de velocidad, debe configurar su exportador OTLP para emplear un tamaño de lote apropiado que haga que los datos se exporten en un intervalo apropiado. - -El mecanismo para configurar el procesamiento por lotes variará. Los SDK de OpenTelemetry generalmente admiten la configuración de las siguientes variables de entorno (consulte [los documentos de OpenTelemetry](https://opentelemetry.io/docs/specs/otel/configuration/sdk-environment-variables/) para obtener más información): - -* `OTEL_BSP_*` para tramos -* `OTEL_METRIC_EXPORT_*` para métrica -* `OTEL_BLRP_*` para logs - -Si se emplea el recolector, el [procesador por lotes](https://github.com/open-telemetry/opentelemetry-collector/tree/main/processor/batchprocessor) controla el tamaño del lote. - -Además, debe habilitar la compresión para reducir el tamaño de la carga útil y limitar la probabilidad de encontrar límites de tamaño de carga útil. New Relic admite la compresión `gzip` y `zstd` . La compresión `zstd` tiene un mayor rendimiento y se recomienda si su exportador la admite. Consulte [comparación de compresión](https://github.com/open-telemetry/opentelemetry-collector/blob/main/config/configgrpc/README.md#compression-comparison) para obtener más detalles sobre la información del punto de referencia. - -El mecanismo para configurar el extremo variará, pero los SDK del lenguaje OpenTelemetry generalmente admiten la configuración de la variable de entorno `OTEL_EXPORTER_OTLP_COMPRESSION=gzip` (consulte [los documentosOpenTelemetry ](https://opentelemetry.io/docs/specs/otel/protocol/exporter/)para obtener más información). - -Si emplea el recolector, `gzip` es la compresión predeterminada, pero `zstd` se puede configurar opcionalmente. - -## Configuración: reintentar [#retry] - -Nivel de requisito: **Recommended** - -Para enviar datos OTLP a New Relic, debe configurar su exportador OTLP para volver a intentarlo cuando se produzcan errores transitorios. Internet no es confiable y no volver a intentarlo aumenta la probabilidad de pérdida de datos. - -El mecanismo para configurar el reintento variará. Algunos SDK de OpenTelemetry pueden tener variables de entorno específicas del idioma (por ejemplo, [Java admite](https://github.com/open-telemetry/opentelemetry-java/tree/main/sdk-extensions/autoconfigure) la configuración `OTEL_EXPERIMENTAL_EXPORTER_OTLP_RETRY_ENABLED=true`), pero no existe un mecanismo general. Es posible que se requiera configuración programática. - -Si emplea el recolector, `otlphttpexporter` y `otlpexporter` lo reintentan de forma predeterminada. Consulte [exporterhelper](https://github.com/open-telemetry/opentelemetry-collector/blob/main/exporter/exporterhelper/README.md) para obtener más detalles. - -## Config: temporalidad de agregación métrica [#metric-aggregation-temporality] - -Nivel de requisito: **Recommended** - -Para enviar datos métricos OTLP a New Relic, debe configurar su exportador métrico OTLP para que prefiera [la temporalidad de agregación](https://opentelemetry.io/docs/specs/otel/metrics/data-model/#temporality) delta. Si bien New Relic admite la temporalidad de agregación acumulativa, la arquitectura métrica New Relic es generalmente un sistema delta métrico. El uso de la configuración acumulativa predeterminada generalmente generará un mayor uso de memoria por parte de los SDK y dará como resultado una ingesta alta de datos. - -El mecanismo para configurar el extremo variará, pero los SDK del lenguaje OpenTelemetry generalmente admiten la configuración de la variable de entorno `OTEL_EXPORTER_OTLP_METRICS_TEMPORALITY_PREFERENCE=delta` (consulte [los documentosOpenTelemetry ](https://opentelemetry.io/docs/specs/otel/metrics/sdk_exporters/otlp/)para obtener más información). Si configura la temporalidad manualmente, configúrelo por tipo de instrumento de la siguiente manera: - -* Counter, Asynchronous Counter, Histogram: Delta -* UpDownCounter, Asynchronous UpDownCounter, Gauge, Asynchronous Gauge: Cumulative - -La temporalidad acumulativa se emplea para instrumentados que se asignan a [tipos de medidores New Relic ](https://docs.newrelic.com/docs/data-apis/understand-data/metric-data/metric-data-type/)y que generalmente se analizan empleando el valor acumulativo. - -## Configuración: agregación de mistogramas métricos [#metric-mistogram-aggregation] - -Nivel de requisito: **Recommended** - -Para enviar datos métricos OTLP a New Relic, debe configurar su exportador métrico OTLP para agregar mediciones desde histograma instrumentado a [histograma exponencial](https://opentelemetry.io/docs/specs/otel/metrics/data-model/#exponentialhistogram). A diferencia de los depósitos estáticos empleados con el histograma de depósito explícito predeterminado, el histograma exponencial ajusta automáticamente sus depósitos para reflejar el rango de mediciones registradas. Además, emplean una representación altamente comprimida para enviar por cable. Los histogramas exponenciales proporcionan datos de distribución más útiles en la plataforma New Relic . - -El mecanismo para configurar el extremo variará, pero los SDK del lenguaje OpenTelemetry generalmente admiten la configuración de la variable de entorno `OTEL_EXPORTER_OTLP_METRICS_DEFAULT_HISTOGRAM_AGGREGATION=base2_exponential_bucket_histogram` (consulte [los documentosOpenTelemetry ](https://opentelemetry.io/docs/specs/otel/metrics/sdk_exporters/otlp/)para obtener más información). - -## Versión del protocolo OTLP [#otlp-version-support] - -New Relic emplea [la versión OTLP v0.18.0](https://github.com/open-telemetry/opentelemetry-proto/releases/tag/v0.18.0). Se admiten versiones posteriores, pero aún no se han implementado nuevas funciones. Las características experimentales que ya no están disponibles en 0.18.0 no son compatibles. - -## Carga de respuesta OTLP [#payloads] - -Tenga en cuenta los siguientes detalles sobre la carga de respuesta extrema New Relic OTLP: - -* Las respuestas exitosas de New Relic no tienen cuerpo de respuesta, en lugar de una [respuesta codificada en Protobuf](https://github.com/open-telemetry/opentelemetry-specification/blob/v1.8.0/specification/protocol/otlp.md#success) según el tipo de datos. -* New Relic responde luego de la validación de la autenticación, el tamaño de la carga útil y la limitación de velocidad. La validación del contenido de la carga útil se produce de forma asincrónica. Por lo tanto, New Relic puede devolver códigos de estado de éxito a pesar de que la ingesta de datos finalmente falló y resultó en el evento [`NrIntegrationError`](/docs/data-apis/manage-data/nrintegrationerror/) . -* [Las respuestas de error](https://github.com/open-telemetry/opentelemetry-specification/blob/v1.8.0/specification/protocol/otlp.md#failures) de New Relic no incluyen `Status.message` o `Status.details`. \ No newline at end of file diff --git a/src/i18n/content/es/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/get-started/apm-monitoring/opentelemetry-apm-intro.mdx b/src/i18n/content/es/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/get-started/apm-monitoring/opentelemetry-apm-intro.mdx deleted file mode 100644 index ef488248281..00000000000 --- a/src/i18n/content/es/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/get-started/apm-monitoring/opentelemetry-apm-intro.mdx +++ /dev/null @@ -1,113 +0,0 @@ ---- -title: 'APM: monitor aplicaciones y servicios con OpenTelemetry' -tags: - - Integrations - - Open source telemetry integrations - - OpenTelemetry -metaDescription: Set up OpenTelemetry-based APM monitoring with New Relic. -freshnessValidatedDate: '2024-05-14T00:00:00.000Z' -translationType: machine ---- - -import moreintegrationsNativeOtlpNoCollector from 'images/more-integrations_diagram_native-otlp-no-collector.webp' - -import moreintegrationsNativeOtlpWithCollector from 'images/more-integrations_diagram_native-otlp-with-collector.webp' - -OpenTelemetry proporciona API y SDK de uso general para recopilar, procesar y exportar datos de observabilidad. Uno de los casos de uso más populares para estas API y SDK es el monitoreo APM , donde se instala instrumentación para monitor una aplicación o servicio. - -Esta página describe los pasos de configuración comunes para el monitoreo de APM basado en OpenTelemetry con New Relic. - - - - ## Antes de que empieces [#prereqs] - - * [Regístrese](https://newrelic.com/signup) para obtener una cuenta New Relic. - * Obtenga la [clave de licencia](https://one.newrelic.com/launcher/api-keys-ui.launcher) para la cuenta New Relic a la que desea reportar datos. - - - - ## Instrumente su aplicación o servicio con OpenTelemetry [#instrument] - - OpenTelemetry proporciona [API y SDK específicos del idioma](https://opentelemetry.io/docs/languages/) para aplicaciones instrumentadas. La mayoría de los lenguajes proporcionan un rico conjunto de [instrumentación](https://opentelemetry.io/docs/concepts/instrumentation/) para bibliotecas y marcos populares. - - Para ayudarlo a empezar, ofrecemos una aplicación de ejemplo sencilla en una variedad de idiomas. Para cada idioma, la aplicación se crea empleando framework sitio web popular para ese idioma. Los siguientes ejemplos demuestran cómo configurar: - - * El nombre del servicio que se mostrará en New Relic. - * El exportador OpenTelemetry Protocol (OTLP) para enviar datos al [extremo OTLP New Relic](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-otlp). - * Configuraciones recomendadas adicionales para optimizar OpenTelemetry y obtener la mejor experiencia de New Relic. - - - - - - - - - - - - - - - - Para obtener más información sobre qué instrumentación está disponible y escenarios más avanzados, consulte la [documentación del lenguaje OpenTelemetry](https://opentelemetry.io/docs/languages/) correspondiente. - - - Puede emplear cualquier idioma compatible con OpenTelemetry para enviar datos a New Relic. Sin embargo, los ejemplos anteriores reflejan solo un subconjunto de los [idiomas admitidos](https://opentelemetry.io/docs/languages/). - - ¿Extrañas tu idioma? ¡Aplicar un ejemplo [abriendo una incidencia en GitHub](https://github.com/newrelic/newrelic-opentelemetry-examples/issues/new?assignees=&labels=enhancement%2C+needs-triage&projects=&template=enhancement.md&title=)! - - - - - ## Vea sus datos en la UI de New Relic [#view-data] - - Una vez que su aplicación esté instrumentada y configurada para exportar datos a New Relic, debería poder encontrar sus datos en la New Relic UI: - - * Encuentra tu entidad en - - **All entities -> Services - OpenTelemetry** - - . El nombre de la entidad se establece en el valor del atributo de recurso `service.name` de la aplicación. Para obtener más información sobre cómo la entidad de servicio New Relic se deriva del atributo de recurso OpenTelemetry , consulte [Servicios](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-best-practices-resources/#services) - - * Emplee [NRQL](/docs/nrql/get-started/introduction-nrql-new-relics-query-language/) para consultar directamente [traza](https://one.newrelic.com/launcher/nr1-core.explorer?overlay=eyJuZXJkbGV0SWQiOiJkYXRhLWV4cGxvcmF0aW9uLnF1ZXJ5LWJ1aWxkZXIiLCJpbml0aWFsQWN0aXZlSW50ZXJmYWNlIjoibnJxbEVkaXRvciIsImluaXRpYWxOcnFsVmFsdWUiOiIiLCJpbml0aWFsUXVlcmllcyI6W3sibnJxbCI6IkZST00gU3BhbiBTRUxFQ1QgY291bnQoKikgd2hlcmUgbmV3cmVsaWMuc291cmNlPSclb3RscCUnIFRJTUVTRVJJRVMifV0sImluaXRpYWxDaGFydFNldHRpbmdzIjp7ImNoYXJ0VHlwZSI6IkNIQVJUX0xJTkUiLCJsaW1pdCI6NzU0MiwibGlua2VkRW50aXR5R3VpZCI6bnVsbCwibGlua2VkRGFzaGJvYXJkSWQiOm51bGwsInlTY2FsZSI6eyJzdGF0aWMiOmZhbHNlLCJkb21haW4iOltudWxsLG51bGxdfSwieVplcm8iOnRydWV9fQo=), [métrica](https://one.newrelic.com/launcher/nr1-core.explorer?overlay=eyJuZXJkbGV0SWQiOiJkYXRhLWV4cGxvcmF0aW9uLnF1ZXJ5LWJ1aWxkZXIiLCJpbml0aWFsQWN0aXZlSW50ZXJmYWNlIjoibnJxbEVkaXRvciIsImluaXRpYWxOcnFsVmFsdWUiOiIiLCJpbml0aWFsUXVlcmllcyI6W3sibnJxbCI6IkZST00gTWV0cmljIFNFTEVDVCBjb3VudCgqKSB3aGVyZSBuZXdyZWxpYy5zb3VyY2UgTElLRSAnJW90bHAlJyBUSU1FU0VSSUVTIn1dLCJpbml0aWFsQ2hhcnRTZXR0aW5ncyI6eyJjaGFydFR5cGUiOiJDSEFSVF9MSU5FIiwibGltaXQiOjc1NDIsImxpbmtlZEVudGl0eUd1aWQiOm51bGwsImxpbmtlZERhc2hib2FyZElkIjpudWxsLCJ5U2NhbGUiOnsic3RhdGljIjpmYWxzZSwiZG9tYWluIjpbbnVsbCxudWxsXX0sInlaZXJvIjp0cnVlfX0K) y [log](https://one.newrelic.com/launcher/nr1-core.explorer?overlay=eyJuZXJkbGV0SWQiOiJkYXRhLWV4cGxvcmF0aW9uLnF1ZXJ5LWJ1aWxkZXIiLCJpbml0aWFsQWN0aXZlSW50ZXJmYWNlIjoibnJxbEVkaXRvciIsImluaXRpYWxOcnFsVmFsdWUiOiIiLCJpbml0aWFsUXVlcmllcyI6W3sibnJxbCI6IkZST00gTG9nIFNFTEVDVCBjb3VudCgqKSB3aGVyZSBuZXdyZWxpYy5zb3VyY2U9JyVvdGxwJScgVElNRVNFUklFUyJ9XSwiaW5pdGlhbENoYXJ0U2V0dGluZ3MiOnsiY2hhcnRUeXBlIjoiQ0hBUlRfTElORSIsImxpbWl0Ijo3NTQyLCJsaW5rZWRFbnRpdHlHdWlkIjpudWxsLCJsaW5rZWREYXNoYm9hcmRJZCI6bnVsbCwieVNjYWxlIjp7InN0YXRpYyI6ZmFsc2UsImRvbWFpbiI6W251bGwsbnVsbF19LCJ5WmVybyI6dHJ1ZX19Cg==). - - * [OpenTelemetry APM UI](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/get-started/apm-monitoring/opentelemetry-apm-ui) Consulte para obtener más información. - - Si no encuentras tu entidad y no ves tus datos con NRQL, consulta [OTLP resolución de problemas](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-otlp-troubleshooting). - - - -## Ejecutar los agentes New Relic y las herramientas OpenTelemetry en el mismo proceso [#apm-agents] - -Las herramientas New Relic agente y OpenTelemetry (SDK, agente, etc.) se encuentran entre muchos productos APM en el mercado. - -Para un lenguaje determinado, casi todos los productos APM funcionan utilizando el mismo lenguaje de bajo nivel y los mismos enlaces de tiempo de ejecución disponibles, la mayoría de los cuales alteran el comportamiento de su código en tiempo de ejecución. Dependiendo de la arquitectura de su lenguaje, esto a menudo se logra mediante técnicas como la manipulación de códigos de bytes o parches de mono. - -Debido a las formas complejas en que los productos APM modifican el código en ejecución, no hay garantías de que un producto sea compatible con otro producto que se ejecute en el mismo proceso. En el mejor de los casos, vivirán uno al lado del otro sin que el otro lo sepa y generarán telemetría de forma independiente desde su aplicación. En el peor de los casos, se pisotearán unos a otros, lo que provocará un comportamiento impredecible. - -New Relic no puede garantizar que nuestro agente APM sea compatible con un producto APM diferente que se ejecuta en el mismo proceso. Le recomendamos que elija el que mejor se adapte a sus necesidades, y sólo uno. \ No newline at end of file diff --git a/src/i18n/content/es/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/get-started/apm-monitoring/opentelemetry-apm-ui.mdx b/src/i18n/content/es/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/get-started/apm-monitoring/opentelemetry-apm-ui.mdx deleted file mode 100644 index 0b6813b58fc..00000000000 --- a/src/i18n/content/es/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/get-started/apm-monitoring/opentelemetry-apm-ui.mdx +++ /dev/null @@ -1,150 +0,0 @@ ---- -title: OpenTelemetry APM UI -tags: - - Integrations - - Open source telemetry integrations - - OpenTelemetry -metaDescription: The OpenTelemetry APM UI provides tools for identifying and diagnosing problems with services monitoring with OpenTelemetry. -freshnessValidatedDate: '2024-05-17T00:00:00.000Z' -translationType: machine ---- - -import opentelemetryViewSpanEvents from 'images/opentelemetry_screenshot-crop_view-span-events.webp' - -La OpenTelemetry APM UI es una experiencia seleccionada disponible para [la entidad de servicio](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-best-practices-resources/#services). Si no configuró su servicio con New Relic y OpenTelemetry, consulte [MonitoreoOpenTelemetry APM ](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/get-started/apm-monitoring/opentelemetry-apm-intro/). - -Las OpenTelemetry APM UI páginas de están diseñadas para ayudar a identificar y diagnosticar problemas rápidamente. Muchos requieren que los datos se ajusten a varias [convenciones semánticas de OpenTelemetry](https://opentelemetry.io/docs/specs/semconv/), pero algunos son de propósito general. Consulte la información detallada y los requisitos para cada página a continuación: - -* [Página de resumen](#summary-page) -* [Distribución de la página de seguimiento](#distributed-tracing-page) -* [Página del mapa de servicios](#service-map-page) -* [Página de transacciones](#transactions-page) -* [Pagina base de datos](#databases-page) -* [Página de servicios externos](#externals-page) -* [Página de tiempo de ejecución de JVM](#jvm-runtime-page) -* [Página de tiempo de ejecución Go](#go-runtime-page) -* [Página de logs](#logs-page) -* [Página Errors Inbox](#errors-inbox-page) -* [Página del explorador métrica](#metrics-explorer-page) - -Los siguientes conceptos de New Relic se repiten o se superponen en todas las páginas: - -* [Señales doradas](#golden-signals) -* [Limitar datos con filtros](#narrow-with-filters) -* [Alternar métrica o tramos](#metrics-spans-toggle) - -## Encuentre servicios OpenTelemetry APM [#find-apm-services] - -Para encontrar los servicios OpenTelemetry APM , navegue a **All entities > Services > OpenTelemetry** o **APM & Services**. Haga clic en un servicio para navegar a la [página de resumen](#summary-page) del servicio. - -Dentro del explorador de entidades, puedes filtrar por [etiqueta de entidad](/docs/new-relic-solutions/new-relic-one/core-concepts/use-tags-help-organize-find-your-data/). Para obtener detalles sobre cómo se calculan las etiquetas de entidad, consulte [los recursos de OpenTelemetry en New Relic](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-best-practices-resources). - -## Página: Resumen [#summary-page] - -La página de resumen proporciona una descripción general del estado de su servicio, que incluye: - -* **Señales doradas**: tiempo de respuesta, rendimiento y tasa de errores. Consulte [señales doradas](#golden-signals) para obtener detalles sobre cómo se calculan. -* **Entidad relacionada**: otros servicios que se comunican con este servicio e infraestructura relacionada. Consulte [el mapa de servicios](#service-map) para obtener una vista detallada. -* **Actividad**: estado de cualquier alerta activa para este servicio. -* **Rastreo distribuido información valiosa**: descubra si la entidad downstream o upstream podría estar contribuyendo a la degradación del rendimiento. Consulte [las señales de traza entidad relacionadas](/docs/distributed-tracing/ui-data/related-trace-entity-signals/) para obtener más detalles. -* **Instancia**: desglose de señales doradas por instancia cuando un servicio se escala horizontalmente. Depende del atributo de recurso `service.instance.id` (ver [atributo de entidad de servicio](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-best-practices-resources/#services) para más detalles). - -## Página: rastreo distribuido [#distributed-tracing-page] - -La página de rastreo distribuido proporciona información detallada y valiosa sobre los datos de traza de OpenTelemetry. Consulte [rastreo distribuido](/docs/distributed-tracing/ui-data/understand-use-distributed-tracing-ui/) para obtener información sobre el uso de la página. Consulte [trazas de OpenTelemetry en New Relic](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-best-practices-traces) para obtener detalles sobre cómo se incorporan los datos de trazas de OpenTelemetry en New Relic. - -Al igual que con [las señales doradas](#golden-signals), los intervalos se clasifican como errores si el estado del intervalo se establece en `ERROR` (por ejemplo, `otel.status_code = ERROR`). Si el intervalo es un error, la descripción del estado del intervalo (por ejemplo, `otel.status_description`) se muestra en **los detalles del error**. - -OpenTelemetry span evento adjunta información de contexto de evento adicional a un lapso en individuo. Se emplean más comúnmente para capturar información de excepciones. Si está disponible, puedes ver el evento de un tramo en **los detalles de la traza**. Tenga en cuenta que la presencia de un evento de excepción de intervalo no considera que el intervalo sea un error por sí solo. Sólo los intervalos con estado de intervalo establecido en `ERROR` se clasifican como errores. - -Screenshot showing the right pane showing the two links for span events - -## Página: Mapa de servicios [#service-map-page] - -La página del mapa de servicios proporciona una representación visual de toda su arquitectura. Consulte [el mapa de servicios](/docs/new-relic-solutions/new-relic-one/ui-data/service-maps/service-maps/) para obtener más información. - -## Página: transacción [#transactions-page] - -La página de transacciones proporciona herramientas para identificar problemas y analizar [la transacción](/docs/apm/transactions/intro-transactions/transactions-new-relic-apm/#txn-defined) de un servicio. - -Para métrica, la consulta asume que los datos se ajustan a las convenciones semánticas [http métrica](https://opentelemetry.io/docs/specs/semconv/http/http-metrics/) o [rpc métrica](https://opentelemetry.io/docs/specs/semconv/rpc/rpc-metrics/). Los atributos `http.route` y `rpc.method` se emplean para listar y filtrar por transacción. - -Para los tramos, las consultas son genéricas y emplean únicamente el modelo de datos de tramos de nivel superior. Los intervalos se cuentan para el rendimiento de la transacción y el tiempo de respuesta, como se describe en [las señales doradas](#golden-signals). El campo de nombre de tramo se emplea para enumerar y filtrar por transacción. - -## Página: base de datos [#databases-page] - -La página de base de datos proporciona herramientas para identificar problemas y analizar las operaciones del cliente de base de datos de un servicio. - -No existe una vista basada en métricas de la base de datos ya que actualmente no hay convenciones semánticas disponibles. - -Para los intervalos, la consulta asume que los datos se ajustan a las convenciones semánticas [del intervalo de base de datos](https://opentelemetry.io/docs/specs/semconv/database/database-spans/). El nombre del intervalo y los atributos `db.system`, `db.sql.table` y `db.operation` se emplean para enumerar y filtrar operaciones de base de datos. - -## Página: Servicios externos [#externals-page] - -La página de externos proporciona herramientas para identificar problemas y analizar las llamadas externas de un servicio, incluidas las llamadas de entidad (servicios ascendentes) y las llamadas de entidad (servicios descendentes). - -No existe una vista basada en métricas de la página de servicios externos. - -Para los tramos, las consultas son genéricas y emplean únicamente el modelo de datos de tramos de nivel superior. Los intervalos se cuentan para el rendimiento del servicio externo y el tiempo de respuesta si salen de un servicio, se calcula empleando una heurística de `WHERE span.kind = client OR span.kind = producer`. La base de datos abarcada por el cliente se filtra usando `WHERE db.system is null` (consulte [la página de base de datos](#databases-page)). Al igual que con [las señales doradas](#golden-signals), los intervalos son errores si tienen un código de estado de `ERROR` (por ejemplo, `otel.status_code = ERROR`). Si están disponibles, los datos de las convenciones semánticas [http span](https://opentelemetry.io/docs/specs/semconv/http/http-spans/) y [rpc span](https://opentelemetry.io/docs/specs/semconv/rpc/rpc-spans/) se emplean para clasificar las llamadas a servicios externos. - -## Página: tiempo de ejecución de JVM [#jvm-runtime-page] - -La página de tiempo de ejecución de JVM proporciona herramientas para identificar problemas y analizar la JVM de un servicio Java. La página solo se muestra para servicios que emplean [OpenTelemetry java](https://opentelemetry.io/docs/languages/java/). Para diferenciar entre distintas instancias de servicio, la página requiere que se establezca el atributo de recurso `service.instance.id` (consulte [atributo de entidad de servicio](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-best-practices-resources/#services) para obtener más detalles). - -La página de tiempo de ejecución JVM muestra señales doradas junto con la métrica de tiempo de ejecución JVM para correlacionar los problemas de tiempo de ejecución con el uso del servicio. La palanca [span-métrica](#metrics-spans-toggle) dicta si las [señales doradas](#golden-signals) son impulsadas por datos span o métricos. No existe una vista basada en intervalos para el tiempo de ejecución JVM métrica. - -Para métrica, la consulta asume que los datos se ajustan a las convenciones semánticas [métricasJVM ](https://opentelemetry.io/docs/specs/semconv/runtime/jvm-metrics/). Tenga en cuenta que estas convenciones están incorporadas en [la biblioteca de instrumentación de tiempo de ejecución deOpenTelemetry Java](https://github.com/open-telemetry/opentelemetry-java-instrumentation/tree/main/instrumentation/runtime-telemetry/runtime-telemetry-java8/library), que se incluye automáticamente con el agente de Java de OpenTelemetry. - -## Página: Ir al tiempo de ejecución [#go-runtime-page] - -La página de tiempo de ejecución de Go proporciona herramientas para identificar problemas y analizar el tiempo de ejecución de un servicio Go. La página solo se muestra para servicios que emplean [OpenTelemetry Go](https://opentelemetry.io/docs/languages/go/). Para diferenciar entre distintas instancias de servicio, la página requiere que se establezca el atributo de recurso `service.instance.id` (consulte [atributo de entidad de servicio](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-best-practices-resources/#services) para obtener más detalles). - -La página de tiempo de ejecución de Go muestra señales doradas junto con la métrica de tiempo de ejecución de Go para correlacionar los problemas de tiempo de ejecución con el uso del servicio. La palanca [span-métrica](#metrics-spans-toggle) dicta si las [señales doradas](#golden-signals) son impulsadas por datos span o métricos. No existe una vista basada en tramos para Go runtime métrica. - -Para métrica, la consulta asume que los datos son producidos por la [biblioteca de instrumentación en tiempo de ejecución OpenTelemetry Go](https://github.com/open-telemetry/opentelemetry-go-contrib/tree/main/instrumentation/runtime). Tenga en cuenta que actualmente no existen convenciones semánticas para Go runtime métrica. - -## Página: logs [#logs-page] - -La página de logs proporciona herramientas para identificar problemas y analizar el log de un servicio. Consulte [UI de logs](/docs/logs/ui-data/use-logs-ui/) para obtener más información. - -## Página: Errors Inbox [#errors-inbox-page] - -La página Errors Inbox proporciona herramientas para detectar y clasificar los errores de un servicio. Consulte [Bandeja de entrada de errores](/docs/errors-inbox/errors-inbox/) para obtener más detalles. - -La página errors inbox está controlada por detalles de traza. Al igual que con [las señales doradas](#golden-signals), los intervalos se clasifican como errores si el estado del intervalo se establece en `ERROR` (por ejemplo, `otel.status_code = ERROR`). - -Los intervalos de error se agrupan por su huella digital de error, y se calculan normalizando valores de identificación como UUID, valores hexadecimales, direcciones de email, etc. Cada intervalo de error distinto es una instancia individual dentro del grupo de errores. El mensaje del grupo de errores se determina de la siguiente manera: - -* Descripción del estado del intervalo (por ejemplo, `otel.status_description`) -* `rpc.grpc.status_code` de [rpc abarca](https://opentelemetry.io/docs/specs/semconv/rpc/rpc-spans/) convenciones semánticas -* `http.status_code` desde [http abarcan](https://opentelemetry.io/docs/specs/semconv/http/http-spans/) convenciones semánticas -* `http.response.status_code` desde [http abarcan](https://opentelemetry.io/docs/specs/semconv/http/http-spans/) convenciones semánticas -* `undefined` si ninguno de los anteriores está presente - -## Página: explorador métrica [#metrics-explorer-page] - -El explorador de métricas proporciona herramientas para explorar la métrica de un servicio de manera genérica. Consulte [explorar sus datos](/docs/query-your-data/explore-query-data/browse-data/introduction-data-explorer/#explore-data) para obtener más información. - -## Señales doradas [#golden-signals] - -Las señales doradas de rendimiento, tiempo de respuesta y tasa de errores aparecen en varios lugares de la OpenTelemetry APM UI. Cuando se emplean, se calculan de la siguiente manera: - -Para métrica, la consulta asume que los datos se ajustan a las convenciones semánticas [http métrica](https://opentelemetry.io/docs/specs/semconv/http/http-metrics/) o [rpc métrica](https://opentelemetry.io/docs/specs/semconv/rpc/rpc-metrics/). - -Para los tramos, las consultas son genéricas y emplean únicamente el modelo de datos de tramos de nivel superior. Los intervalos se cuentan para el rendimiento y el tiempo de respuesta si son intervalos de entrada raíz en un servicio, se calculan empleando una heurística de `WHERE span.kind = server OR span.kind = consumer`. Los intervalos son errores si tienen un código de estado de `ERROR` (por ejemplo, `otel.status_code = ERROR`). - -## Limitar datos con filtros [#narrow-with-filters] - -Varias páginas incluyen una barra de filtros, con opciones como **Restringir datos a...**. Esto le permite filtrar consultas en la página para que coincidan con los criterios. Por ejemplo, puede restringir el despliegue a un canario en individuo filtrando por `service.version='1.2.3-canary'`. Los filtros se conservan al navegar entre páginas. - -## Alternar métrica o tramos [#metrics-spans-toggle] - -Varias páginas incluyen un interruptor métrico o de tramos. Esto le permite alternar si las consultas se basan en datos de extensión o métricas según los requisitos de análisis y la disponibilidad de datos. - -Las métricas no están sujetas a ejemplificación y, por lo tanto, son más precisas, especialmente cuando se calculan tasas como el rendimiento. Sin embargo, las métricas están sujetas a restricciones de cardinalidad y pueden carecer de ciertos atributos importantes para el análisis. Por el contrario, los tramos están muestreados y, por lo tanto, están sujetos a problemas de precisión, pero tienen atributos más ricos ya que no están sujetos a restricciones de cardinalidad. - -Históricamente, OpenTelemetry API/SDK del lenguaje y la instrumentación priorizaron la instrumentación de traza. Sin embargo, el proyecto avanzó mucho y métrica está disponible en casi todos los idiomas. Consulte la [documentación](https://opentelemetry.io/docs/languages/) del idioma y la instrumentación relevantes para obtener más detalles. \ No newline at end of file diff --git a/src/i18n/content/es/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/get-started/collector-infra-monitoring/opentelemetry-collector-infra-intro.mdx b/src/i18n/content/es/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/get-started/collector-infra-monitoring/opentelemetry-collector-infra-intro.mdx deleted file mode 100644 index cdf26f474f2..00000000000 --- a/src/i18n/content/es/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/get-started/collector-infra-monitoring/opentelemetry-collector-infra-intro.mdx +++ /dev/null @@ -1,36 +0,0 @@ ---- -title: Recolector OpenTelemetry para monitoreo de infraestructura -tags: - - Integrations - - Open source telemetry integrations - - OpenTelemetry -metaDescription: Using the OpenTelemetry Collector for infrastructure monitoring -freshnessValidatedDate: '2024-05-14T00:00:00.000Z' -redirect: - - /docs/more-integrations/open-source-telemetry-integrations/opentelemetry/get-started/collector-infra-monitoring/opentelemetry-collector-infra-redis -translationType: machine ---- - -El [recopiladorOpenTelemetry ](https://opentelemetry.io/docs/collector/)es una herramienta independiente del proveedor para recibir, procesar y exportar telemetry data. Si bien los requisitos y la configuración del recolector varían, viene con una variedad de receptores y procesadores que lo hacen popular para el monitoreo de infraestructura. También es común emplear el recolector para procesamiento de datos, pero esta documentación se centra en casos de uso de monitoreo de infraestructura. Consulte [el recopilador OpenTelemetry para procesamiento de datos](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/get-started/collector-processing/opentelemetry-collector-processing-intro) para obtener más información. - -## Recepción de telemetría de infraestructura [#infrastructure-receivers] - -Los siguientes ejemplos demuestran el uso del recolector para monitor varios componentes de la infraestructura. El patrón general es configurar el recolector con un receptor de tecnología específica o de propósito general (es decir, prometheus) para extraer o sondear datos de un objetivo de infraestructura y exportar los datos a New Relic a través de OTLP. - -* [Docker](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/get-started/collector-infra-monitoring/opentelemetry-collector-infra-docker) -* [HCP Consul](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/get-started/collector-infra-monitoring/opentelemetry-collector-infra-hcp-consul) -* [HiveMQ](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/get-started/collector-infra-monitoring/opentelemetry-collector-infra-hivemq) -* [Hospedadores](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/get-started/collector-infra-monitoring/opentelemetry-collector-infra-hosts) -* [Nube de Kafka Confluent](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/get-started/collector-infra-monitoring/opentelemetry-collector-infra-kafka-confluentcloud) -* [Prometeo](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/get-started/collector-infra-monitoring/opentelemetry-collector-infra-prometheus) -* [Redis](https://github.com/newrelic/newrelic-opentelemetry-examples/tree/main/other-examples/collector/redis) -* [Singlestore](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/get-started/collector-infra-monitoring/opentelemetry-collector-infra-singlestore) -* [Squid](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/get-started/collector-infra-monitoring/opentelemetry-collector-infra-squid) -* [EstadísticasD](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/get-started/collector-infra-monitoring/opentelemetry-collector-infra-statsd) - -## Correlación de infraestructura con OpenTelemetry APM [#infrastructure-correlation] - -Los siguientes ejemplos demuestran el uso del recolector para correlacionar [datos APM OpenTelemetry ](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/get-started/apm-monitoring/opentelemetry-apm-intro)con infraestructura. El patrón general es configurar el recolector con un procesador que detecta y enriquece la telemetría APM con contexto ambiental adicional en forma de atributo de recurso, antes de exportar los datos a New Relic vía OTLP. New Relic puede detectar estos datos de correlación y construir [relaciones entre APM y la entidad de infraestructura](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-best-practices-resources). - -* [Hospedadores](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/get-started/collector-infra-monitoring/opentelemetry-collector-infra-hosts) -* [Kubernetes](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/get-started/collector-infra-monitoring/opentelemetry-collector-infra-k8s) \ No newline at end of file diff --git a/src/i18n/content/es/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/get-started/collector-processing/opentelemetry-collector-processing-intro.mdx b/src/i18n/content/es/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/get-started/collector-processing/opentelemetry-collector-processing-intro.mdx deleted file mode 100644 index 3d8f2733b3f..00000000000 --- a/src/i18n/content/es/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/get-started/collector-processing/opentelemetry-collector-processing-intro.mdx +++ /dev/null @@ -1,83 +0,0 @@ ---- -title: Recolector OpenTelemetry para procesamiento de datos -tags: - - Integrations - - Open source telemetry integrations - - OpenTelemetry -metaDescription: Use the OpenTelemetry collector as a general purpose telemetry data processing tool -freshnessValidatedDate: '2024-05-13T00:00:00.000Z' -translationType: machine ---- - -import opentelemetryNativeOtlpWithCollector from 'images/opentelemetry_diagram_native-otlp-with-collector.webp' - -El [recopiladorOpenTelemetry ](https://opentelemetry.io/docs/collector/)es una herramienta independiente del proveedor para recibir, procesar y exportar telemetry data. Se recomienda ejecutar el recolector en su canal de observabilidad. Si bien los requisitos y la configuración del recopilador variarán, es común enrutar [los datos APM OpenTelemetry ](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/get-started/apm-monitoring/opentelemetry-apm-intro)a través de un recopilador. Esto aleja la sobrecarga de la aplicación y proporciona un lugar para enriquecer la telemetría con datos de contexto ambiental adicionales, filtrar y transformar, y más. También es común usar el recolector para monitoreo de infraestructura, pero esta documentación se enfoca en casos de uso de procesamiento de datos. Ver [recolector de monitoreo de infraestructura](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/get-started/collector-infra-monitoring/opentelemetry-collector-infra-intro) para más información. - -A continuación se muestra un ejemplo del recolector como puerta de enlace, pero también puede configurar el recolector como un agente que se ejecuta en el mismo host que su aplicación: - -Diagram showing OpenTelemetry using the OpenTelemetry collector and New Relic's OTLP endpoint. - -El recolector cuenta con un extenso conjunto de receptores, procesadores, exportadores, extensiones y conectores. Estos componentes están incluidos en [distribuciones](https://opentelemetry.io/docs/collector/distributions/) prediseñadas. Sin embargo, es posible crear componentes personalizados que se ajusten a requisitos específicos y crear [una distribución de recolector personalizada](https://opentelemetry.io/docs/collector/custom-collector/) para empaquetar un conjunto específico de componentes. - -Si bien la configuración varía según los requisitos, el recopilador que envía datos a New Relic debe tener ciertas cosas en común: - -## Exportador OTLP [#otlp-exporter] - -El recopilador OpenTelemetry admite la exportación de datos mediante [otlphttpexporter](https://github.com/open-telemetry/opentelemetry-collector/tree/main/exporter/otlphttpexporter). Cerciorar de que la configuración del exportador coincida con [los requisitos de New Relic OTLP](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-otlp/#configure-endpoint-port-protocol). - -Tenga en cuenta que [otlpexporter](https://github.com/open-telemetry/opentelemetry-collector/tree/main/exporter/otlpexporter) es compatible, pero se prefiere el protocolo binario OTLP/HTTP a OTLP/gRPC. - -## Procesador por lotes [#batch-processor] - -Configure el recopilador para emplear el [procesador por lotes](https://github.com/open-telemetry/opentelemetry-collector/tree/main/processor/batchprocessor) para exportar registros en lotes. Cerciorar de que el tamaño y la frecuencia del lote estén [configurados para cumplir con los requisitos de New Relic OTLP](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-otlp/). - -## Ejemplo mínimo [#minimal-example] - -Para instalar el recopilador, consulte la [documentación OpenTelemetry ](https://opentelemetry.io/docs/collector/installation/). - -Ejecute el recopilador con la configuración siguiente, cerciorar de reemplazar lo siguiente: - -* Reemplace `` con el [extremo OTLP New Relic ](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-otlp/#endpoint-port-protocol)apropiado -* Reemplace `` con su [clave de licencia](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-otlp/#endpoint-port-protocol/#prereqs) - -```yaml -receivers: - otlp: - protocols: - grpc: - http: - -processors: - batch: - -exporters: - otlphttp: - endpoint: - headers: - api-key: - -service: - pipelines: - traces: - receivers: [otlp] - processors: [batch] - exporters: [otlphttp] - metrics: - receivers: [otlp] - processors: [batch] - exporters: [otlphttp] - logs: - receivers: [otlp] - processors: [batch] - exporters: [otlphttp] -``` - -Para ver un ejemplo práctico, consulte el [New Relic OpenTelemetry repositorio de](https://github.com/newrelic/newrelic-opentelemetry-examples/tree/main/other-examples/collector/nr-config) ejemplos . - -Para ejemplos adicionales de recolectores, consulte [recolector para monitoreo de infraestructura](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/get-started/collector-infra-monitoring/opentelemetry-collector-infra-intro). \ No newline at end of file diff --git a/src/i18n/content/es/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/get-started/opentelemetry-get-started-intro.mdx b/src/i18n/content/es/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/get-started/opentelemetry-get-started-intro.mdx deleted file mode 100644 index 62ed1764ee8..00000000000 --- a/src/i18n/content/es/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/get-started/opentelemetry-get-started-intro.mdx +++ /dev/null @@ -1,20 +0,0 @@ ---- -title: Comience con OpenTelemetry y New Relic -tags: - - Integrations - - Open source telemetry integrations - - OpenTelemetry -metaDescription: Explore a variety of OpenTelemetry integration patterns with New Relic. -freshnessValidatedDate: never -translationType: machine ---- - -El proyecto OpenTelemetry tiene un amplio alcance que incluye [especificacionesAPI y SDK](https://opentelemetry.io/docs/specs/otel/), [instrumentación](https://opentelemetry.io/docs/concepts/instrumentation/), el [recopilador](https://opentelemetry.io/docs/collector/), [convenciones semánticas](https://opentelemetry.io/docs/specs/semconv/), el protocolo [OTLP](https://opentelemetry.io/docs/specs/otlp/) y más. New Relic monitoreo de IA tendrá soporte de primera clase para OpenTelemetry y tiene una amplia variedad de capacidades de plataforma que facilitan el uso de las herramientas OpenTelemetry . - -Esta documentación es una colección de patrones de integración comunes de OpenTelemetry con New Relic. No es un conjunto exhaustivo de todos los usos posibles, pero debería dar una idea de las formas en que la mayoría de la gente usa OpenTelemetry y los tipos de capacidades de la plataforma New Relic construidas sobre esos flujos de trabajo. - -[OpenTelemetry APM monitoreo](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/get-started/apm-monitoring/opentelemetry-apm-intro) analiza el uso de OpenTelemetry para realizar monitoreo APM similar al [monitoreoAPM con el agente New Relic ](/docs/apm/new-relic-apm/getting-started/introduction-apm/). - -[OpenTelemetry El recolector para monitoreo de infraestructura](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/get-started/collector-infra-monitoring/opentelemetry-collector-infra-intro) contiene una variedad de ejemplos del uso del OpenTelemetry recolector para monitoreo de infraestructura, incluido el raspado/sondeo de OpenTelemetry APM objetivos de infraestructura y la correlación de datos con infraestructura. - -[El recopilador OpenTelemetry para procesamiento de datos](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/get-started/collector-processing/opentelemetry-collector-processing-intro) analiza los conceptos básicos del uso del recopilador OpenTelemetry como una herramienta general para recibir, procesar (enriquecer, transformar, muestrear, filtrar, etc.) y exportar telemetry data. \ No newline at end of file diff --git a/src/i18n/content/es/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/opentelemetry-introduction.mdx b/src/i18n/content/es/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/opentelemetry-introduction.mdx deleted file mode 100644 index bab0b375ea9..00000000000 --- a/src/i18n/content/es/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/opentelemetry-introduction.mdx +++ /dev/null @@ -1,119 +0,0 @@ ---- -title: Introducción a OpenTelemetry con New Relic -tags: - - Integrations - - Open source telemetry integrations - - OpenTelemetry -metaDescription: Here are some New Relic tips about when to implement OpenTelemetry. -freshnessValidatedDate: '2024-06-01T00:00:00.000Z' -translationType: machine ---- - -import moreintegrationsOtelRefArch from 'images/more-integrations_diagram_otel-ref-arch.webp' - -OpenTelemetry es un conjunto de herramientas para recopilar telemetría de aplicaciones, infraestructura (p. ej. hosts, k8s, etc.) y más. Al configurar las fuentes de datos de OpenTelemetry para exportar a New Relic, puede aprovechar una amplia gama de capacidades de la plataforma para analizar los datos y diagnosticar problemas. - -Esta página proporciona una descripción general de OpenTelemetry y New Relic. Para ver ejemplos de código de trabajo que demuestran patrones de integración comunes, incluido APM y monitoreo de infraestructura, consulte [cómo comenzar con OpenTelemetry con New Relic](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/get-started/opentelemetry-get-started-intro/). Para obtener información sobre cómo New Relic recibe, procesa e ingiere datos OpenTelemetry , consulte [DatosOpenTelemetry en New Relic](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-data-overview/) y, en individuo, detalles sobre [el extremo OTLP de New Relic](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-otlp/). - -## Beneficios de OpenTelemetry [#benefits] - -OpenTelemetry es un estándar abierto independiente del proveedor para instrumentar y exportar telemetry data. El alcance del proyecto es bastante extenso e incluye: - -* Una [especificación](https://opentelemetry.io/docs/specs/otel/) de API independiente del lenguaje para instrumentar los pilares centrales de observabilidad (traza, métrica, log) y SDK para configurar cómo se exporta la telemetría fuera de proceso, con implementaciones existentes en [más de 11](https://opentelemetry.io/docs/languages/) idiomas. Existe un catálogo sustancial de instrumentación disponible construida sobre estas API. -* [OTLP](https://opentelemetry.io/docs/specs/otlp/), un protocolo de entrega telemetry data de propósito general. -* [Convenciones semánticas](https://opentelemetry.io/docs/specs/semconv/) que describen la forma de telemetry data para el dominio común (es decir, Servidores HTTP, sistemas de mensajería y muchos más). -* El [recolector](https://opentelemetry.io/docs/collector/), un canal de procesamiento y recopilación de datos altamente configurable y extensible que se emplea para monitor la infraestructura y enriquecer, filtrar y transformar la telemetría. - -Estos componentes trabajan juntos para crear distintos beneficios: - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
- Característica - - Descripción -
- Agnóstico del idioma - - OpenTelemetry reduce la carga cognitiva de los equipos políglotas al proporcionar un vocabulario y un conjunto de herramientas. -
- Estándar abierto - - Como estándar abierto con una estructura de gobierno abierta, ningún proveedor controla la dirección de OpenTelemetry. -
- Control total de los datos de observabilidad. - - La naturaleza altamente configurable y extensible de los SDK de lenguaje y el recopilador ofrecen un control incomparable sobre su canal telemetry data . -
- Rico ecosistema de instrumentación - - Uno de los objetivos de OpenTelemetry es que, en última instancia, la API se emplee directamente en la biblioteca y el marco ascendentes. Para cerrar la brecha, OpenTelemetry proporciona un gran catálogo de instrumentación aportada por ingenieros de todo el mundo. Hay más esfuerzo de instrumentación colectiva en OpenTelemetry del que cualquier proveedor puede realizar por sí solo. -
- Prueba del futuro - - Si bien OpenTelemetry ya recorrió un largo camino, parece estar preparado para crecer en adopción gracias a su gran comunidad activa, el apoyo de la industria y el modelo de gobernanza abierta. Si bien no podemos ver el futuro, OpenTelemetry es el ganador más probable del código abierto en la industria de observabilidad. -
- -## ¿OpenTelemetry o instrumentación New Relic? [#choice] - -En muchos casos, existe una superposición entre las características y los componentes disponibles en OpenTelemetry y New Relic. Por ejemplo, [el monitoreo OpenTelemetry APM](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/get-started/apm-monitoring/opentelemetry-apm-intro/) refleja [el agente New Relic APM](/docs/apm/new-relic-apm/getting-started/introduction-apm/), y [el monitoreo de infraestructura con el recolector OpenTelemetry](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/get-started/collector-infra-monitoring/opentelemetry-collector-infra-intro/) refleja las capacidades del [agente New Relic Infrastructure](/docs/infrastructure/infrastructure-monitoring/get-started/get-started-infrastructure-monitoring/). - -Le recomendamos que explore las opciones de New Relic y OpenTelemetry. Con la instrumentación New Relic , existen beneficios inherentes al desarrollo de instrumentación y plataforma característica que funcionan juntas, y la integración New Relic tiende a funcionar mejor desde el primer momento. Por otro lado, OpenTelemetry ofrece un grado incomparable de flexibilidad y control, pero esto a veces requiere investigación y esfuerzo adicionales para lograr el resultado deseado. - -## OpenTelemetry está en continua evolución [#emerging-standard] - -El proyecto OpenTelemetry tiene un gran alcance que fue creciendo a lo largo de los años. Si bien muchos componentes centrales alcanzaron la estabilidad (incluidos OTLP,API la /SDK de traza, la API /SDK de métrica, la /SDK log bridge, las API convenciones semánticas http y muchas implementaciones de lenguaje), naturalmente hay piezas que se encuentran en otras etapas. de madurez. - -New Relic monitoreo de IA tendrá soporte de primera clase para OpenTelemetry, incluida la ingesta de todos los datos OTLP en nuestra plataforma de observabilidad de propósito general y la creación de experiencia del usuario sobre los datos de OpenTelemetry para ayudar a generar información valiosa a partir de los datos listos para usar. A medida que los componentes surjan y se desarrollen, las capacidades de nuestra plataforma evolucionarán. Sin embargo, tenga en cuenta el estado de madurez de cualquier componente de OpenTelemetry con el que se esté integrando. Si bien intentamos estar al tanto de los cambios, puede resultar complicado desarrollar cambios importantes en los componentes experimentales. - -## Arquitectura de referencia OpenTelemetry [#reference-architecture] - -Con una variedad tan amplia de componentes y opciones de configuración, puede resultar difícil saber por dónde empezar con OpenTelemetry. - -El siguiente diagrama ilustra una arquitectura de referencia: una vista de alto nivel de cómo una variedad de componentes de OpenTelemetry funcionan juntos y se integran con New Relic. Los desarrolladores de software, DevOps, arquitectos y gerentes pueden usarlo para alinear conceptos. Muestra aplicaciones instrumentadas con una variedad de herramientas ( New Relic APM agente, OpenTelemetry APM instrumentación, Jaeger y Prometheus) exportando datos a New Relic y, opcionalmente, a través de un recolector intermedio OpenTelemetry . El recopilador OpenTelemetry comprende una amplia variedad de protocolos y puede procesar, filtrar y enriquecer telemetry data antes de exportarlos a uno o más destinos. Para ver ejemplos de código funcional que demuestran esta integración, consulte [Introducción a OpenTelemetry y New Relic](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/get-started/opentelemetry-get-started-intro/). - -Diagram showing a reference architecture for OpenTelemetry and New Relic - -Para obtener lecturas adicionales, familiarizar con la [demostración de OpenTelemetry](https://opentelemetry.io/docs/demo/), un proyecto mantenido por la comunidad OpenTelemetry que ilustra varios conceptos de OpenTelemetry a través de un sistema de comercio electrónico ficticio impulsado por un serial de microservicios. \ No newline at end of file diff --git a/src/i18n/content/es/docs/more-integrations/open-source-telemetry-integrations/roku/roku-open-source-video-agent.mdx b/src/i18n/content/es/docs/more-integrations/open-source-telemetry-integrations/roku/roku-open-source-video-agent.mdx deleted file mode 100644 index 96e6059930d..00000000000 --- a/src/i18n/content/es/docs/more-integrations/open-source-telemetry-integrations/roku/roku-open-source-video-agent.mdx +++ /dev/null @@ -1,23 +0,0 @@ ---- -title: Agente de código abierto de Roku -tags: - - Agents - - Open-source licensed agents - - Open-source licensed agents -metaDescription: A brief introduction to New Relic's open-source Roku video agent. -freshnessValidatedDate: never -translationType: machine ---- - -Monitor el comportamiento de Roku con New Relic utilizando el [agente de código abierto de Roku](https://github.com/newrelic/video-agent-roku). El agente contiene dos partes para capturar dos categorías separadas del comportamiento de Roku: - -* Evento de aplicación como inicio de aplicación y solicitudes HTTP -* Reproducción de vídeo dentro de la aplicación. - - - Este agente se publica como código abierto en GitHub. También hay disponible un log de cambios para las últimas actualizaciones. - - -## Empezar [#get_started] - -Para obtener información sobre requisitos, instalación y configuración, consulte el [archivo README del agente Roku de código abierto](https://github.com/newrelic/video-agent-roku/blob/master/README.md) en GitHub. \ No newline at end of file diff --git a/src/i18n/content/es/docs/more-integrations/open-source-telemetry-integrations/statsd/statsd-monitoring-integration.mdx b/src/i18n/content/es/docs/more-integrations/open-source-telemetry-integrations/statsd/statsd-monitoring-integration.mdx deleted file mode 100644 index 1fc8a6fcf02..00000000000 --- a/src/i18n/content/es/docs/more-integrations/open-source-telemetry-integrations/statsd/statsd-monitoring-integration.mdx +++ /dev/null @@ -1,651 +0,0 @@ ---- -title: Integración de monitoreo de StatsD -tags: - - Integrations - - On-host integrations - - On-host integrations list -freshnessValidatedDate: never -translationType: machine ---- - -import infrastructureStatsdNrqlCondition from 'images/infrastructure_screenshot-crop_statsd-nrql-condition.webp' - -import infrastructureStatsdNrqlAlert from 'images/infrastructure_screenshot-crop_statsd-nrql-alert.webp' - -Nuestra integración de StatsD le permite obtener fácilmente datos en formato [StatsD](https://github.com/statsd/statsd)en New Relic. También puede agregar cualquier etiqueta arbitraria (pares de valores principales) a sus datos. Una vez que tus métricas estén en New Relic, podrás [consultar tus datos](#find-use-data) y crear gráficos y paneles personalizados. - -¿Quieres probar nuestra integración de StatsD? ¡ [Crea una cuenta New Relic](https://newrelic.com/signup) gratis! No se requiere tarjeta de crédito. - -## Requisitos - -Esta integración utiliza nuestra [API métrica](/docs/data-ingest-apis/get-data-new-relic/metric-api/introduction-metric-api) y nuestra [API de eventos](/docs/insights/insights-data-sources/custom-data/introduction-event-api) para ingerir datos. Para utilizar estas API, necesitará un . - -La integración cumple con los [requisitos de API métrica y los límites de datos](/docs/data-ingest-apis/get-data-new-relic/metric-api/metric-api-limits-restricted-attributes). Para ver si es posible que esté alcanzando el límite de velocidad, ejecute la siguiente consulta NRQL del [evento`NrIntegrationError` ](/docs/telemetry-data-platform/manage-data/nrintegrationerror): - -```sql -SELECT count(*) FROM NrIntegrationError - WHERE newRelicFeature ='Metrics' - FACET category, message - LIMIT 100 since 1 day ago -``` - -La integración está disponible como una imagen de contenedor de Linux en [DockerHub](https://hub.docker.com/r/newrelic/nri-statsd/tags) para amd64 y arm64 arquitectura. - -## Instalar - -Esta sección explicará cómo realizar una instalación estándar. Si desea ejecutar StatsD en Kubernetes, consulte [Instalación de Kubernetes](#kubernetes). - -Para instalar la integración de StatsD, ejecute el siguiente comando e incluya su [ID de cuenta de New Relic](/docs/accounts/install-new-relic/account-setup/account-id) y . Esto genera un archivo de configuración TOML utilizado por `gostatsd`. - -```shell -docker run \ - -d --restart unless-stopped \ - --name newrelic-statsd \ - -h $(hostname) \ - -e NR_ACCOUNT_ID=YOUR_ACCOUNT_ID \ - -e NR_API_KEY=NEW_RELIC_LICENSE_KEY \ - -p 8125:8125/udp \ - newrelic/nri-statsd:latest -``` - -Si su organización se encuentra en la [región del centro de datos de la UE](/docs/using-new-relic/welcome-new-relic/get-started/introduction-eu-region-data-center), agregue esto al comando anterior: - -```shell --e NR_EU_REGION=true \ -``` - -Después de la instalación, puedes: - -* Realizar [configuración adicional](#configure)opcional -* [Define tu métrica](#metric-format) -* [Añade una etiqueta personalizada](#add-tags) a tus datos -* [Crear alerta](#alerts) - -### Instalar para Kubernetes [#kubernetes] - -A continuación se muestran ejemplos de manifiestos de Kubernetes para implementación y objetos de servicio: - - - - A continuación se muestran ejemplos de manifiestos de Kubernetes para implementar StatsD en un entorno de Kubernetes y crear un servicio de StatsD denominado `newrelic-statsd`. Debes insertar tu [ID de cuenta](/docs/accounts/install-new-relic/account-setup/account-id) y tu . - - **deployment.yml**: - - ```yml - apiVersion: apps/v1 - kind: Deployment - metadata: - name: newrelic-statsd - namespace: tooling - labels: - app: newrelic-statsd - spec: - selector: - matchLabels: - app: newrelic-statsd - replicas: 2 - revisionHistoryLimit: 2 - template: - metadata: - labels: - app: newrelic-statsd - spec: - serviceAccountName: newrelic-statsd - containers: - - name: newrelic-statsd - image: newrelic/nri-statsd:latest - env: - - name: NR_ACCOUNT_ID - value: "NEW_RELIC_ACCOUNT_ID" - - name: NR_API_KEY - value: "NEW_RELIC_LICENSE_KEY" - ``` - - **service.yml**: - - ```yml - apiVersion: v1 - kind: Service - metadata: - name: newrelic-statsd - namespace: tooling - labels: - app: newrelic-statsd - spec: - type: ClusterIP - ports: - - name: newrelic-statsd - port: 80 - targetPort: 8125 - protocol: UDP - selector: - app: newrelic-statsd - ``` - - **service-account.yml**: - - ```yml - apiVersion: v1 - kind: ServiceAccount - metadata: - name: newrelic-statsd - namespace: default - ``` - - Para obtener detalles sobre la configuración, consulte [Configuración de Kubernetes](#k8s-config). - - - - También está disponible un [gráfico StatsD Helm](https://github.com/newrelic/helm-charts/tree/master/charts/nri-statsd) para instalar la integración. - - - - - -## Configurar - -En el [procedimiento de instalación](#install), ejecuta `nri-statsd` con variables de entorno y esto genera un archivo de configuración TOML. Además, puede establecer estas opciones de configuración: - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
- Opciones de configuración - - Descripción -
- `expiry-interval` - - _cadena_ - - Si una métrica no se actualiza durante este período de tiempo, dejamos de informar esa métrica. El valor predeterminado es `5m`. - - Si desea enviar la métrica solo si el valor se actualizó entre los intervalos de descarga, configúrelo en `1ms`. Para nunca caducar métrica, configúrelo en `0`. -
- `percent-threshold` - - _lista de números enteros_ - - Especifica el percentil utilizado para la agregación métrica. Predeterminado: `90`. -
- `metrics-addr` - - _cadena_ - - Indica dirección en la que escuchar métrica. Predeterminado: `:8125`. Desde nri-statsd `v2.3.0` (goStatsD `v34.2.1`), se admite la conexión a través de Unix Domain Socket (UDS). Utilice "metrics-addr=/some/path/newrelic-statsd.socket" en lugar de "\[host]:port" en la configuración. -
- - - Para garantizar el cumplimiento de FedRAMP al utilizar la integración de StatsD, debe definir el siguiente extremo en la configuración personalizada: - - ``` - address = 'https://gov-insights-collector.newrelic.com/v1/accounts/ $NR_ACCOUNT_ID/events' - ``` - - ``` - address-metrics = 'https://gov-infra-api.newrelic.com/metric/v1' - ``` - - -A continuación se muestran algunos ejemplos de personalización de la configuración sobrescribiendo la configuración predeterminada: - - - - ``` - # Specify after how long do we expire metrics, default:5m - expiry-interval = '1ms' - - # percent-threshold specify a list of percentiles for metrics aggregation, default:90 - percent-threshold = [90, 99] - - backends='newrelic' - [newrelic] - # flush types supported: metrics, insights, infra - flush-type = 'metrics' - transport = 'default' - address = 'https://insights-collector.newrelic.com/v1/accounts/$NR_ACCOUNT_ID/events' - address-metrics = 'https://metric-api.newrelic.com/metric/v1' - api-key = 'NEW_RELIC_LICENSE_KEY' - ``` - - - **Disable timer sub-metrics:** - - - De forma predeterminada, `nri_statsd` calcula lo siguiente para el temporizador métrico: desviación estándar, media, mediana, suma, límites inferior y superior para el intervalo de descarga. Si deseas deshabilitar esas métricas puedes hacerlo agregando una sección de configuración `disabled-sub-metrics` y configurando `true` para las que deseas deshabilitar. He aquí un ejemplo: - - ``` - # disabled-sub-metrics configuration section allows disabling timer sub-metrics - [disabled-sub-metrics] - # Regular metrics - count=false - count-per-second=false - mean=false - median=false - lower=false - upper=false - stddev=false - sum=false - sum-squares=false - - # Percentile metrics - count-pct=false - mean-pct=false - sum-pct=false - sum-squares-pct=false - lower-pct=false - upper-pct=false - ``` - - - - Para sobrescribir la configuración predeterminada `nri-statsd` mientras se ejecuta en un contenedor, puede montar un archivo de configuración dentro del contenedor. - - Puede adoptar la siguiente plantilla según sea necesario para su situación. - - Ejemplo: - - ``` - backends='newrelic' - flush-interval='10s' - - [newrelic] - # flush types supported: metrics, insights, infra - flush-type = 'metrics' - transport = 'default' - address-metrics = 'https://metric-api.newrelic.com/metric/v1' - api-key = 'NEW_RELIC_LICENSE_KEY' - ``` - - Para ejecutar el contenedor con el archivo montado en la ruta adecuada: - - ```shell - docker run \ - ... - -v ${PWD}/nri-statsd.toml:/etc/opt/newrelic/nri-statsd.toml \ - ... - newrelic/nri-statsd:latest - ``` - - - - El mejor enfoque para configurar `nri-statsd` ejecutándose en Kubernetes es usar un `configMap` y montar el `configMap` en el contenedor. (Este es un proceso similar al de montar el archivo de configuración en docker). - - Ejemplo: - - ``` - apiVersion: v1 - kind: ConfigMap - metadata: - name: nri-statsd-config - namespace: default - data: - nri-statsd.toml: | - backends='newrelic' - flush-interval='10s' - - [newrelic] - # flush types supported: metrics, insights, infra - flush-type = 'metrics' - transport = 'default' - address = 'https://metric-api.newrelic.com/metric/v1' - api-key = '$NEW_RELIC_LICENSE_KEY' - ``` - - Para usar configMap, declare un volumen en su plantilla de especificación desplegable y luego declare un `volumeMount` en su especificación de contenedor. - - Ejemplo: - - ``` - apiVersion: apps/v1 - kind: Deployment - spec: - template: - spec: - containers: - .... - volumeMounts: - - mountPath: /etc/opt/newrelic/ - name: nri-statsd-config - volumes: - - name: nri-statsd-config - configMap: - name: nri-statsd-config - ``` - - - -## Formato métrico - -La integración recibe métrica utilizando el [protocolo StatsD](https://github.com/statsd/statsd). Opcionalmente, se puede configurar la frecuencia de muestreo y agregar una etiqueta. - -Este es el formato de datos métrico que utilizamos: - -``` -:||@|# -``` - -Aquí hay explicaciones de estos campos: - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
- Nombre del campo - - Descripción -
- <metric name> - `string` - - **Required.** Nombre de la métrica. -
- <value> - `string` - - **Required.** El [tipo de métrica](#metric-types): - - * `c` = contador - * `g` = medidor - * `ms` = temporizador -
- @<sample rate> - `float` - - **Optional** para contadores simples o contadores temporizadores. Cuando se deben enviar muchas métricas, se puede utilizar el muestreo para reducir el tráfico de la red. La desventaja es una reducción en la resolución de los datos. - - Un ejemplo de cómo funcionaría esto para frecuencias de muestreo inferiores a `1`: si lo configura en `0.1`, el contador enviará una medición una de cada 10 veces. -
- \#<tags> - `string` - - **Optional.** La etiqueta adjunta a su métrica se convierte en atributo (valor principal pares). Para obtener más información sobre las opciones de etiquetas, consulte [etiqueta](#add-tags). -
- -## Tipos métricos - -A continuación se detallan los tipos de métricas y cómo formatearlas: - - - - Un contador mide el número de ocurrencias de un evento. Los ejemplos incluyen el almacenamiento de caché por intervalo de informe y el número de subprocesos creados por intervalo de informe. - - Un contador se puede incrementar o disminuir durante el mismo intervalo de descarga agregando un signo al valor. En el siguiente ejemplo, el valor del contador será `2`: - - ``` - counter:4|c - counter:-2|c - ``` - - En cada descarga, el recuento actual se envía y se restablece a `0`. Si el recuento no se actualiza, en el siguiente lavado enviará el valor `0`. Puede optar por desactivar este comportamiento configurando [`expiry-interval`](#configure) en `1ms`. - - A continuación se muestra un ejemplo de un contador que se muestrea 1 de cada 10 veces: - - ``` - counter:4|c@0.1 - ``` - - - - Un medidor representa un valor que puede aumentar o disminuir con el tiempo. Ejemplos de medidor incluyen temperatura, uso de CPU y memoria. He aquí un ejemplo: - - ``` - temperature:40|g - ``` - - Si el medidor no se actualiza, en la siguiente descarga enviará el valor anterior. Puede optar por desactivar este comportamiento configurando [`expiry-interval`](#configure) en `1ms`. - - - - El tipo de métrica de temporizador mide los datos de tiempo. - - De forma predeterminada, `nri_statsd` calcula lo siguiente para el temporizador métrico: desviación estándar, media, mediana, suma, límites inferior y superior para el intervalo de descarga. Estos se envían como submétricos en el siguiente formato: - - ``` - .std_dev - .median - .summary - .sum_squares - .mean - .per_second - ``` - - El percentil configurado generará la siguiente métrica. El valor del umbral percentil se adjuntará como etiqueta. - - ``` - .sum_squares.percentiles - .sum.percentiles - .count.percentiles - .upper.percentiles - .mean.percentiles - ``` - - El umbral percentil se puede modificar con la opción de configuración [`percent-threshold`](#configure) . Estos se pueden controlar a través de la [sección de configuración`disabled-sub-metrics` ](#config-example). - - - -## Agregar etiqueta (atributo) [#add-tags] - -Puedes agregar una etiqueta a tus datos, que guardamos como [atributo](/docs/using-new-relic/welcome-new-relic/get-started/glossary#attribute) (valor principal pares). Hay dos opciones para agregar etiquetas: - -* Agregue una etiqueta predeterminada que se aplique a todas las métricas: Estas se aplican a todas las métricas. Son fijos y no cambian con el tiempo. -* Agregar etiqueta de nivel de métrica: se aplican a métricas específicas y permiten cambiar el valor entre dos envíos. - - - - Agregue etiqueta a métrica y evento definiendo una variable de entorno en el [comando de inicio](#install). - - Aquí hay un ejemplo que crearía dos etiquetas: - - ``` - -e TAGS="environment:production region:us" - ``` - - Aquí está la variable de entorno utilizada en el [comando de inicio](#install): - - ``` - docker run \ - -d --restart unless-stopped \ - --name newrelic-statsd \ - -h $(hostname) \ - -e NR_ACCOUNT_ID=YOUR_ACCOUNT_ID \ - -e NR_API_KEY=NEW_RELIC_LICENSE_KEY \ - -e TAGS="environment:production region:us" \ - -p 8125:8125/udp \ - newrelic/nri-statsd:latest - ``` - - - - Al definir el [formato métrico](#metric-format), puede agregar una etiqueta usando este formato: - - ``` - :||# - ``` - - En este ejemplo, `` es una lista de etiquetas separadas por comas. El formato de la etiqueta es: `simple` o `key:value`. - - - -A continuación se muestra un ejemplo de consulta [NRQL](/docs/query-data/nrql-new-relic-query-language/getting-started/introduction-nrql) que incluye una etiqueta personalizada: - -``` -SELECT count(*) FROM Metric WHERE environment = 'production' -``` - -## Crear alerta [#alerts] - -Puede alertar sobre datos de StatsD usando [NRQL condición de alerta](/docs/alerts/new-relic-alerts/defining-conditions/create-alert-conditions-nrql-queries). - - - - Este procedimiento le guiará en el envío de algunos datos de muestra y luego en la creación de una condición de alerta utilizando esos datos. - - Primero, envíe estos datos al contenedor StatsD de New Relic: - - ``` - echo "prod.test.num:32|g" | nc -v -w 1 -u localhost 8125 - ``` - - A continuación, cree una [condición de alerta NRQL](/docs/alerts/new-relic-alerts/defining-conditions/create-alert-conditions-nrql-queries) utilizando esta consulta: - - ``` - SELECT latest(prod.test.num) FROM Metric WHERE metricName = 'prod.test.num' - ``` - - Aquí hay una imagen que muestra la creación de esta condición de alerta NRQL. Observe que los datos de muestra enviados están representados por el punto azul en la parte superior derecha del gráfico. - - StatsD NRQL alert condition query - - Ahora podemos crear la condición de alerta con esta configuración: - - StatsD NRQL alert condition creation example - - Cuando cree la condición de alerta NRQL, asegúrese de configurar **Condition name**. - - Si se envía una métrica con un valor superior a 50, se crea y notifica un incidente. El incidente se cierra automáticamente después de 24 horas. Para probar que la alerta está funcionando, ejecute este comando: - - ``` - echo "prod.test.num:60|g" | nc -v -w 1 -u localhost 8125 - ``` - - - -## Buscar y utilizar datos [#find-use-data] - -Para consultar tus datos, utilizarías cualquier [opción de consulta](/docs/using-new-relic/data/understand-data/query-new-relic-data) de New Relic. Por ejemplo, podrías ejecutar una consulta [NRQL](/docs/query-data/nrql-new-relic-query-language/getting-started/introduction-nrql) como: - -``` -SELECT count(*) FROM Metric WHERE metricName = 'myMetric' and environment = 'production' -``` - -Para obtener más información sobre cómo consultar el tipo de datos `Metric` , consulte [consulta métrica de datos](/docs/data-ingest-apis/get-data-new-relic/metric-api/view-query-you-metric-data). - -## Resolución de problemas [#troubleshooting] - -**Problema**: - -Seguiste los pasos para ejecutar la integración de StatsD pero aún necesitas ver la métrica esperada en New Relic. - -**Soluciones**: - -Siga los pasos a continuación para solucionar problemas de su configuración: - -* Asegúrese de que - - - - contenga su clave de licencia de 40 caracteres hexadecimales y que sea una licencia válida para el ID de cuenta de New Relic seleccionado. - -* Asegúrese de que se haya seleccionado el centro de datos correcto, EE. UU. o UE, para su cuenta New Relic. Consejo: Si la clave_licencia comienza con "eu", entonces debe utilizar la marca `NR_EU_REGION=true` . - -* Asegúrese de que no haya ningún [`NrIntegrationError`](/data-apis/ingest-apis/metric-api/troubleshoot-nrintegrationerror-events/) relacionado con la integración de StatsD. - -* El registro detallado se puede habilitar usando la variable de entorno `NR_STATSD_VERBOSE`, modifique el comando de ejecución docker agregando la siguiente variable: `-e NR_STATSD_VERBOSE=true`. - -* Se puede enviar una prueba métrica para confirmar que la integración está enviando las métricas esperadas. Ejemplo de uso de la utilidad NetCat `nc` : - - * `echo "example.gauge:123|g" | nc -u -w0 127.0.0.1 8125` (actualice `127.0.0.1` con la dirección IP/dirección del contenedor en ejecución). - -## Comprueba el código fuente [#source-code] - -Esta integración es software de código abierto. Eso significa que puedes [explorar su código fuente](https://github.com/newrelic/nri-statsd/) y enviar mejoras, o crear tu propia bifurcación y compilarla. \ No newline at end of file diff --git a/src/i18n/content/es/docs/more-integrations/open-source-telemetry-integrations/wordpress/wordpress-fullstack-integration.mdx b/src/i18n/content/es/docs/more-integrations/open-source-telemetry-integrations/wordpress/wordpress-fullstack-integration.mdx deleted file mode 100644 index 97dc2e0a0c8..00000000000 --- a/src/i18n/content/es/docs/more-integrations/open-source-telemetry-integrations/wordpress/wordpress-fullstack-integration.mdx +++ /dev/null @@ -1,210 +0,0 @@ ---- -title: Stack completa de WordPress -tags: - - New Relic integrations - - WordPress Full Stack integration -metaDescription: Use New Relic browser monitoring to get a dashboard with metrics from your Wordpress. -freshnessValidatedDate: '2023-06-28T00:00:00.000Z' -translationType: machine ---- - -import infrastructureWordPressIntegrationDashboard from 'images/infrastructure_screenshot-full_wordpress-dashboard.webp' - -Nuestra integración de WordPress monitorea el rendimiento de su aplicación web de WordPress, ayudándolo a diagnosticar problemas en su aplicación y optimizar su código. Nuestra integración de WordPress hace uso de nuestras integraciones PHP, Apache y MySQL, y le brinda un dashboard prediseñado con sus métricas de WordPress más importantes, como transacciones, visitantes y duración de las llamadas. - -A screenshot depicting the wordpress dashboard - -
- Después de configurar nuestra integración de WordPress, le brindamos un dashboard para su métrica de WordPress. -
- -## Instalar [#install] - - - - ### Instalar el agente de infraestructura [#infra-install] - - Puede instalar el agente de infraestructura de dos maneras diferentes: - - * Nuestra [instalación guiada](https://one.newrelic.com/nr1-core?state=4f81feab-35f7-e97e-9903-52510f8542bd) es una herramienta CLI que inspecciona su sistema e instala el agente de infraestructura junto con el agente de monitoreo de aplicaciones que mejor funcione para su sistema. Para obtener más información sobre cómo funciona nuestra instalación guiada, consulte nuestra [descripción general de la instalación guiada](/docs/infrastructure/host-integrations/installation/new-relic-guided-install-overview). - * Si prefiere instalar nuestro agente de infraestructura manualmente, puede seguir un tutorial para la instalación manual para [Linux](/docs/infrastructure/install-infrastructure-agent/linux-installation/install-infrastructure-monitoring-agent-linux), [Windows](/docs/infrastructure/install-infrastructure-agent/windows-installation/install-infrastructure-monitoring-agent-windows/) o [macOS](/docs/infrastructure/install-infrastructure-agent/macos-installation/install-infrastructure-monitoring-agent-macos/). - - - - ### Instalar el agente PHP - - 1. Consulte nuestros [requisitos del agente PHP](/docs/apm/agents/php-agent/getting-started/monitor-your-php-app/) antes de instalar el agente. - - 2. Abra la [instalación de inicio rápido de PHP](https://newrelic.com/instant-observability/php). - - 3. Haga clic en - - **Install now** - - para iniciar la instalación del agente PHP. - - - - ### Instale el inicio rápido de MySQL - - 1. Consulte nuestros [requisitos de MySQL](/docs/infrastructure/host-integrations/host-integrations-list/mysql-config//). - - 2. Abra [la instalación de inicio rápido de MySQL](https://newrelic.com/instant-observability/mysql). - - 3. Haga clic en - - **Install now** - - para iniciar la instalación del agente MySQL. - - - - ### Instale el inicio rápido de Apache - - 1. Consulte nuestros [requisitos de Apache](/docs/infrastructure/host-integrations/host-integrations-list/apache-monitoring-integration/). - - 2. Abra la [instalación de inicio rápido de Apache](https://newrelic.com/instant-observability/apache). - - 3. Haga clic en - - **Install now** - - para iniciar la instalación del agente Apache. - - - - ### Configurar NRI-Flex para WordPress - - Flex viene incluido con el agente New Relic Infrastructure . Para crear un archivo de configuración flexible, siga estos pasos: - - 1. Cree un archivo llamado `read-wordpress-files-config.yml` en esta ruta: - - ```shell - /etc/newrelic-infra/integrations.d - ``` - - 2. Actualice el `read-wordpress-files-config.yml` con estos detalles: - - * `INSERT_EVENT_TYPE`. Un `event_type` es una tabla de base de datos de New Relic que puedes consultar usando NRQL. Un ejemplo de `event_type` sería `WPDirectories` - * `INSERT_WORDPRESS_PATH`. Aquí, debe ingresar el directorio de su aplicación de WordPress, como: `/srv/www/wordpress/*`. - - 3. Utilice este archivo de configuración: - - ```yml - integrations: - - name: nri-flex - interval: 180s - config: - name: linuxDirectorySize - apis: - - event_type: INSERT_EVENT_TYPE - commands: - - run: du INSERT_WORDPRESS_PATH - split: horizontal - set_header: [dirSizeKB, dirName] - regex_match: true - split_by: (\d+)\s+ - ``` - - - - ### Configurar WordPress para exponer el registro de depuración - - 1. Abra su aplicación de WordPress y luego abra el archivo `wp-config.php` . - - 2. Actualice el archivo con los valores que se enumeran a continuación: - - ``` - // Enable WP_DEBUG mode - define( 'WP_DEBUG', true ); - - // Enable Debug logging to the /wp-content/debug.log file - define( 'WP_DEBUG_LOG', true ); - ``` - - Una vez que inicie su aplicación, verá un archivo `debug.log` en el directorio `wp-content` . - - - - ### Reenviar el registro de depuración de WordPress a New Relic - - Puede utilizar nuestro [reenvío de registros](/docs/logs/forward-logs/forward-your-logs-using-infrastructure-agent/) para reenviar el registro de WordPress a New Relic. - - En máquinas Linux, su archivo de registro llamado `logging.yml` debe estar presente en esta ruta: - - ```shell - /etc/newrelic-infra/logging.d/ - ``` - - Después de crear el archivo de registro, agregue el siguiente script al archivo `logging.yml`: - - ```yml - logs: - - name: wordpress-debug.log - file: /src/www/wordpress/wp-content/debug.log - attributes: - logtype: wordpress_debug - ``` - - - - ### Reiniciar el agente de infraestructura. - - Antes de que pueda comenzar a leer sus datos, utilice las instrucciones de nuestros [documentos del agente de infraestructura](/docs/infrastructure/install-infrastructure-agent/manage-your-agent/start-stop-restart-infrastructure-agent/) para reiniciar su agente de infraestructura. - - ```shell - sudo systemctl restart newrelic-infra.service - ``` - - En un par de minutos, tu aplicación se enviará métrica a [one.newrelic.com](https://one.newrelic.com). - - - -## Encuentra tus datos [#find-data] - -Puede elegir nuestra plantilla dashboard prediseñadas llamada `WordPress Full Stack` para monitor métricamente su aplicación de WordPress. Siga estos pasos para utilizar nuestra plantilla dashboard prediseñadas: - -1. Desde [one.newrelic.com](https://one.newrelic.com), vaya a la página - - **+ Add data** - - . - -2. Haga clic en - - **Dashboards** - - . - -3. En la barra de búsqueda, escriba `WordPress Full Stack`. - -4. Debería aparecer el dashboard de WordPress. Haga clic en él para instalarlo. - -Su dashboard de WordPress se considera un panel personalizado y se puede encontrar en la UI **Dashboards**. Para obtener documentos sobre el uso y edición del panel, consulte [nuestros documentos dashboard ](/docs/query-your-data/explore-query-data/dashboards/introduction-dashboards). - -Aquí hay un ejemplo de consulta NRQL para verificar el retraso de la interacción con la siguiente pintura (INP): - -```sql -SELECT percentage(count(*), -WHERE interactionToNextPaint < 200) -AS 'Good (<100ms)', percentage(count(*), -WHERE interactionToNextPaint >= 200 and interactionToNextPaint < 500) -AS 'Needs improvement (>=100 <300ms)', percentage(count(*), -WHERE interactionToNextPaint >= 500) -AS 'Poor (> 300ms)' -FROM PageViewTiming -WHERE interactionToNextPaint IS NOT NULL -TIMESERIES AUTO -``` - -## ¿Que sigue? [#whats-next] - -Para obtener más información sobre cómo consultar sus datos y crear un panel personalizado, consulte estos documentos: - -* [Introducción al generador de consultas](/docs/query-your-data/explore-query-data/query-builder/introduction-query-builder) -* [Introducción al panel personalizado](/docs/query-your-data/explore-query-data/dashboards/introduction-dashboards) -* [Administra tu dashboard](/docs/query-your-data/explore-query-data/dashboards/manage-your-dashboard) \ No newline at end of file diff --git a/src/i18n/content/es/docs/more-integrations/terraform/terraform-intro.mdx b/src/i18n/content/es/docs/more-integrations/terraform/terraform-intro.mdx deleted file mode 100644 index 87d5542b00a..00000000000 --- a/src/i18n/content/es/docs/more-integrations/terraform/terraform-intro.mdx +++ /dev/null @@ -1,482 +0,0 @@ ---- -title: Comenzando con New Relic y Terraform -metaDescription: 'Learn how to provision New Relic resources using [Terraform](https://www.terraform.io/).' -freshnessValidatedDate: never -translationType: machine ---- - -[Terraform](https://www.terraform.io/) es una popular herramienta de software de infraestructura como código creada por HashiCorp. Se utiliza para aprovisionar todo tipo de infraestructura y servicios, incluidos New Relic y alerta. - -En esta guía, aprenderá cómo configurar New Relic con Terraform. Más específicamente, proporciona una política de alertas, cuatro condiciones de alerta y un canal de notificación. Las cuatro condiciones de alerta se basan en las [cuatro señales doradas](https://landing.google.com/sre/sre-book/chapters/monitoring-distributed-systems/#xref_monitoring_golden-signals) de monitoreo introducidas en [el libro Site Reliability Engineering de Google](https://landing.google.com/sre/sre-book/toc/index.html): - -* **Latency:** - - La cantidad de tiempo que le toma a su aplicación atender una solicitud. - -* **Traffic:** - - La cantidad de solicitudes que recibe su sistema. - -* **Errors:** - - La tasa de solicitudes que fallan. - -* **Saturation:** - - El énfasis en los recursos para satisfacer las demandas de su aplicación. - -
+## AIモニタリング [#ai-monitoring] + +このセクションでは、[AIモニタリング](/docs/ai-monitoring/intro-to-ai-monitoring)のJavaエージェント設定オプションについて詳しく説明します。この機能は、`ai_monitoring`設定ファイルのスタンザで、`newrelic.config.ai_monitoring.`プリフィックス化システムプロパティ、または`NEW_RELIC_AI_MONITORING_`プリフィックス化環境変数を使用して設定できます。 + + + ディストリビューティッド(分散)トレーシングが無効になっているか、高セキュリティモードを有効にしている場合、AIモニタリングはAIデータを収集しません。 + + + + + + + + + + + + + + + + + + +
+ タイプ + + ブール値 +
+ デフォルト + + `false` +
+ + `true`に設定すると、AIモニタリングが有効化されます。 +
+ + + + + + + + + + + + + + + + +
+ タイプ + + ブール値 +
+ デフォルト + + `true` +
+ + `false`に設定すると、エージェントはLLMイベントでキャプチャされた入力および出力コンテンツ(プロンプトやレスポンスのテキスト文字列など)を省略します。これは、LLMとの間で送受信される機密データを記録したくない場合のオプションのセキュリティ設定です。 +
+
+ ## 属性 [#attributes] これらのオプションを設定するには、`attributes`セクションを使用します。[上書きする](#System_Properties)には、`newrelic.config.attributes`プリフィックス化システムプロパティを使用します。 @@ -2451,7 +2523,8 @@ APMでは、New Relic言語エージェントAPIにより[カスタム イベン - 60秒ごとにレポートされた、サンプリングされたカスタムイベントの最大数。 + * 60秒ごとにレポートされた、サンプリングされたカスタムイベントの最大数。 + * [AIモニタリング](/docs/ai-monitoring/intro-to-ai-monitoring)のエージェントを構成する場合は、最大値`100000`に設定します。 最大量のLLMイベントのキャプチャを保証します @@ -4723,7 +4796,8 @@ Javaエージェントバージョン`8.7.0`以降、エージェントは`SlowT - エージェント収集サイクル中にキャプチャできるスパンイベントの数を決定します。Javaエージェント7.4.0以降で利用可能です。 + * エージェント収集サイクル中にキャプチャできるスパンイベントの数を決定します。Javaエージェント7.4.0以降で利用可能です。 + * [AIモニタリング](/docs/ai-monitoring/intro-to-ai-monitoring)のエージェントを構成する場合は、最大値`10000`に設定します。 最大量のトレースのキャプチャを保証します スパンイベントの数を増やすと、エージェントのオーバーヘッドが増える可能性があります。 diff --git a/src/i18n/content/jp/docs/apm/agents/java-agent/features/jvms-page-java-view-app-server-metrics-jmx.mdx b/src/i18n/content/jp/docs/apm/agents/java-agent/features/jvms-page-java-view-app-server-metrics-jmx.mdx index 6d175c59b9e..f35be62c280 100644 --- a/src/i18n/content/jp/docs/apm/agents/java-agent/features/jvms-page-java-view-app-server-metrics-jmx.mdx +++ b/src/i18n/content/jp/docs/apm/agents/java-agent/features/jvms-page-java-view-app-server-metrics-jmx.mdx @@ -15,16 +15,29 @@ New RelicのJavaエージェントを使用することで、JMXを介して最 ## JVMメトリックスを確認する [#dashboard] -アプリケーションサーバーは、APMの**JVM**ページに表示される様々なメトリクスを収集して、これを報告します。(Heroku経由でNew Relicを使用したアプリケーションに関しては、**JVM**ページが**[インスタンス](/docs/accounts-partnerships/partnerships/heroku-new-relic/heroku-instances-dashboard)**と命名されています。) +アプリケーションサーバーは、APMの**JVMs**ページに表示されるさまざまなメトリクスを収集して、これを報告します。(Heroku経由でNew Relicを使用したアプリケーションに関しては、**JVMs**ページが**[Instances](/docs/accounts-partnerships/partnerships/heroku-new-relic/heroku-instances-dashboard)**と命名されています。) 最低でも、各アプリケーションサーバーは、オンメモリのメトリックデータを収集して報告します。JMXメトリックスを有効化する方法については、ご利用のアプリケーションサーバーのドキュメンテーションを参照してください。 以下の手順に従い、JVMメトリックスを確認します。 -1. **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > APM & services >(アプリを選択)> Monitoring > JVM >(JVMを選択)**の順に移動します。 -2. 選択したJVMの**Memory**ページから、New Relicの標準的な[ユーザーインターフェース機能](/docs/accounts-partnerships/education/getting-started-new-relic/standard-dashboard-features)のいずれかを使用して、詳細情報を掘り下げます。 +1. **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > APM & services > (select an app) > Monitoring > JVMs > (select a JVM)** + + に移動します。 + +2. 選択したJVMの + + **Memory** + + ページから、 New Relicの標準的な[ユーザーインタフェース機能](/docs/accounts-partnerships/education/getting-started-new-relic/standard-dashboard-features)のいずれかを使用して、詳細情報を掘り下げます。 + 3. 他のメトリックスを確認するには、 [利用可能なタブ](#dashboard-tabs)を選択します。 -4. オプション:[スレッドプロファイラー](/docs/applications-menu/thread-profiler)を使用して、スレッド実行時のデータのボトルネックを見つけるには、**Profile this JVM**を選択します。 + +4. オプション:[スレッドプロファイラー](/docs/applications-menu/thread-profiler)を使用して、スレッド実行時のデータのボトルネックを見つけるには、 + + **Profile this JVM** + + を選択します。
- **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > APM & services >(アプリを選択)> Monitoring > JVM**:アプリケーションサーバーが報告するメトリクスに応じて、1つまたは複数のタブがJVMページに表示されます。 + **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > APM & services > (select an app) > Monitoring > JVMs**:アプリケーションサーバーが報告するメトリクスに応じて、1つ以上のタブがJVMページに表示されます。
## アプリケーションサーバーごとに示す利用可能なタブ [#dashboard-tabs] @@ -588,10 +601,21 @@ New RelicのJavaエージェントを使用することで、JMXを介して最 - * **ヒープメモリ利用度:**各表は、所与のヒープに関する使用済みおよび確定のヒープ領域をMBで示しています。 - * **JVMに関する非ヒープメモリプールの利用度:**使用済みコードキャッシュおよびCMS Perm GenをMBで表記。 - * **ガベージコレクション:**ガベージコレクションのCPU時間。 - * **クラス数:**JVMに関するロード済みおよび未ロードのクラス数。 + * **Heap memory usage:** + + 各表は、所与のヒープに関する使用済みおよび確定のヒープ領域をMBで示しています。 + + * **Non-heap memory pool usage for the JVM:** + + 使用済みコードキャッシュおよびCMS Perm GenをMBで表記。 + + * **Garbage collection:** + + ガベージコレクションの CPU 時間。 + + * **Class count:** + + JVMに関するロード済みおよび未ロードのクラス数。 @@ -601,8 +625,13 @@ New RelicのJavaエージェントを使用することで、JMXを介して最 - * **スレッド数:**JVM内のアクティブなスレッドの現在の数。 - * **スレッドプール:**プールに対するアクティブスレッドとアイドルスレッドの数。サポートされているアプリケーションサーバーの場合、表には、アプリケーションサーバー内に存在する各スレッドプールのほか、各スレッドプールに対するアクティブスレッド数と最大スレッド数の割合が表示されます。 + * **Thread count:** + + JVM内のアクティブなスレッドの現在の数。 + + * **Thread pool:** + + プールに対するアクティブスレッドとアイドルスレッドの数。サポートされているアプリケーションサーバーの場合、表には、アプリケーションサーバー内に存在する各スレッドプールのほか、各スレッドプールに対するアクティブスレッド数と最大スレッド数の割合が表示されます。 @@ -612,7 +641,9 @@ New RelicのJavaエージェントを使用することで、JMXを介して最 - * **セッション:**アプリケーションのHTTPセッション数のうち、アクティブ、タイムアウトによる無効化、そして無効化となったもの。サポートしたアプリケーションサーバーでは、アプリケーションサーバー内に存在する各アプリケーションサーバーを示す表があります。 + * **Session:** + + アプリケーションのHTTPセッション数のうち、アクティブ、タイムアウトによる無効化、そして無効化となったもの。サポートしたアプリケーションサーバーでは、アプリケーションサーバー内に存在する各アプリケーションサーバーを示す表があります。 @@ -622,9 +653,17 @@ New RelicのJavaエージェントを使用することで、JMXを介して最 - * **アクティブなトランザクション:**アプリケーションサーバーのトランザクションマネージャー内に存在する、アクティブなトランザクションの数。 - * **作成済みトランザクション:**アプリケーションサーバーごとの作成済みトランザクションの合計数の変化。一部のアプリケーションサーバーでは、トップレベルのトランザクションとネストされたトランザクションが分類されます。 - * **完了済みトランザクション:**アプリケーションサーバーごとの完了済みトランザクションの合計数の変化。一部のアプリケーションサーバーでは、このトランザクションは中止されたトランザクションと確定および完了済みトランザクション別に分類されます。 + * **Active transaction:** + + アプリケーションサーバーのトランザクションマネージャー内に存在する、アクティブなトランザクションの数。 + + * **Created transaction:** + + アプリケーションサーバーごとの作成済みトランザクションの合計数の変化。一部のアプリケーションサーバーでは、トップレベルのトランザクションとネストされたトランザクションが分類されます。 + + * **Finished transaction:** + + アプリケーションサーバーごとの完了済みトランザクションの合計数の変化。一部のアプリケーションサーバーでは、このトランザクションは中止されたトランザクションと確定および完了済みトランザクション別に分類されます。 @@ -642,7 +681,7 @@ New RelicのJavaエージェントを使用することで、JMXを介して最 ## アプリケーションサーバーごとに示すデータソースメトリックス [#metrics-by-app-server] -サポート対象のアプリケーションサーバーにおいては、エージェントがJMXデータソースメトリクスを収集します。これらのメトリクスは、**[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > APM & services >(アプリを選択)> Monitoring > JVM > Data sources**で表示できます。これらのメトリクスを確認するには、ご利用のデータソースがアプリケーションサーバーにおけるJMXモニター向けに正しく設定されていることを確認してください。 +サポート対象のアプリケーションサーバーにおいては、エージェントがJMXデータソースメトリクスを収集します。これらのメトリクスは**[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > APM & services > (select an app) > Monitoring > JVMs > Data sources**の順に移動して表示できます。これらのメトリクスを確認するには、ご利用のデータソースがアプリケーションサーバーにおけるJMXモニター向けに正しく設定されていることを確認してください。 @@ -664,9 +703,17 @@ New RelicのJavaエージェントを使用することで、JMXを介して最 @@ -676,11 +723,25 @@ New RelicのJavaエージェントを使用することで、JMXを介して最 @@ -690,10 +751,21 @@ New RelicのJavaエージェントを使用することで、JMXを介して最 @@ -715,9 +787,24 @@ New RelicがWebSphere PMIメトリックスにアクセスできるようにす 最もシンプルなアプローチは、すべての統計セットの収集を有効化することです。 1. Java 2 Securityを使用している場合は、必ず [New Relicに適切なアクセス権限を付与](/docs/agents/java-agent/installation/install-java-agent-java-2-security)したかどうかを確認してください。 - 2. WebSphereアドミンコンソールから、**Monitoring and Tuning > Performance Monitoring Infrastructure(PMI) > (ご利用のサーバー名)**を選択します。 - 3. **Enable Performance Monitoring Infrastructure (PM)I**チェックボックスを選択します。 - 4. **Currently monitored statistic set** セクションから、 **All**を選択して、変更内容を保存します。 + + 2. WebSphereアドミンコンソールから、 + + **Monitoring and Tuning > Performance Monitoring Infrastructure (PMI) > (your server name)** + + を選択します。 + + 3. **Enable Performance Monitoring Infrastructure (PMI)** + + チェックボックスを選択します。 + + 4. **Currently monitored statistic set** + + セクションから、 + + **All** + + を選択して、変更内容を保存します。 Performance Monitoring Infrastructure (PMI) > (ご利用のアプリケーションサーバー名)**を選択します。 + 2. WebSphereアドミンコンソールから、 + + **Monitoring and Tuning > Performance Monitoring Infrastructure (PMI) > (selected app server)** + + を選択します。 + + 3. **Enable Performance Monitoring Infrastructure (PMI)** + + チェックボックスを選択します。 + + 4. **Custom** + + を選択します。 カスタム統計セットリストから、以下のメトリックスを有効にします。 + + * **ThreadPool** - 3. **Enable Performance Monitoring Infrastructure (PM)I**チェックボックスを選択します。 + カテゴリから、 - 4. **Custom**を選択します。カスタム統計セットリストから、以下のメトリックスを有効にします。 + **ActiveCount** - * **ThreadPool** カテゴリから、 **ActiveCount** および **PoolSize** のチェックボックスを選択します。 - * **Servlet Session Manager** カテゴリから、 **ActiveCount** および **LiveCount** のチェックボックスを選択します。 - * **Transaction Manager**カテゴリから、**CommittedCount**、**RolledbackCount**、そして**GlobalTimeoutCount**チェックボックスを選択します。 + および - 5. **Messages**パネルから、**Save directly to the master configuration**を選択します。 + **PoolSize** + + のチェックボックスを選択します。 + + * **Servlet Session Manager** + + カテゴリから、 + + **ActiveCount** + + および + + **LiveCount** + + のチェックボックスを選択します。 + + * **Transaction Manager** + + カテゴリから、 + + **CommittedCount** + + 、 + + **RolledbackCount** + + および + + **GlobalTimeoutCount** + + のチェックボックスを選択します。 + + 5. **Messages** + + パネルから、 + + **Save directly to the master configuration** + + を選択します。 @@ -755,11 +892,15 @@ New RelicがWebSphere PMIメトリックスにアクセスできるようにす @@ -820,11 +961,15 @@ New RelicがWebSphere PMIメトリックスにアクセスできるようにす @@ -885,11 +1030,15 @@ New RelicがWebSphere PMIメトリックスにアクセスできるようにす @@ -950,11 +1099,15 @@ New RelicがWebSphere PMIメトリックスにアクセスできるようにす @@ -1015,11 +1168,15 @@ New RelicがWebSphere PMIメトリックスにアクセスできるようにす @@ -1080,11 +1237,15 @@ New RelicがWebSphere PMIメトリックスにアクセスできるようにす @@ -1096,7 +1257,7 @@ New RelicがWebSphere PMIメトリックスにアクセスできるようにす @@ -1140,7 +1301,7 @@ New RelicがWebSphere PMIメトリックスにアクセスできるようにす ## WebLogic JMXメトリックス [#weblogic-jmx] -WebLogicでは、デフォルトでJMXが有効になっています。New Relicは、以下の**mbeans**メトリックスを収集します。 +WebLogicでは、デフォルトでJMXが有効になっています。New Relicは、以下の**mbeans**メトリクスを収集します。 追加のJMXメトリックスを収集するには、[カスタムYAMLファイル](/docs/agents/java-agent/custom-instrumentation/custom-jmx-instrumentation-yaml)を使用します。 @@ -1155,11 +1316,15 @@ WebLogicでは、デフォルトでJMXが有効になっています。New Relic @@ -1220,11 +1385,15 @@ WebLogicでは、デフォルトでJMXが有効になっています。New Relic @@ -1285,11 +1454,15 @@ WebLogicでは、デフォルトでJMXが有効になっています。New Relic @@ -1350,11 +1523,15 @@ WebLogicでは、デフォルトでJMXが有効になっています。New Relic @@ -1415,11 +1592,15 @@ WebLogicでは、デフォルトでJMXが有効になっています。New Relic @@ -1480,11 +1661,15 @@ WebLogicでは、デフォルトでJMXが有効になっています。New Relic @@ -1545,11 +1730,15 @@ WebLogicでは、デフォルトでJMXが有効になっています。New Relic @@ -1610,11 +1799,15 @@ WebLogicでは、デフォルトでJMXが有効になっています。New Relic @@ -1675,11 +1868,15 @@ WebLogicでは、デフォルトでJMXが有効になっています。New Relic @@ -1740,11 +1937,15 @@ WebLogicでは、デフォルトでJMXが有効になっています。New Relic @@ -1805,11 +2006,15 @@ WebLogicでは、デフォルトでJMXが有効になっています。New Relic @@ -1870,11 +2075,15 @@ WebLogicでは、デフォルトでJMXが有効になっています。New Relic @@ -1935,11 +2144,15 @@ WebLogicでは、デフォルトでJMXが有効になっています。New Relic @@ -2000,11 +2213,15 @@ WebLogicでは、デフォルトでJMXが有効になっています。New Relic @@ -2065,11 +2282,15 @@ WebLogicでは、デフォルトでJMXが有効になっています。New Relic @@ -2130,11 +2351,15 @@ WebLogicでは、デフォルトでJMXが有効になっています。New Relic @@ -2195,11 +2420,15 @@ WebLogicでは、デフォルトでJMXが有効になっています。New Relic @@ -2260,11 +2489,15 @@ WebLogicでは、デフォルトでJMXが有効になっています。New Relic @@ -2325,11 +2558,15 @@ WebLogicでは、デフォルトでJMXが有効になっています。New Relic @@ -2390,11 +2627,15 @@ WebLogicでは、デフォルトでJMXが有効になっています。New Relic @@ -2455,11 +2696,15 @@ WebLogicでは、デフォルトでJMXが有効になっています。New Relic @@ -2520,11 +2765,15 @@ WebLogicでは、デフォルトでJMXが有効になっています。New Relic @@ -2585,11 +2834,15 @@ WebLogicでは、デフォルトでJMXが有効になっています。New Relic @@ -2650,11 +2903,15 @@ WebLogicでは、デフォルトでJMXが有効になっています。New Relic @@ -2715,11 +2972,15 @@ WebLogicでは、デフォルトでJMXが有効になっています。New Relic @@ -2780,11 +3041,15 @@ WebLogicでは、デフォルトでJMXが有効になっています。New Relic @@ -2845,11 +3110,15 @@ WebLogicでは、デフォルトでJMXが有効になっています。New Relic @@ -2879,7 +3148,9 @@ WebLogicでは、デフォルトでJMXが有効になっています。New Relic @@ -2975,11 +3250,15 @@ WebLogicでは、デフォルトでJMXが有効になっています。New Relic @@ -3040,11 +3319,15 @@ WebLogicでは、デフォルトでJMXが有効になっています。New Relic @@ -3105,11 +3388,15 @@ WebLogicでは、デフォルトでJMXが有効になっています。New Relic diff --git a/src/i18n/content/jp/docs/apm/agents/java-agent/getting-started/compatibility-requirements-java-agent.mdx b/src/i18n/content/jp/docs/apm/agents/java-agent/getting-started/compatibility-requirements-java-agent.mdx index f21c5341abe..8f725a5bddf 100644 --- a/src/i18n/content/jp/docs/apm/agents/java-agent/getting-started/compatibility-requirements-java-agent.mdx +++ b/src/i18n/content/jp/docs/apm/agents/java-agent/getting-started/compatibility-requirements-java-agent.mdx @@ -205,7 +205,11 @@ Javaエージェントをインストールする前に、お使いのシステ * Pekko 1.0.0以降 - * Play Server 2.3.0から2.x /\* Pekko-Httpをサポートすると、Playサポートが最新のものまで拡張されます \*/ + * Pekko-Http 1.0.0以降 + + * Scala 2.13 + + * Play Server 2.3.0以降/\* Pekko-Httpをサポートすると、Playサポートが最新のものまで拡張されます \*/ * Quartz Job Scheduler 1.8.3~2.2.x @@ -447,12 +451,24 @@ Javaエージェントは、他のNew Relic製品と統合され、エンドツ + + + + + + diff --git a/src/i18n/content/jp/docs/infrastructure/install-infrastructure-agent/linux-installation/install-infrastructure-monitoring-agent-linux.mdx b/src/i18n/content/jp/docs/infrastructure/install-infrastructure-agent/linux-installation/install-infrastructure-monitoring-agent-linux.mdx index 2e42c7056f4..665f9830914 100644 --- a/src/i18n/content/jp/docs/infrastructure/install-infrastructure-agent/linux-installation/install-infrastructure-monitoring-agent-linux.mdx +++ b/src/i18n/content/jp/docs/infrastructure/install-infrastructure-agent/linux-installation/install-infrastructure-monitoring-agent-linux.mdx @@ -1,5 +1,5 @@ --- -title: Linux向けInfrastructureモニタリングエージェントをインストールする +title: Linux向けinfrastructureエージェントをインストールする tags: - Infrastructure - Install the infrastructure agent @@ -21,7 +21,7 @@ import osUbuntu from 'images/os_icon_ubuntu.webp' import osDebian from 'images/os_icon_debian.webp' -[Infrastructureモニタリングエージェント](/docs/infrastructure/infrastructure-monitoring/get-started/get-started-infrastructure-monitoring/)の使用を開始する際に最も迅速な方法では、[ガイド付きインストール](/docs/new-relic-one/use-new-relic-one/cross-product-functions/install-configure/new-relic-guided-install-overview/)を使用します。EUにお住まいの場合は、EUガイド付きインストールをお試しください。いずれにせよ、まだ作成されていない場合は、無料のNew Relicアカウントを以下で作成してください。 +[infrastructureエージェント](/docs/infrastructure/infrastructure-monitoring/get-started/get-started-infrastructure-monitoring/)の使用を開始する際に最も迅速な方法では、[ガイド付きインストール](/docs/new-relic-one/use-new-relic-one/cross-product-functions/install-configure/new-relic-guided-install-overview/)を使用します。EUにお住まいの場合は、EUガイド付きインストールをお試しください。いずれにせよ、まだ作成されていない場合は、無料のNew Relicアカウントを以下で作成してください。 @@ -44,7 +44,7 @@ import osDebian from 'images/os_icon_debian.webp' - また、[Infrastructure監視エージェント](/docs/infrastructure/infrastructure-monitoring/get-started/get-started-infrastructure-monitoring/)を開始するには、[設定管理ツール](/docs/infrastructure/install-infrastructure-agent/linux-installation/install-configuration-management-tools)を使用することもできます。 + また、[infrastructureエージェント](/docs/infrastructure/infrastructure-monitoring/get-started/get-started-infrastructure-monitoring/)を開始するには、[設定管理ツール](/docs/infrastructure/install-infrastructure-agent/linux-installation/install-configuration-management-tools)を使用することもできます。 ## ステップごとの説明 [#manual-install] @@ -149,7 +149,7 @@ InfrastructureをLinuxでインストールするには、次の指示に従っ -4. Infrastructureモニタリングエージェント リポジトリを追加します。 +4. infrastructureエージェントリポジトリを追加します。 + **Ubuntu 24.04 (Noble Numbat)** + + + ```bash + echo "deb https://download.newrelic.com/infrastructure_agent/linux/apt/ noble main" | sudo tee -a /etc/apt/sources.list.d/newrelic-infra.list + ``` -Infrastructureモニタリングエージェントをインストールまたはアップデートした後、[エージェントのステータスを開始、停止、または確認](/docs/infrastructure/new-relic-infrastructure/configuration/start-stop-restart-check-infrastructure-agent-status)できます。 +infrastructureエージェントをインストールまたはアップデートした後、[エージェントのステータスを開始、停止、または確認](/docs/infrastructure/new-relic-infrastructure/configuration/start-stop-restart-check-infrastructure-agent-status)できます。 ## エージェントの更新 [#update] -標準的な手順に従って[Infrastructureモニタリングエージェントをアップデート](/docs/update-infrastructure-agent)してください。 +標準的な手順に従って、[infrastructureエージェントをアップデート](/docs/update-infrastructure-agent)してください。 `sudo`を使用してエージェントのインストールもしくはアップデートを行う場合、`-E`引数を使用して環境変数の無視を許可するか、`NRIA_MODE`直後の[`sudo`](/docs/infrastructure/install-infrastructure-agent/linux-installation/linux-agent-running-modes/#set-mode)環境変数を指定します。 diff --git a/src/i18n/content/jp/docs/infrastructure/install-infrastructure-agent/windows-installation/install-infrastructure-monitoring-agent-windows.mdx b/src/i18n/content/jp/docs/infrastructure/install-infrastructure-agent/windows-installation/install-infrastructure-monitoring-agent-windows.mdx index 9b106b617a7..b9501385d1c 100644 --- a/src/i18n/content/jp/docs/infrastructure/install-infrastructure-agent/windows-installation/install-infrastructure-monitoring-agent-windows.mdx +++ b/src/i18n/content/jp/docs/infrastructure/install-infrastructure-agent/windows-installation/install-infrastructure-monitoring-agent-windows.mdx @@ -1,15 +1,15 @@ --- -title: Windows向けInfrastructureモニタリングエージェントをインストールする +title: Windows向けinfrastructureエージェントをインストールする tags: - Infrastructure - Install the infrastructure agent - Windows installation -metaDescription: 'Install the New Relic infrastructure monitoring agent for Windows with a simple headless MSI, and do basic configuration.' +metaDescription: 'Install the New Relic infrastructure agent for Windows with a simple headless MSI, and do basic configuration.' freshnessValidatedDate: never translationType: human --- -New RelicのWindows用Infrastructureモニタリングエージェントを使用すると、サーバーを個別にモニターすることに加えて、サービス全体の動作を分析することもできます。Windowsエージェントはお使いのハードウェア、またはAmazon EC2やWindows Azureのようなクラウドシステムで実行でき、Windows ServerとWindows 10および11を[サポート](/docs/infrastructure/install-infrastructure-agent/get-started/requirements-infrastructure-agent)します。[Chefでインストール](/docs/infrastructure/new-relic-infrastructure/config-management-tools/configure-new-relic-infrastructure-using-chef)することもできます。インストールする前に、[要件](/docs/infrastructure/new-relic-infrastructure/getting-started/compatibility-requirements-new-relic-infrastructurets)を必ずご確認ください。 +New RelicのWindows用infrastructureエージェントを使用すると、サーバーを個別にモニターすることに加えて、サービス全体の動作を分析することもできます。Windowsエージェントは、お使いのハードウェア、またはAmazon EC2 やWindows Azureのようなクラウドシステムで実行でき、Windows ServerとWindows 10および11を[サポート](/docs/infrastructure/install-infrastructure-agent/get-started/requirements-infrastructure-agent)します。[Chefでインストール](/docs/infrastructure/new-relic-infrastructure/config-management-tools/configure-new-relic-infrastructure-using-chef)することもできます。インストールする前に、[要件](/docs/infrastructure/new-relic-infrastructure/getting-started/compatibility-requirements-new-relic-infrastructurets)を必ずご確認ください。 ## ガイド付きインストールを使用してWindows向けにインストールする [#install-windows] @@ -101,10 +101,10 @@ New RelicのWindows用Infrastructureモニタリングエージェントを使 ## zipファイルを使用してインストール [#install-zip] -カスタム設定シナリオでは、[アシスト](https://download.newrelic.com/infrastructure_agent/binaries/windows/)または[手動](/docs/infrastructure/install-configure-infrastructure/windows-installation/assisted-install-infrastructure-windows)モードで[当社のzipファイル](/docs/infrastructure/install-configure-infrastructure/windows-installation/manual-install-infrastructure-windows)を使用して、Infrastructureモニタリングエージェントをインストールできます。これは、デフォルトのインストール設定を環境に合わせる必要がある場合に、特に有用です。 +カスタム設定シナリオでは、[アシスト ](/docs/infrastructure/install-configure-infrastructure/windows-installation/assisted-install-infrastructure-windows)または[手動](/docs/infrastructure/install-configure-infrastructure/windows-installation/manual-install-infrastructure-windows)モードで[当社のzipファイル](https://download.newrelic.com/infrastructure_agent/binaries/windows/)を使用して、infrastructureエージェントをインストールできます。これは、デフォルトのインストール設定を環境に合わせる必要がある場合に、特に有用です。 - zipファイルを使用したInfrastructureモニタリングエージェントのインストールはサポートされていません。 + zipファイルを使用したinfrastructureエージェントのインストールはサポートされていません。 @@ -121,4 +121,4 @@ New RelicのWindows用Infrastructureモニタリングエージェントを使 ## エージェントの更新 [#update] -最新バージョンにアップグレードするには、標準的な手順に従って[Infrastructureモニタリングエージェントをアップデート](/docs/infrastructure/new-relic-infrastructure/installation/update-infrastructure-agent)してください。 \ No newline at end of file +最新バージョンにアップグレードするには、標準的な手順に従って[infrastructureエージェントをアップデート](/docs/infrastructure/new-relic-infrastructure/installation/update-infrastructure-agent)してください。 \ No newline at end of file diff --git a/src/i18n/content/jp/docs/infrastructure/manage-your-data/data-instrumentation/default-infrastructure-monitoring-data.mdx b/src/i18n/content/jp/docs/infrastructure/manage-your-data/data-instrumentation/default-infrastructure-monitoring-data.mdx index e9cbb797fa8..ad4b80e3b00 100644 --- a/src/i18n/content/jp/docs/infrastructure/manage-your-data/data-instrumentation/default-infrastructure-monitoring-data.mdx +++ b/src/i18n/content/jp/docs/infrastructure/manage-your-data/data-instrumentation/default-infrastructure-monitoring-data.mdx @@ -9,7 +9,7 @@ freshnessValidatedDate: never translationType: human --- -New Relicのインフラストラクチャ監視エージェントは、6つのプライマリ[イベント](/docs/using-new-relic/data/understand-data/new-relic-data-types#event-data)を使用してデータを収集および表示します。各イベントには、各種メトリクスおよびメタデータを表す[属性](/docs/accounts-partnerships/education/getting-started-new-relic/glossary#attribute)が関連付けられます。 +New Relicのinfrastructureエージェントは、6つのプライマリ[イベント](/docs/using-new-relic/data/understand-data/new-relic-data-types#event-data)を使用してデータを収集および表示します。各イベントには、各種メトリクスおよびメタデータを表す[属性](/docs/accounts-partnerships/education/getting-started-new-relic/glossary#attribute)が関連付けられます。 インフラストラクチャのデータについて理解すると、次のことができます。 @@ -52,7 +52,7 @@ New Relicのインフラストラクチャ監視エージェントは、6つの @@ -62,7 +62,7 @@ New Relicのインフラストラクチャ監視エージェントは、6つの @@ -129,7 +129,7 @@ New Relicのインフラストラクチャ監視エージェントは、6つの @@ -139,7 +139,7 @@ New Relicのインフラストラクチャ監視エージェントは、6つの @@ -168,7 +168,11 @@ SELECT * FROM ProcessSample インフラストラクチャエージェントのYAMLファイルに[カスタムアトリビュート](/docs/meatballs-configuring-your-agent#attributes)を作成できます。このメタデータを使用して、次のことを行います。 * [エンティティフィルターバー](/docs/new-relic-solutions/new-relic-one/core-concepts/search-filter-entities)でエンティティをフィルターする -* [**グループ別**](/docs/infrastructure/new-relic-infrastructure/filter-group/group-infrastructure-results-specific-attributes)メニューを入力 + +* [**Group by**](/docs/infrastructure/new-relic-infrastructure/filter-group/group-infrastructure-results-specific-attributes) + + メニューを入力 + * インフラストラクチャデータに注釈を付ける ## 一般的なAmazon EC2属性 [#shared-attributes] diff --git a/src/i18n/content/jp/docs/logs/forward-logs/aws-lambda-sending-cloudwatch-logs.mdx b/src/i18n/content/jp/docs/logs/forward-logs/aws-lambda-sending-cloudwatch-logs.mdx index a44f2d3147a..2254cbbc6b3 100644 --- a/src/i18n/content/jp/docs/logs/forward-logs/aws-lambda-sending-cloudwatch-logs.mdx +++ b/src/i18n/content/jp/docs/logs/forward-logs/aws-lambda-sending-cloudwatch-logs.mdx @@ -209,13 +209,19 @@ CloudWatchログをNew Relicに転送すると、ログデータの収集、処 再試行の回数が増えると、関数の実行時間が長くなる可能性があります。これにより、Lambdaのコストが高くなる可能性が高くなります。ただし、再試行の回数を減らすと、データ損失の可能性が高まる可能性があります。 -``` -MAX_RETRIES = 3 # Defines the number of retries after lambda failure to deliver data -INITIAL_BACKOFF = 1 # Defines the initial wait seconds until next retry is executed -BACKOFF_MULTIPLIER = 2 # Time multiplier between the retries -As an example, in default above configuration, first retry will happen after 1 second, second retry after 2 seconds and third retry will happen after 4 seconds. +```ini +# Defines the number of retries after lambda failure to deliver data +MAX_RETRIES = 3 + +# Defines the initial wait seconds until next retry is executed +INITIAL_BACKOFF = 1 + +# Time multiplier between the retries +BACKOFF_MULTIPLIER = 2 ``` +たとえば、上記のデフォルト設定では、最初の再試行は1秒後に行われ、2回目の再試行は2秒後に、3回目の再試行は4秒後に行われます。 + ## SAMテンプレートで作成したリソース [#sam-resources] リポジトリからアプリケーションを作成すると、次のリソースも作成されます。 @@ -232,7 +238,7 @@ As an example, in default above configuration, first retry will happen after 1 s * 当社の[ログUI](https://one.newrelic.com/launcher/logger.log-launcher) * [NRQLクエリ](/docs/chart-builder/use-chart-builder/choose-data/use-advanced-nrql-mode-specify-data)を実行するためのNew Relicツール。たとえば、次のようなクエリを実行できます。 -``` +```sql SELECT * FROM Log ``` diff --git a/src/i18n/content/jp/docs/logs/forward-logs/enable-log-management-new-relic.mdx b/src/i18n/content/jp/docs/logs/forward-logs/enable-log-management-new-relic.mdx index 6c8b4f04c1d..6158d738f9e 100644 --- a/src/i18n/content/jp/docs/logs/forward-logs/enable-log-management-new-relic.mdx +++ b/src/i18n/content/jp/docs/logs/forward-logs/enable-log-management-new-relic.mdx @@ -49,7 +49,7 @@ import logsLogForwardOptions from 'images/logs_diagram_log-forward-options.webp' @@ -93,7 +93,7 @@ import logsLogForwardOptions from 'images/logs_diagram_log-forward-options.webp' @@ -220,7 +220,7 @@ import logsLogForwardOptions from 'images/logs_diagram_log-forward-options.webp' 標準のログフォーマッターは、ログイベントを下流のユーザーやプロセスが使用できる意味のある出力(テキストファイルなど)に変換します。`NewRelicFormatter`は、ログイベントをNew Relicが期待するJSON形式に変換します。これらのファイルには、ログ情報と拡張メタデータが含まれています。 -ログフォワーダー(infrastructureモニタリングエージェント、Fluentd、Logstashなど)を設定するときに、ログデータを拡張および強化することもできます。[Logs in Context](/docs/logs/enable-log-management-new-relic/configure-logs-context/configure-logs-context-apm-agents/)を設定すると、ログエンリッチャーは、フォーマットされたログデータをアプリケーションまたはホストからの追加のトランザクション情報にリンクします。 +ログフォワーダー(infrastructureエージェント、Fluentd、Logstashなど)を設定するときに、ログデータを拡張および強化することもできます。[Logs in Context](/docs/logs/enable-log-management-new-relic/configure-logs-context/configure-logs-context-apm-agents/)を設定すると、ログエンリッチャーは、フォーマットされたログデータをアプリケーションまたはホストからの追加のトランザクション情報にリンクします。 これで、ログファイルは拡張メタデータとコンテキストに基づくロギングデータで強化されました。ログフォワーダーは、処理のためにファイルをログエンドポイントに送信します。そこからログ管理機能を使用して、New Relicで表示、クエリ、アラートの設定などを行うことができます。 @@ -230,6 +230,6 @@ import logsLogForwardOptions from 'images/logs_diagram_log-forward-options.webp' * [Logs UI](/docs/logs/ui-data/use-logs-ui)を使用して、プラットフォーム全体のロギングデータを調べます。 * [APM UI](/docs/logs/ui-data/use-logs-ui/#links)でアプリのパフォーマンスのコンテキストでログを確認する。[ディストリビューティッド(分散)トレーシング](/docs/apm/distributed-tracing/ui-data/understand-use-distributed-tracing-data)、スタックトレース、アプリケーションログなどを使用して、[エラー](/docs/apm/apm-ui-pages/error-analytics/errors-page-find-fix-verify-problems/)をトラブルシューティングします -* [infrastructureモニタリングエージェント](/docs/logs/forward-logs/forward-your-logs-using-infrastructure-agent/)を使用してログを転送すると、アプリケーションとプラットフォームのパフォーマンスデータをより深く可視化することができます。UIで[インフラストラクチャログ](/docs/logs/ui-data/use-logs-ui/#links)を確認します +* [infrastructureエージェント](/docs/logs/forward-logs/forward-your-logs-using-infrastructure-agent/)を使用してログを転送すると、アプリケーションとプラットフォームのパフォーマンスデータをより深く可視化することができます。UIで[インフラストラクチャログ](/docs/logs/ui-data/use-logs-ui/#links)を確認します。 * [アラート](/docs/alerts-applied-intelligence/new-relic-alerts/alert-conditions/create-alert-conditions/)の設定 * [データをクエリ](/docs/query-your-data/explore-query-data/get-started/introduction-querying-new-relic-data/)し、[ダッシュボードを作成](/docs/query-your-data/explore-query-data/dashboards/introduction-dashboards/)します。たとえば、[データパーティションルール](/docs/apis/nerdgraph/examples/nerdgraph-data-partition-rules-tutorial)と[ログ解析ルール](/docs/apis/nerdgraph/examples/nerdgraph-log-parsing-rules-tutorial)のクエリと管理については、NerdGraphチュートリアルを参照してください \ No newline at end of file diff --git a/src/i18n/content/jp/docs/logs/get-started/live-archives.mdx b/src/i18n/content/jp/docs/logs/get-started/live-archives.mdx index 6dd1e1681ba..e5982349b97 100644 --- a/src/i18n/content/jp/docs/logs/get-started/live-archives.mdx +++ b/src/i18n/content/jp/docs/logs/get-started/live-archives.mdx @@ -23,19 +23,19 @@ import logsEditDataPartitionUsingLiveArchives from 'images/logs_screenshot-crop_ ライブアーカイブを使用すると、必要な期間ログを保存できます。 New Relicのログ保持期間はデフォルトで30日間ですが、ライブアーカイブを使用すると、その期間を最大7年まで延長できます。古い税務書類と同様に、データを手元に置く必要がない場合もありますが、必要に応じて参照できるように情報を保管しておくと安全です。 -ライブアーカイブが必要ですか?以下にいくつかの使用例を示します。 +ライブアーカイブが必要ですか?この機能のメリットを享受できるユースケースをいくつか紹介します。 * **Internal retention requirements** - :内部保持期間を設けてログを保存し、必要な場合にのみクエリできるようにしたいと考えていますか?ライブアーカイブは、拡張ストレージとクエリ機能に役立ちます。 + :貴社では、ログを一定期間保存することを義務付けるポリシーがありますか?ライブアーカイブの保存期間を延長することで、要件を満たすことができる場合があります。 * **Trends and long-term debugging** - :ログを長期保存すると、前年比のパフォーマンスが向上します。たとえば、小売会社を管理している場合、あるホリデーシーズンと次のホリデーシーズンのログを比較すると、パフォーマンスを向上させることができます。 + : ログを長期保存すると、前年比のパフォーマンスが向上します。たとえば、小売会社を管理している場合、あるホリデーシーズンと次のホリデーシーズンのログを比較すると、パフォーマンスを向上させる方法を確認できます。 ## ライブアーカイブの仕組み [#how-it-works] -ライブアーカイブ機能は、ストレージコスト削減のためにクエリを控えめに実行するための長期ログデータストレージを提供します。ライブアーカイブを使用すると、潜在的な監査や長期的なデバッグのためにログが長期間利用できるため、安心できます。ただし、クエリに対して料金が発生するのは、_古いデータをクエリする_場合のみです。 +ライブアーカイブ機能は、ストレージコスト削減のためにクエリを控えめに実行するための長期ログデータストレージを提供します。ライブアーカイブを使用すると、潜在的な監査や長期的なデバッグのためにログが長期間利用できるため、安心できますが、古いデータの保存とクエリには別途料金がかかります。 ## スタートガイド @@ -58,7 +58,9 @@ import logsEditDataPartitionUsingLiveArchives from 'images/logs_screenshot-crop_ 3. **Request** をヒットします。弊社チームの担当者からご連絡させていただきます。 + + ライブアーカイブを有効にしたら、データ保持期間を編集する必要があります。 1. [データ管理ハブ](https://one.newrelic.com/data-management-hub)にある @@ -86,10 +88,6 @@ import logsEditDataPartitionUsingLiveArchives from 'images/logs_screenshot-crop_ alt="A screenshot showing users how to edit their data retention." src={logsEditDataRetentionLiveArchives} /> - -
- **one.newrelic.com > [Data management hub](https://one.newrelic.com/data-management-hub) > Data retention > Select logging live archives > Edit data retention**に移動:アーカイブ期間を選択して、必要な期間ログを保存します。 -
@@ -97,41 +95,27 @@ import logsEditDataPartitionUsingLiveArchives from 'images/logs_screenshot-crop_ パーティションは、特定の基準に基づいてログをグループ化する方法です。パーティションを作成すると、不要なログをフィルタリングして除外し、ライブアーカイブで作成したログを保持するのに役立ちます。 - 1. **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Logs** - - に移動します。 + 1. **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Logs**に移動します。 - 2. ログクエリバーの左側にある - - **Data partitions** - - をクリックし、次に - - **Create data partition** - - をクリックします。 + 2. ログクエリバーの左側にある**Data partitions**をクリックし、次に**Create data partition**をクリックします。 3. パーティション名を、Logで始まる英数字の文字列として定義します。 - 4. **Use live archives on this partition** + 4. **Use live archives on this partition**フィールドを選択します。 - フィールドを選択します。 + A screenshot showing a user how to create a partition using live archives - 5. **Total effective retention** +
+ **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Logs > Data partitions**に移動して、ライブアーカイブを使用してパーティションを作成します。 +
- 日は、通常の保存期間_と_[ライブアーカイブの保持期間](/docs/logs/get-started/live-archives-billing/#what-counts)を反映して更新されます。 + 5. **Total effective retention**日は、通常の保存期間_と_[ライブアーカイブの保持期間](/docs/logs/get-started/live-archives-billing/#what-counts)を反映して更新されます。 - A screenshot showing a user how to create a partition using live archives - -
- **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Logs > Data partitions**に移動して、ライブアーカイブを使用してパーティションを作成します。 -
- - **Data partitions**ページのアイコンをクリックして、既存のパーティションを編集することもできます。 + **Data partitions**ページのアイコンをクリックして、既存のパーティションを編集することもできます。既存のパーティションを使用する場合は、元のパーティションに選択したのと同じパラメーターがライブアーカイブデータに適用されます。 A screenshot showing a user how to edit a partition using live archives + + パーティションの使用方法の詳細については、[パーティションを使用してデータを整理する](/docs/logs/ui-data/data-partitions/)のドキュメントを参照してください。
- ### ログ構文を使用してライブアーカイブをクエリする [#query] + ## ログをクエリする + + ライブアーカイブをクエリするには、Lucene、NRQL、NerdGraph APIのNRQLなど、いくつかの方法があります。これら3つの方法すべてにおいて、ライブアーカイブをクエリするには、**Live archives query** \[ライブアーカイブクエリ]機能が必要になります。 + + ### Luceneクエリ構文を使用してライブアーカイブをクエリする [#query] - ライブアーカイブをクエリするには、LuceneまたはNRQLを使用する2つの方法があります。New Relic以外で使い慣れたログ構文を使用する場合は、 **Logs** UIでクエリを実行することをお勧めします。 ライブアーカイブをクエリするには、**ライブアーカイブクエリ**機能が必要です。 + Luceneクエリ構文に精通している場合は、 **Logs** UIで実行できます。 1. **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Logs** @@ -169,26 +159,26 @@ import logsEditDataPartitionUsingLiveArchives from 'images/logs_screenshot-crop_
**[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Logs**に移動して、ライブアーカイブに保存されているデータをクエリします。
-
- ### NRQLを使用してライブアーカイブをクエリする [#nrql] - Errors Inboxまたはアラートに使用するのと同じ言語を使用してクエリを実行する場合は、NRQLでクエリを実行することをお勧めします。ライブアーカイブをクエリするには、**ライブアーカイブクエリ**機能が必要です。 + Errors Inboxまたはアラートに使用するのと同じ言語を使用してクエリを実行する場合は、NRQLでクエリを実行することをお勧めします。 1. **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Logs** に移動します。 - 2. 実行するNRQLクエリを入力します。 + 2. 右上隅の**NRQL**をクリックします。 - 3. まずクエリを練習して、クエリが期待どおりに動作することを確認してください。 + 3. 実行するNRQLクエリを入力します。 - 4. **Use live archives** + 4. まずクエリを練習して、クエリが期待どおりに動作することを確認してください。 + + 5. **Use live archives** を切り替えます。 - 5. ライブアーカイブをクエリしようとしていることが画面に表示されます。ライブアーカイブのクエリにはコストがかかるため、準備ができている場合にのみ + 6. ライブアーカイブをクエリしようとしていることが画面に表示されます。ライブアーカイブのクエリにはコストがかかるため、準備ができている場合にのみ **Query live archives** @@ -203,12 +193,10 @@ import logsEditDataPartitionUsingLiveArchives from 'images/logs_screenshot-crop_
**[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Logs**に移動し、**NRQL**を選択して、クエリビルダーを使用してライブアーカイブに保存されているデータをクエリします。
-
- ### Nerdgraph APIを使用してライブアーカイブをクエリする [#api] - Nerdgraph APIを使用してライブアーカイブデータをクエリすることもできます。 ライブアーカイブをクエリするには、**ライブアーカイブクエリ**機能が必要です。ライブアーカイブ`eventNamespace`を指定するには、NRQLオプションに`{eventNamespaces: "Logging:Archive"}`を含める必要があります。 + NerdGraph APIのNRQLを使用してライブアーカイブデータをクエリすることもできます。ライブアーカイブ`eventNamespace`を指定するには、NRQLオプションに`{eventNamespaces: "Logging:Archive"}`を含める必要があります。 クエリの例を次に示します。 @@ -304,21 +292,17 @@ import logsEditDataPartitionUsingLiveArchives from 'images/logs_screenshot-crop_ 1. ユーザーがマシンにログインした時間枠を確認してください。 -2. **Logs** - - でクエリをテストして、期待どおりに動作することを確認します。 +2. **Logs**でクエリをテストして、期待どおりに動作することを確認します。これはドライランであり、データは返されませんが、クエリを検証するだけです。うまくいけば、アーカイブされたログに対してより負荷の高いクエリを実行できます。 -クエリの例: + クエリの例: -``` -"logtype":"linux_audit" "type":"USER_LOGIN" "hostname":"apache_svr01" -``` + ``` + "logtype":"linux_audit" "type":"USER_LOGIN" "hostname":"apache_svr01" + ``` 3. ユーザーがマシンにログインした日付を検索するには、時間セレクターを変更します。 -4. **Query live archives** - - を選択します。 +4. **Query live archives**を選択します。 ## データの削除 [#delete] diff --git a/src/i18n/content/jp/docs/mobile-monitoring/new-relic-mobile-android/install-configure/install-android-agent-gradle.mdx b/src/i18n/content/jp/docs/mobile-monitoring/new-relic-mobile-android/install-configure/install-android-agent-gradle.mdx index 45fdb96176e..fc3b89f3670 100644 --- a/src/i18n/content/jp/docs/mobile-monitoring/new-relic-mobile-android/install-configure/install-android-agent-gradle.mdx +++ b/src/i18n/content/jp/docs/mobile-monitoring/new-relic-mobile-android/install-configure/install-android-agent-gradle.mdx @@ -36,7 +36,7 @@ Androidエージェントをインストールするには、[ガイド付きイ id="project-level" title="プロジェクトレベルの「build.gradle」ファイル:" > - この例では、``エージェントのバージョン番号を表しています。[エージェントリリースノート](/docs/release-notes/mobile-release-notes/android-release-notes)を参照し、最新版を使用してください。 + この例では、`AGENT_VERSION`エージェントのバージョン番号を表しています。[エージェントリリースノート](/docs/release-notes/mobile-release-notes/android-release-notes)を参照し、最新版を使用してください。 ```groovy buildscript { @@ -45,7 +45,7 @@ Androidエージェントをインストールするには、[ガイド付きイ } dependencies { - classpath "com.newrelic.agent.android:agent-gradle-plugin:" + classpath "com.newrelic.agent.android:agent-gradle-plugin:AGENT_VERSION" } } ``` @@ -55,7 +55,7 @@ Androidエージェントをインストールするには、[ガイド付きイ id="app-level" title="アプリレベルの「build.gradle」ファイル:" > - この例では、``エージェントのバージョン番号を表しています。[エージェントリリースノート](/docs/release-notes/mobile-release-notes/android-release-notes)を参照し、最新版を使用してください。 + この例では、`AGENT_VERSION`エージェントのバージョン番号を表しています。[エージェントリリースノート](/docs/release-notes/mobile-release-notes/android-release-notes)を参照し、最新版を使用してください。 ```groovy repositories { @@ -66,7 +66,7 @@ Androidエージェントをインストールするには、[ガイド付きイ apply plugin: 'newrelic' dependencies { - implementation 'com.newrelic.agent.android:android-agent:' + implementation 'com.newrelic.agent.android:android-agent:AGENT_VERSION' } ``` @@ -81,7 +81,7 @@ Androidエージェントをインストールするには、[ガイド付きイ 3. Androidエージェントを起動します。マニフェストにあるデフォルトのアクティビティで、`NewRelic`クラスをインポートします。 - ``` + ```java import com.newrelic.agent.android.NewRelic; ``` @@ -90,13 +90,13 @@ Androidエージェントをインストールするには、[ガイド付きイ 4. `NewRelic`クラスをインポートした後、ガイド付きインストールで生成されるアプリトークンを含む追加のスニペットを`onCreate()`メソッドに追加する必要があります。スニペットは次のようになります。 ```java - NewRelic.withApplicationToken("").start(this.getApplicationContext()); + NewRelic.withApplicationToken("GENERATED_TOKEN").start(this.getApplicationContext()); ``` -5. 縮小(ProGuardやDexguardなど)を使用している場合は、`newrelic.properties`ファイルをアプリレベルのディレクトリ (projectname/app)に追加する必要があります。この手順は、ProGuardおよびDexGuardユーザーにのみ適用されます。 +5. 縮小(ProGuardやDexguardなど)を使用している場合は、`newrelic.properties`ファイルをアプリレベルのディレクトリ(_projectname/app_)に追加する必要があります。この手順は、ProGuardおよびDexGuardユーザーにのみ適用されます。 - ``` - com.newrelic.application_token= + ```ini + com.newrelic.application_token=GENERATED_TOKEN ``` 縮小の設定を完了するには、[Androidアプリ用のProGuardまたはDexGuardの設定](/docs/mobile-monitoring/new-relic-mobile-android/install-configure/configure-proguard-or-dexguard-android-apps)の手順に従います。 @@ -111,7 +111,7 @@ Androidエージェントはまだコミュニティプラグインとして利 1. このスニペットを、`pluginManagement {}`ブロックを介して`settings.gradle(.kts)`ファイルに追加します - ``` + ```groovy pluginManagement { repositories { mavenCentral() // adds repo for NewRelic artifacts @@ -128,31 +128,31 @@ Androidエージェントはまだコミュニティプラグインとして利 // for core Gradle plugins or plugins already available to the build script plugins { - id("newrelic") version "${}" + id("newrelic") version "${AGENT_VERSION}" } } ``` 2. New Relicプラグインを宣言します - ``` + ```groovy plugins { // for binary Gradle plugins that need to be resolved - id("newrelic") version "" apply false + id("newrelic") version "AGENT_VERSION" apply false } ``` 3. プラグインをアプリレベルのビルドファイルに適用します - ``` + ```groovy plugins { - id("com.android.application") - id("org.jetbrains.kotlin.android") - id("newrelic") + id("com.android.application") + id("org.jetbrains.kotlin.android") + id("newrelic") } ``` -上記のスニペットでは、 ``はエージェントのバージョン番号を表しています。 設定には最新のエージェントを使用することを強くお勧めします。 +上記のスニペットでは、 `AGENT_VERSION`はエージェントのバージョン番号を表しています。 設定には最新のエージェントを使用することを強くお勧めします。 ## Android 4.x:Multidexサポート [#4x-multidex] @@ -168,7 +168,7 @@ Android 5.0(APIレベル21)より前のAndroidバージョン用のモバイ 1. プロジェクトの`/app`フォルダー内に`proguard.multidex.config`ファイルを作成します。パッケージ名が反映するように、`mypackage`を更新します。 - ``` + ```profile #################### # keep class names # #################### @@ -180,12 +180,12 @@ Android 5.0(APIレベル21)より前のAndroidバージョン用のモバイ 2. アプリケーションレベルの`build.gradle`ファイルに、以下のコードをマージします。 - ``` + ```groovy android { - defaultConfig{ - … - multiDexKeepProguard file("proguard.multidex.config") - } + defaultConfig{ + … + multiDexKeepProguard file("proguard.multidex.config") + } } ``` diff --git a/src/i18n/content/jp/docs/more-integrations/best-practices-integration.mdx b/src/i18n/content/jp/docs/more-integrations/best-practices-integration.mdx deleted file mode 100644 index fc3cf1fcdce..00000000000 --- a/src/i18n/content/jp/docs/more-integrations/best-practices-integration.mdx +++ /dev/null @@ -1,29 +0,0 @@ ---- -title: インテグレーション ユーザー向けのベストプラクティス -tags: - - Best practices - - Integrations -metaDescription: Here are some best practices for controlling how you expose your New Relic data when you're using an integration. -freshnessValidatedDate: '2024-04-24T00:00:00.000Z' -translationType: machine ---- - -New Relicアドミニストレーターとして、最小権限の原則に従ってNew Relic組織を運用する必要があります。 この原則は、ユーザーが組織に必要なタスクを完了するために必要な特定のデータ、システム、リソースにのみアクセスできるというセキュリティ コンセプトです。 この原則に従うことで、機密データへの不正アクセスのリスクを軽減できます。 これには、職務と責任に基づいた権限の割り当てが含まれます。 [New Relic 組織](/docs/accounts/accounts-billing/account-structure/new-relic-account-structure/)では、アカウントベースのアクセスにより、組織内のユーザーが利用できる情報を制御できます。 これにより、機密データが安全に保たれ、許可された担当者のみがそれを閲覧できるようになります。 - -サードパーティ システムとのインテグレーションを行うと、アプリケーション アクセスが複雑になる可能性があります。 たとえば、Atlassian Jira のユーザーは New Relic にアクセスできない場合があります。 システムには集中化された権限や制御が欠けている場合もあります。 このページでデータ共有のベストプラクティスについて学びます。 - -## アカウントとAPIキーのスコープ [#account-api-key-scope] - -New Relic データへのアクセスを制御する際に最初に考慮すべきことは、アカウントの範囲です。 組織は複数のアカウントを持つことができ、ユーザーにはアカウントへのアクセス権が付与されます。 これにより、ユーザーが表示できるデータを制限できます。 組織にアカウントが 1 つしかない場合は、すべてのユーザーが同じ情報にアクセスできることになります。 このような状況では、インテグレーションを通じて一部のデータのみを公開したい場合があります。 - -New Relicを使用した一部のインテグレーションでは、API キーを生成してデータを他のシステムに公開する機能を活用します (Atlassian インテグレーションなど)。 ユーザーがNew Relic組織内の 5 つのアカウントのうち 3 つにアクセスできる場合、生成された API キーも同じ 3 つのアカウントにアクセスできます。 - - - API キーは、それを生成したユーザーのアカウント権限を継承することに注意してください。 - - -インテグレーションを設定する際には、この違いを理解することが重要です。 たとえば、適切な権限を持つユーザーから API キーが生成されていることを確認したい場合があります。 ユーザーがアプリケーション内の特定のアカウントにのみアクセスできるようにしたい場合があります。 これにより、ユーザーが閲覧したり、他のユーザーと共有したりできる内容が制限されます。 たとえば、Atlassian アプリケーションのユーザーがNew Relicアカウントのユーザーより多く、Atlassian インテグレーションを構成するとします。 Atlassian インテグレーションのユーザーは、対応する New Relic アカウントにアクセスできるかどうかに関係なく、Atlassian アプリケーションで Atlassian と共有されているNew Relic New Relicを表示できます。 - -## インテグレーション ユーザー レバレッジ [#integration-user-leverage] - -New Relicでサードパーティのインテグレーションを構成する場合は、専用のインテグレーション ユーザーを使用することを強くお勧めします。 これは、特定のインテグレーション専用の[New Relicユーザーを作成する](/docs/accounts/accounts-billing/new-relic-one-user-management/user-permissions/)ことを意味します。 このユーザーには、問題のインテグレーションを表す名前を付けることができます。 これの大きな利点は、インテグレーションに管理者レベルのアクセス権を使用する必要がないことです。 必要なのは、新しいユーザーを作成し、インテグレーションに公開するアカウントのみを割り当てることだけです。 次に、インテグレーションユーザーの API キーを生成します。 これにより、インテグレーションに使用する API キーは、インテグレーションに使用するアカウントの詳細のみを公開できるようになります。 また、個人のNew Relicアクセスをインテグレーションのアクセスから切り離すこともできます。 \ No newline at end of file diff --git a/src/i18n/content/jp/docs/more-integrations/cloudfoundry-integrations/vmware-tanzu-dotnet-buildpack-integration.mdx b/src/i18n/content/jp/docs/more-integrations/cloudfoundry-integrations/vmware-tanzu-dotnet-buildpack-integration.mdx deleted file mode 100644 index 011a7f6ad5c..00000000000 --- a/src/i18n/content/jp/docs/more-integrations/cloudfoundry-integrations/vmware-tanzu-dotnet-buildpack-integration.mdx +++ /dev/null @@ -1,140 +0,0 @@ ---- -title: VMware Tanzu 用 New Relic .NET 拡張ビルドパック -tags: - - Integrations - - Cloudfoundry - - Tanzu -metaDescription: Use our integration to gain increased visibility into the performance of your VMware Tanzu environment. -freshnessValidatedDate: never -translationType: machine ---- - -import infrastructureVmwareTanzuDashboard from 'images/infrastructure_screenshot-crop_vmware-tanzu-dashboard.webp' - -import infrastructureVmwareTanzuAlertChart from 'images/infrastructure_screenshot-crop_vmware-tanzu-alert-chart.webp' - -このドキュメントでは、VMware Tanzu 用の New Relic .NET Extension Buildpack について説明し、タイルのインストール方法について説明します。このタイルは New Relic エージェントを .NET Core または .NET Framework アプリにバインドできるため、VMware Tanzu 環境でそれらを監視できます。 - -New Relic .NET Extension Buildpack for VMware Tanzu を使用すると、.NET (コアおよびフレームワーク) アプリを New Relic .NET エージェントにバインドできます。これにより、これらのアプリの健全性とパフォーマンスを監視し、エージェントによってキャプチャされたデータを分析し、さらにキャプチャされたエージェント データを VMware Tanzu インフラストラクチャのメトリクスおよび[New Relic Firehose Nozzle](https://network.pivotal.io/products/nr-firehose-nozzle/)によって収集されたイベントと関連付けることができます。 - -## 前提条件 [#prereqs] - -この製品はテスト済みで、v3.0 までの VMware Tanzu OpsManager バージョンおよび Tanzu Application Service 5.0 と互換性があります。 - -VMware Tanzu 用 New Relic .NET Extension Buildpack には以下が必要です。 - -* ライセンス キーを持つアクティブな New Relic アカウント。これは、.NET アプリを New Relic .NET エージェントにバインドするために使用されます。 -* アプリマニフェストでマルチビルドパックを使用するには、cf CLI v6.38 以降が必要です。マニフェストへのビルドパックの追加に関する一般的な情報については、Cloud Foundry ドキュメントの[「複数のビルドパックを使用したアプリケーションのプッシュ」を](https://docs.pivotal.io/application-service/buildpacks/use-multiple-buildpacks.html)参照してください。 -* .NET HWC 拡張機能を使用するには、HWC ビルドパック 3.0.3 が必要です。またはそれ以降。 -* .NET Core 拡張機能を使用するには、dotnet core ビルドパック 2.1.5 が必要です。またはそれ以降。 - -次の表に、New Relic .NET Extension Buildpack for VMware Tanzu のバージョンとバージョン サポート情報を示します。 - -
- * **最大接続:**データソースに対して利用可能な最大接続数。通常これは設定可能なパラメーターです。 - * **アクティブ接続:**データソース内における、現在のアクティブな接続数。 - * **アイドル接続:**データソース内における、現在のアイドルな接続数。 + * **Max connections:** + + データソースに対して利用可能な最大接続数。通常これは設定可能なパラメーターです。 + + * **Active connections:** + + データソース内における、現在のアイドルな接続数。 + + * **Idle connections:** + + データソース内における、現在のアイドルな接続数。
- * **最大接続:**データソースに対して利用可能な最大接続数。通常これは設定可能なパラメーターです。 - * **アクティブ接続:**データソース内における、現在のアクティブな接続数。 - * **アイドル接続:**データソース内における、現在のアイドルな接続数。 - * **待機時間:**接続が処理されるまでに待たなくてはならない平均時間。 - * **デストロイド接続:**デストロイド接続数。 + * **Max connections:** + + データソースに対して利用可能な最大接続数。通常これは設定可能なパラメーターです。 + + * **Active connections:** + + データソース内における、現在のアイドルな接続数。 + + * **Idle connections:** + + データソース内における、現在のアイドルな接続数。 + + * **Wait time:** + + 接続が処理されるまでに待たなくてはならない平均時間。 + + * **Destroyed connections:** + + デストロイド接続数。
- * **最大接続:**データソースに対して利用可能な最大接続数。通常これは設定可能なパラメーターです。 - * **アクティブ接続:**データソース内における、現在のアクティブな接続数。 - * **アイドル接続:**データソース内における、現在のアイドルな接続数。 - * **作成済み接続:**作成された接続数。 + * **Max connections:** + + データソースに対して利用可能な最大接続数。通常これは設定可能なパラメーターです。 + + * **Active connections:** + + データソース内における、現在のアイドルな接続数。 + + * **Idle connections:** + + データソース内における、現在のアイドルな接続数。 + + * **Created connections:** + + 作成された接続数。
- **WebSphere PMIメトリックス** + + **WebSphere PMI metrics** + - **詳細** + + **Details** +
- **WebSphere PMIメトリックス** + + **WebSphere PMI metrics** + - **詳細** + + **Details** +
- **WebSphere PMIメトリックス** + + **WebSphere PMI metrics** + - **詳細** + + **Details** +
- **WebSphere PMIメトリックス** + + **WebSphere PMI metrics** + - **詳細** + + **Details** +
- **WebSphere PMIメトリックス** + + **WebSphere PMI metrics** + - **詳細** + + **Details** +
- **WebSphere PMIメトリックス** + + **WebSphere PMI metrics** + - **詳細** + + **Details** +
- stats.GlobalTimeoutCount + stats.LiveCount
- **WebLogic JMXメトリックス** + + **WebLogic JMX metrics** + - **詳細** + + **Details** +
- **WebLogic JMXメトリックス** + + **WebLogic JMX metrics** + - **詳細** + + **Details** +
- **WebLogic JMXメトリックス** + + **WebLogic JMX metrics** + - **詳細** + + **Details** +
- **WebLogic JMXメトリックス** + + **WebLogic JMX metrics** + - **詳細** + + **Details** +
- **WebLogic JMXメトリックス** + + **WebLogic JMX metrics** + - **詳細** + + **Details** +
- **WebLogic JMXメトリックス** + + **WebLogic JMX metrics** + - **詳細** + + **Details** +
- **WebLogic JMXメトリックス** + + **WebLogic JMX metrics** + - **詳細** + + **Details** +
- **WebLogic JMXメトリックス** + + **WebLogic JMX metrics** + - **詳細** + + **Details** +
- **WebLogic JMXメトリックス** + + **WebLogic JMX metrics** + - **詳細** + + **Details** +
- **WebLogic JMXメトリックス** + + **WebLogic JMX metrics** + - **詳細** + + **Details** +
- **WebLogic JMXメトリックス** + + **WebLogic JMX metrics** + - **詳細** + + **Details** +
- **WebLogic JMXメトリックス** + + **WebLogic JMX metrics** + - **詳細** + + **Details** +
- **WebLogic JMXメトリックス** + + **WebLogic JMX metrics** + - **詳細** + + **Details** +
- **WebLogic JMXメトリックス** + + **WebLogic JMX metrics** + - **詳細** + + **Details** +
- **WebLogic JMXメトリックス** + + **WebLogic JMX metrics** + - **詳細** + + **Details** +
- **WebLogic JMXメトリックス** + + **WebLogic JMX metrics** + - **詳細** + + **Details** +
- **WebLogic JMXメトリックス** + + **WebLogic JMX metrics** + - **詳細** + + **Details** +
- **WebLogic JMXメトリックス** + + **WebLogic JMX metrics** + - **詳細** + + **Details** +
- **WebLogic JMXメトリックス** + + **WebLogic JMX metrics** + - **詳細** + + **Details** +
- **WebLogic JMXメトリックス** + + **WebLogic JMX metrics** + - **詳細** + + **Details** +
- **WebLogic JMXメトリックス** + + **WebLogic JMX metrics** + - **詳細** + + **Details** +
- **WebLogic JMXメトリックス** + + **WebLogic JMX metrics** + - **詳細** + + **Details** +
- **WebLogic JMXメトリックス** + + **WebLogic JMX metrics** + - **詳細** + + **Details** +
- **WebLogic JMXメトリックス** + + **WebLogic JMX metrics** + - **詳細** + + **Details** +
- **WebLogic JMXメトリックス** + + **WebLogic JMX metrics** + - **詳細** + + **Details** +
- **WebLogic JMXメトリックス** + + **WebLogic JMX metrics** + - **詳細** + + **Details** +
- **WebLogic JMXメトリックス** + + **WebLogic JMX metrics** + - **詳細** + + **Details** +
- **New Relicメトリックス** + + **New Relic metric** + @@ -2891,7 +3162,7 @@ WebLogicでは、デフォルトでJMXが有効になっています。New Relic
- [**タイプ**](/docs/agents/java-agent/custom-instrumentation/custom-jmx-instrumentation-yaml#attribute-type) + [**Type**](/docs/agents/java-agent/custom-instrumentation/custom-jmx-instrumentation-yaml#attribute-type) @@ -2910,11 +3181,15 @@ WebLogicでは、デフォルトでJMXが有効になっています。New Relic
- **WebLogic JMXメトリックス** + + **WebLogic JMX metrics** + - **詳細** + + **Details** +
- **WebLogic JMXメトリックス** + + **WebLogic JMX metrics** + - **詳細** + + **Details** +
- **WebLogic JMXメトリックス** + + **WebLogic JMX metrics** + - **詳細** + + **Details** +
- **WebLogic JMXメトリックス** + + **WebLogic JMX metrics** + - **詳細** + + **Details** +
- インテグレーション + 機能
+ [AIモニタリング](/docs/ai-monitoring/intro-to-ai-monitoring) + + Javaエージェントのバージョン8.12.0以降を使用している場合は、特定のAIライブラリおよびフレームワークからAIデータを収集できます。 + + * [AWS SDK for Java v2 Bedrockランタイムクライアント](https://github.com/aws/aws-sdk-java-v2/)バージョン2.20.157以降 +
[ブラウザのモニタリング](/docs/browser/new-relic-browser/getting-started/introduction-new-relic-browser) diff --git a/src/i18n/content/jp/docs/apm/agents/net-agent/getting-started/net-agent-compatibility-requirements-net-core.mdx b/src/i18n/content/jp/docs/apm/agents/net-agent/getting-started/net-agent-compatibility-requirements-net-core.mdx index 4eca9ea26ca..e3398cc1391 100644 --- a/src/i18n/content/jp/docs/apm/agents/net-agent/getting-started/net-agent-compatibility-requirements-net-core.mdx +++ b/src/i18n/content/jp/docs/apm/agents/net-agent/getting-started/net-agent-compatibility-requirements-net-core.mdx @@ -319,9 +319,9 @@ Windowsまたは Linuxに、New Relic .NETエージェントをインストー id="aws-elastic-beanstalk" title="AWS Elastic Beanstalk" > - - AWS [Elastic Beanstalk](https://aws.amazon.com/elasticbeanstalk) は、サポート対象の .NET環境ではありません。 - + [AWS Elastic Beanstalk](https://aws.amazon.com/elasticbeanstalk)のインストール手順については、以下を参照してください。 + + * [AWS Elastic Beanstalkにインストールする](/docs/agents/net-agent/install-guides/install-net-agent-on-aws-elastic-beanstalk) * サポートされている最小バージョン:8.0.0 - * 確認済みの互換性バージョン: 8.0.0、8.1.0、8.1.1、8.9.1、8.9.2、8.9.3、8.10.0、8.11.0、8.12.0、8.12.1、8.13.11 + * 確認済みの互換性バージョン: 8.0.0、8.1.0、8.1.1、8.9.1、8.9.2、8.9.3、8.10.0、8.11.0、8.12.0、8.12.1、8.13.11、8.13.12 * バージョン8.10.0以降は、.NETエージェントv10.20.1以降でサポートされます。 * バージョン8.12.1以降は、.NETエージェントv10.23.0以降でサポートされます。 diff --git a/src/i18n/content/jp/docs/apm/agents/net-agent/getting-started/net-agent-compatibility-requirements-net-framework.mdx b/src/i18n/content/jp/docs/apm/agents/net-agent/getting-started/net-agent-compatibility-requirements-net-framework.mdx index a03e61c8a19..62e87ce6971 100644 --- a/src/i18n/content/jp/docs/apm/agents/net-agent/getting-started/net-agent-compatibility-requirements-net-framework.mdx +++ b/src/i18n/content/jp/docs/apm/agents/net-agent/getting-started/net-agent-compatibility-requirements-net-framework.mdx @@ -783,7 +783,7 @@ New Relicの.NETエージェントをお試しになりますか?[New Relicア * サポートされている最小バージョン:8.0.0 - * 確認済みの互換性バージョン: 8.0.0、8.1.0、8.1.1、8.9.1、8.9.2、8.9.3、8.10.0、8.11.0、8.12.0、8.12.1、8.13.11 + * 確認済みの互換性バージョン: 8.0.0、8.1.0、8.1.1、8.9.1、8.9.2、8.9.3、8.10.0、8.11.0、8.12.0、8.12.1、8.13.11、8.13.12 * バージョン8.10.0以降は、.NETエージェントv10.20.1以降でサポートされます。 * バージョン8.12.1以降は、.NETエージェントv10.23.0以降でサポートされます。 diff --git a/src/i18n/content/jp/docs/apm/agents/nodejs-agent/getting-started/compatibility-requirements-nodejs-agent.mdx b/src/i18n/content/jp/docs/apm/agents/nodejs-agent/getting-started/compatibility-requirements-nodejs-agent.mdx index 1c019017b88..3eb289f0467 100644 --- a/src/i18n/content/jp/docs/apm/agents/nodejs-agent/getting-started/compatibility-requirements-nodejs-agent.mdx +++ b/src/i18n/content/jp/docs/apm/agents/nodejs-agent/getting-started/compatibility-requirements-nodejs-agent.mdx @@ -185,954 +185,71 @@ Node.js用エージェントは、[Node Package Manager(npm)リポジトリ] -## Node.jsを備えたインストゥルメント [#instrument] - -インストール後、エージェントはサポートされているNode.jsライブラリとフレームワークのカタログを使用して自動インストゥルメントします。これにより、ウェブアプリケーションやサーバーに固有の詳細情報に即座にアクセスできます。 - -未対応のフレームワークまたはライブラリの場合、[Node.jsエージェントAPI](/docs/apm/agents/nodejs-agent/api-guides/nodejs-agent-api)を使用してエージェントを自身でインストゥルメントする必要があります。 - - - - Node.jsエージェントは、以下のデータストアに対するNode.jsアプリケーション呼び出しのパフォーマンスを監視します。 - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
- データストア - - `npm` モジュール名 - - 最小モジュールバージョン - - エージェントの最小バージョン - - メモ -
- [Cassandra](https://www.npmjs.com/package/cassandra-driver) - - `cassandra-driver` - - 3.4.0 - - 1.7.1 - -
- [Elasticsearch](https://www.npmjs.com/package/@elastic/elasticsearch) - - `elasticsearch` - - 7.16.0 - - 11.9.0 - -
- [Memcached](https://www.npmjs.com/package/memcached) - - `memcached` - - 1.0.0 - - 1.33.0 - -
- [MongoDB](https://www.npmjs.com/package/mongodb) - - `mongodb` - - 2.1.0 - - 1.32.0 - -
- [MySQL](https://www.npmjs.com/package/mysql) - - `mysql` - - 2.2.0 - - 1.32.0 - -
- [mysql2](https://www.npmjs.com/package/mysql2) - - `mysql2` - - 1.31.1 - - 1.32.0 - -
- [Redis](https://www.npmjs.com/package/redis) - - `redis` - - 2.0.0 - - 1.31.0 - -
- [Postgres](https://www.npmjs.com/package/pg) - - `pg` - - 8.2+ - - 9.0.0 - - [ネイティブ](https://www.npmjs.com/package/pg-native)と[ピュアのJavaScript](https://www.npmjs.com/package/pg-js)パッケージを含む -
- [Prisma](https://www.prisma.io/) - - [`@prisma/client`](https://www.npmjs.com/package/@prisma/client) - - 5.0.0 - - 9.11.0 - - Prismaインストゥルメンテーションは、Prisma自体をデータストアとして扱い、Prismaが使用するように設定された基礎となるSQLまたはNoSQLをデータストアとして扱いません。つまり、メトリクスとトレースによりPrisma ORMクエリ(`find`や`updateMany`)が表示され、SQLステートメント(`SELECT`や`UPDATE`)は表示されません。例外として、未処理のPrismaクエリは、実際の未処理のSQLまたはNoSQLクエリを記録します。 -
- [イオレディス](https://www.npmjs.com/package/ioredis) - - [`ioredis`](https://www.npmjs.com/package/ioredis) - - 3.0+ - - 1.26.2 - -
-
- - - * [grpc-js](https://www.npmjs.com/package/@grpc/grpc-js)ライブラリは、単項、ストリーミング、双方向のクライアント呼び出しでサポートされています。 - - - - Node.jsエージェントは、ネイティブの`http`および`fetch`モジュールをインストゥルメントします。さらに、人気のある[undici](https://www.npmjs.com/package/undici)クライアントもサポートされています。 - - **Note**:[バージョン 11.1.0](/docs/release-notes/agent-release-notes/nodejs-release-notes/node-agent-11-1-0)以降では、 `fetch`と`undici`の両方がサポートされています。 - - [aws-sdk](https://www.npmjs.com/package/aws-sdk)を使用したAmazon Web Services(AWS)へのすべての呼び出しが追跡されます。 - - - - [さまざまなデータベースとデータベースドライバを対象にインスタンスの詳細](/docs/apm/applications-menu/features/analyze-database-instance-level-performance-issues)を収集します。APMにおいて特定のインスタンスおよびデータベース情報の種類が見えるかどうかは、エージェントのバージョンによって異なります。 - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
- データベース - - `npm` モジュール名 - - 最小モジュールバージョン - - エージェントの最小バージョン -
- [PostgreSQL](https://www.postgresql.org/) - - [pg](https://www.npmjs.com/package/pg) - - 8.2+ - - 9.0.0 -
- [Redis](http://redis.io/) - - [redis](https://www.npmjs.com/package/redis) - - 2.0.0 - - 1.31.0 -
- [MongoDB](https://www.mongodb.com/) - - [mongodb](https://www.npmjs.com/package/mongodb) - - 2.1.0 - - 1.32.0 -
- [MySQL](http://www.mysql.com/) - - [mysql](https://www.npmjs.com/package/mysql) - - 2.2.0 - - 1.32.0 -
- [mysql2](http://www.mysql.com/) - - [mysql2](https://www.npmjs.com/package/mysql2) - - 1.3.1 - - 1.32.0 -
- [Memcached](https://memcached.org/) - - [memcached](https://www.npmjs.com/package/memcached) - - 1.0.0 - - 1.33.0 -
- [Elasticsearch](https://www.elastic.co/guide/en/elasticsearch/client/javascript-api/current/index.html) - - [Elasticsearch](https://www.npmjs.com/package/@elastic/elasticsearch) - - 7.16.0 - - 11.9.0 -
- [Amazon DynamoDB](https://aws.amazon.com/dynamodb/) - - [aws-sdk](https://www.npmjs.com/package/aws-sdk) - バージョン2と3の両方。 - - 2.380.0 - - 6.1.0 -
- [Prisma](https://prisma.io/) - - [@prisma/クライアント](https://www.npmjs.com/package/@prisma/client) - - 5.0.0 - - 11.0.0 -
- - 現在、New Relicエージェントにリストされてないデータストアからインスタンスレベルの情報をリクエストするには、[support.newrelic.com](https://support.newrelic.com)までお問い合わせください。 -
- - - [コンテキストでAPMログ](/docs/apm/new-relic-apm/getting-started/get-started-logs-context)をサポートするために、Node.jsエージェントは次のライブラリをインストゥルメントします。 - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
- ロギングライブラリ - - `npm` モジュール名 - - 最小モジュールバージョン - - エージェントの最小バージョン -
- [winston](https://github.com/winstonjs/winston) - - `winston` - - 3.0.0 - - 8.11.0 -
- [pino](https://github.com/pinojs/pino) - - `pino` - - 7.0.0 - - 8.11.0 -
- [bunyan](https://www.npmjs.com/package/bunyan) - - `bunyan` - - 1.8.12 - - 9.3.0 -
-
- - - [メッセージキューのインストゥルメンテーション](/docs/agents/nodejs-agent/troubleshooting/troubleshoot-message-consumers)は、[New Relic Node.js エージェントv2以上](/docs/release-notes/agent-release-notes/nodejs-release-notes)でのみ使用可能です。現在サポートされているメッセージキューのインストゥルメンテーション: - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
- メッセージキュー - - `npm` モジュール名 - - 最小モジュールバージョン - - エージェントの最小バージョン -
- [amqplib](https://www.npmjs.com/package/amqplib) - - `amqplib` - - 0.5.0 - - 2.0.0 -
- [Amazon SQS - Amazon SDK V2](https://www.npmjs.com/package/aws-sdk) - - `@aws-sdk/client-sqs` - - @aws-sdk 2.2.48 - - 6.2.0 -
- [Amazon SQS - Amazon SDK V3](https://github.com/aws/aws-sdk-js-v3) - - `@aws-sdk/client-sqs` - - @aws-sdk v3.0.0 - - 8.7.1 -
- [Amazon SNS - Amazon SDK V2](https://www.npmjs.com/package/aws-sdk) - - `@aws-sdk/client-sns` - - @aws-sdk 2.2.48 - - 6.2.0 -
- [Amazon SNS - Amazon SDK V3](https://github.com/aws/aws-sdk-js-v3) - - `@aws-sdk/client-sns` - - @aws-sdk v3.0.0 - - 8.7.1 -
- - 他のメッセージキューライブラリには、[カスタムインストゥルメンテーション](/docs/agents/nodejs-agent/supported-features/nodejs-custom-instrumentation#message-client)を使用します。 -
- - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
- ライブラリ - - `npm` モジュール名 - - 最小モジュールバージョン - - エージェントの最小バージョン -
- [ディレクター](https://www.npmjs.com/package/director) - - `director` - - 1.2以上 - - 2.0.0 -
- [ジェネリックプール](https://www.npmjs.com/package/generic-pool) - - `generic-pool` - - 2.4+ - - 0.9以上 -
-
- - - [TypeScript](https://www.npmjs.com/package/typescript)はJavaScriptにコンパイルできるプログラミング言語です。インストール後、Node.jsエージェントはTypeScriptアプリを自動インストゥルメントし、すぐにパフォーマンスデータにアクセスできるようにします。 - - [ES モジュール](https://nodejs.org/api/esm.html#introduction)は、共有/再利用のためにJavaScriptコードをパッケージ化するための公式標準です。 Node.jsエージェントは、Node.jsバージョン16.12.0を実行するESモジュールアプリケーションを**experimental**サポートします。 以降およびエージェント バージョン 9.1.0 以降。追加情報と手順については、[ESモジュールのドキュメント](/docs/apm/agents/nodejs-agent/installation-configuration/es-modules)を参照してください。 - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
- フレームワーク - - `npm` モジュール名 - - 最小モジュールバージョン - - エージェントの最小バージョン - - メモ -
- [Express](https://www.npmjs.com/package/express) - - `express` - - 4.6.0 - - 2.6.0 - -
- [Restify](https://www.npmjs.com/package/restify) - - `restify` - - 5.0.0 - - 2.6.0 - -
- [Connect](https://www.npmjs.com/package/connect) - - `connect` - - 2.0.0 - - 2.6.0 - -
- [Hapi](https://www.npmjs.com/package/@hapi/hapi) - - `@hapi/hapi` - - 20.0.0 - - 9.0.0 - - エージェントのv9.0.0では、サポートされるHapiの最小バージョンをv20.0.0以降に更新しました。v20.0.0未満のすべてのバージョンは、セキュリティ上の理由からHapiにより非推奨とされています。[サポートポリシー](https://hapi.dev/policies/support/)を参照してください。 -
- [Koa](https://www.npmjs.com/package/koa) - - `koa` - - 2.0.0 - - 3.2.0 - - エージェントとともにロードされた[外部モジュール](https://github.com/newrelic/node-newrelic-koa) -
- [Fastify](https://www.npmjs.com/package/fastify) - - `fastify` - - 2.0.0 - - 8.5.0 - -
- [Nest.js](https://nestjs.com/) - - `@nestjs/core` - - 8.0.0 - - 10.1.0 - - `nest start`コマンドを使用してアプリケーションを起動する場合は、New Relicエージェントを読み込むように起動バイナリを変更します。 `nest start --exec 'node -r newrelic'` -
- [Next.js](https://www.npmjs.com/package/next) - - `next` - - 12.0.9- 13.3.0 - - 10.1.0 - - ミドルウェアインストゥルメンテーションにはv12.2.0以降が必要 -
- - サポートされているフレームワークをデフォルトのルーターとともに使用している場合、Node.jsエージェントはフレームワークのルート名をそのまま読み取ることができます。ただし、フレームワークが提供する名前より固有な名前が必要な場合は、New Relicが[Node.jsトランザクションネーミングAPI](/docs/nodejs/nodejs-transaction-naming-api) によって提供する1つ以上のツールを使用できます。 - - - 2021年11月に、いくつかの機能のサポートを終了しました。これには、Node.jsエージェント用のHapi 19.2より前のOracle Driver PackageとHapiバージョンが含まれています。この移行の準備方法などの詳細については、[サポートフォーラムの投稿](https://discuss.newrelic.com/t/important-upcoming-changes-to-capabilities-and-support-across-node-agents-suggested-pagerduty-responders-incident-workflows-and-kubernetes-instrumentation/164481?u=dholloran)を参照してください。 - -
-
+/\* 開始:互換性テーブル \*/ + +## インストゥルメントされたモジュール [#instrument] + +インストール後、エージェントはサポートされているNode.jsライブラリとフレームワークのカタログを使用して自動インストゥルメントします。これにより、ウェブアプリケーションやサーバーに固有の詳細情報に即座にアクセスできます。 未対応のフレームワークまたはライブラリの場合、[Node.jsエージェントAPI](https://newrelic.github.io/node-newrelic/API.html)を使用してエージェントを自身でインストゥルメントする必要があります。 + +**注意**:サポートされている最新バージョンは、サポート対象の最新バージョンを反映していない可能性があります。 + +| パッケージ名 | サポートされている最小バージョン | サポートされている最新バージョン | 導入時バージョン\* | +| --------------------------------- | ---------------- | ---------------- | -------------------------------------- | +| `@apollo/gateway` | 2.3.0 | 2.8.0 | `@newrelic/apollo-server-plugin@1.0.0` | +| `@apollo/server` | 4.0.0 | 4.10.4 | `@newrelic/apollo-server-plugin@2.1.0` | +| `@aws-sdk/client-bedrock-runtime` | 3.0.0 | 3.583.0 | 11.13.0 | +| `@aws-sdk/client-dynamodb` | 3.0.0 | 3.585.0 | 8.7.1 | +| `@aws-sdk/client-sns` | 3.0.0 | 3.583.0 | 8.7.1 | +| `@aws-sdk/client-sqs` | 3.0.0 | 3.583.0 | 8.7.1 | +| `@aws-sdk/smithy-client` | 3.0.0 | 3.374.0 | 8.7.1 | +| `@elastic/elasticsearch` | 7.16.0 | 8.13.1 | 11.9.0 | +| `@grpc/grpc-js` | 1.4.0 | 1.10.8 | 8.17.0 | +| `@hapi/hapi` | 20.1.2 | 21.3.9 | 9.0.0 | +| `@koa/router` | 2.0.0 | 12.0.1 | 3.2.0 | +| `@langchain/core` | 0.1.17 | 0.2.3 | 11.13.0 | +| `@nestjs/cli` | 8.0.0 | 10.3.2 | 10.1.0 | +| `@prisma/client` | 5.0.0 | 5.14.0 | 11.0.0 | +| `@smithy/smithy-client` | 3.0.0 | 3.0.1 | 11.0.0 | +| `amqplib` | 0.5.0 | 0.10.4 | 2.0.0 | +| `apollo-server` | 2.14.0 | 3.13.0 | `@newrelic/apollo-server-plugin@1.0.0` | +| `apollo-server-express` | 2.14.0 | 3.13.0 | `@newrelic/apollo-server-plugin@1.0.0` | +| `apollo-server-fastify` | 2.14.0 | 3.13.0 | `@newrelic/apollo-server-plugin@1.0.0` | +| `apollo-server-hapi` | 3.0.0 | 3.13.0 | `@newrelic/apollo-server-plugin@1.0.0` | +| `apollo-server-koa` | 2.14.0 | 3.13.0 | `@newrelic/apollo-server-plugin@1.0.0` | +| `apollo-server-lambda` | 2.14.0 | 3.13.0 | `@newrelic/apollo-server-plugin@1.0.0` | +| `aws-sdk` | 2.2.48 | 2.1630.0 | 6.2.0 | +| `bluebird` | 2.0.0 | 3.7.2 | 1.27.0 | +| `bunyan` | 1.8.12 | 1.8.15 | 9.3.0 | +| `cassandra-driver` | 3.4.0 | 4.7.2 | 1.7.1 | +| `connect` | 2.0.0 | 3.7.0 | 2.6.0 | +| `director` | 1.2.0 | 1.2.8 | 2.0.0 | +| `express` | 4.6.0 | 4.19.2 | 2.6.0 | +| `fastify` | 2.0.0 | 4.27.0 | 8.5.0 | +| `generic-pool` | 2.4.0 | 3.9.0 | 0.9.0 | +| `ioredis` | 3.0.0 | 5.4.1 | 1.26.2 | +| `koa` | 2.0.0 | 2.15.3 | 3.2.0 | +| `koa-route` | 2.0.0 | 4.0.1 | 3.2.0 | +| `koa-router` | 2.0.0 | 12.0.1 | 3.2.0 | +| `memcached` | 2.2.0 | 2.2.2 | 1.26.2 | +| `mongodb` | 2.1.0 | 6.7.0 | 1.32.0 | +| `mysql` | 2.2.0 | 2.18.1 | 1.32.0 | +| `mysql2` | 1.3.1 | 3.9.9 | 1.32.0 | +| `next` | 13.0.0 | 14.2.3 | `@newrelic/next@0.7.0` | +| `openai` | 4.0.0 | 4.47.2 | 11.13.0 | +| `pg` | 8.2.0 | 8.11.5 | 9.0.0 | +| `pg-native` | 2.0.0 | 3.0.1 | 9.0.0 | +| `pino` | 7.0.0 | 9.1.0 | 8.11.0 | +| `q` | 1.3.0 | 1.5.1 | 1.26.2 | +| `redis` | 2.0.0 | 4.6.14 | 1.31.0 | +| `restify` | 5.0.0 | 11.1.0 | 2.6.0 | +| `superagent` | 2.0.0 | 9.0.2 | 4.9.0 | +| `undici` | 4.7.0 | 6.18.2 | 11.1.0 | +| `when` | 3.7.0 | 3.7.8 | 1.26.2 | +| `winston` | 3.0.0 | 3.13.0 | 8.11.0 | + +\*パッケージが指定されていない場合は、`newrelic`パッケージ内でサポートされます。 + +/\* 終了:互換性テーブル \*/ ## エージェントを他のNew Relic機能に接続する [#digital-intelligence-platform] diff --git a/src/i18n/content/jp/docs/apm/agents/nodejs-agent/getting-started/introduction-new-relic-nodejs.mdx b/src/i18n/content/jp/docs/apm/agents/nodejs-agent/getting-started/introduction-new-relic-nodejs.mdx index 9697958a4e0..7e92af0650b 100644 --- a/src/i18n/content/jp/docs/apm/agents/nodejs-agent/getting-started/introduction-new-relic-nodejs.mdx +++ b/src/i18n/content/jp/docs/apm/agents/nodejs-agent/getting-started/introduction-new-relic-nodejs.mdx @@ -32,6 +32,8 @@ New RelicからNode.jsを監視することにより、コードの行レベル Node.jsエージェントをインストールしたら、インストゥルメンテーションを拡張します。 +Node.jsエージェントは、さまざまな[サードパーティパッケージ](/docs/apm/agents/nodejs-agent/getting-started/compatibility-requirements-nodejs-agent/#instrumented-modules)によって自動インストゥルメントされています。ただし、[Apollo Server](https://github.com/newrelic/newrelic-node-apollo-server-plugin/blob/abfb3ede982169c4e1b1bcf9974ff3f6b01c68ea/README.md)と[Next.js](https://github.com/newrelic/newrelic-node-nextjs/blob/ea20b76a13c84f4f3c48e9544e18e568b8e41c33/README.md)のテレメトリーが必要な場合は、他に2つのモジュールが必要になります。 + @@ -55,38 +57,16 @@ Node.jsエージェントをインストールしたら、インストゥルメ * [Node.jsカスタムインストゥルメンテーション](/docs/agents/nodejs-agent/supported-features/nodejs-custom-instrumentation)を実装します。 * [API呼び出しを介してカスタムメトリクスを収集します](/docs/agents/nodejs-agent/supported-features/nodejs-custom-metrics)。 * [Node.jsエージェントAPI](/docs/agents/nodejs-agent/supported-features/nodejs-agent-api)を使用して、このエージェントの機能を制御、カスタマイズ、または拡張します。 + * [サンプルアプリケーション](https://github.com/newrelic/newrelic-node-examples)を参照して、すぐに使用できるさまざまなカスタムインストゥルメンテーションの動作を確認してください。 - - - - - - - - - - - - - + diff --git a/src/i18n/content/jp/docs/apm/agents/python-agent/getting-started/compatibility-requirements-python-agent.mdx b/src/i18n/content/jp/docs/apm/agents/python-agent/getting-started/compatibility-requirements-python-agent.mdx index d6386e85819..e9dcf54aaf7 100644 --- a/src/i18n/content/jp/docs/apm/agents/python-agent/getting-started/compatibility-requirements-python-agent.mdx +++ b/src/i18n/content/jp/docs/apm/agents/python-agent/getting-started/compatibility-requirements-python-agent.mdx @@ -47,7 +47,7 @@ New Relicアカウントをまだお持ちでない場合は、[New Relicアカ
- オープンソースのテレメトリー - - * 独自のインテグレーションを作成するには、[Node.js Telemetry SDK](/docs/data-ingest-apis/get-data-new-relic/new-relic-sdks/telemetry-sdks-send-custom-telemetry-data-new-relic)を使用します。 - * GraphQLペイロードを可視化するには、[ApolloServerプラグイン](/docs/agents/nodejs-agent/supported-features/apollo-server-plugin-nodejs)を使用します。 -
- Logs in Context + インストゥルメンテーションを拡張する - * [Winston](https://github.com/winstonjs/winston)または[Pino](https://github.com/pinojs/pino)ログデータを強化するには、Node.jsの[コンテキストの自動ログ](/docs/logs/logs-context/configure-logs-context-nodejs)ソリューションを使用します。 -
- トレース - - * [ディストリビューティッド(分散)トレーシング](/docs/apm/distributed-tracing/getting-started/introduction-distributed-tracing)を有効にします。 -
- Python(CCython/PyPy)のサポート対象バージョン:2.7、3.7、3.8、3.9、3.10および3.11。 + サポートされているPython(CPython/PyPy)バージョン:3.7、3.8、3.9、3.10、3.11、3.12。 **Recommendation:** Pythonバージョン3.7以降を当社のエージェントと共に使用します。 @@ -221,12 +221,16 @@ New Relicでは、エージェントを定期的に、少なくとも3か月ご - 未定 + 2024年4月1日(下記注記参照)
+ + Python 2.7は、今後のフレームワーク作業やメンテナンスでは公式にはサポートされなくなりましたが、エージェントからPython 2.7が削除される日付は未定です。 + + ## エージェントを他の機能に接続する [#digital-intelligence-platform] Pythonエージェントは他の機能と統合して、エンドツーエンドの可視性を提供します。 diff --git a/src/i18n/content/jp/docs/iast/troubleshooting.mdx b/src/i18n/content/jp/docs/iast/troubleshooting.mdx index 927e1bd7860..bc2768ed9de 100644 --- a/src/i18n/content/jp/docs/iast/troubleshooting.mdx +++ b/src/i18n/content/jp/docs/iast/troubleshooting.mdx @@ -18,7 +18,7 @@ translationType: machine id="iast-results" title="IAST の結果はどこで確認できますか?" > - **[one.newrelic.com](https://one.newrelic.com) > All capabilities > IAST > Tests & Applications**に移動します。 アプリケーションをクリックすると、アプリケーションのテスト効率、脆弱性、対象となる API、メソッド呼び出しなどのデータを確認できます。 + **[one.newrelic.com](https://one.newrelic.com) > All capabilities > IAST > Tests**に移動します。 アプリケーションをクリックすると、アプリケーションのテスト効率、脆弱性、対象となる API、メソッド呼び出しなどのデータを確認できます。 All capabilities > IAST > Tests & Applications**に移動します。 アプリケーションを検索し、概要セクションを確認してください。 アプリケーションの IAST カバレッジが低い場合は、アプリケーションにテスト ケースを追加して、より高いレベルのテスト効率を実現します。 + * アプリケーションの効率のレベル: **[one.newrelic.com](https://one.newrelic.com) > All capabilities > IAST > Tests**に移動します。 アプリケーションを検索し、概要セクションを確認してください。 アプリケーションの IAST カバレッジが低い場合は、アプリケーションにテスト ケースを追加して、より高いレベルのテスト効率を実現します。 - * IAST の対象範囲: **[one.newrelic.com](https://one.newrelic.com) > All capabilities > IAST > Tests & Applications**に移動します。 アプリケーションを検索してクリックします。 概要セクションで、IAST 分析のカバレッジが高く、脆弱性が検出されないかどうかを確認します。つまり、アプリケーションが安全であることを意味します。 + * IAST の対象範囲: **[one.newrelic.com](https://one.newrelic.com) > All capabilities > IAST > Tests**に移動します。 アプリケーションを検索してクリックします。 概要セクションで、IAST 分析のカバレッジが高く、脆弱性が検出されないかどうかを確認します。つまり、アプリケーションが安全であることを意味します。 * アプリケーションのフレームワークまたは脆弱性カテゴリはサポートされていません。 @@ -103,7 +103,7 @@ translationType: machine > IAST UI にアプリケーションが表示され、セキュリティ エージェントが正常に開始された場合でも、IAST が動作しているかどうかを確認できます。 確認するには次の手順に従います。 - 1. **[one.newrelic.com](https://one.newrelic.com) > All capabilities > IAST > Tests & Applications**に移動します。 + 1. **[one.newrelic.com](https://one.newrelic.com) > All capabilities > IAST > Tests**に移動します。 2. **Application tests** \[アプリケーション テスト]タブでアプリケーションを検索し、クリックします。 @@ -173,7 +173,7 @@ translationType: machine > IAST が誤検知を報告したと思われる場合は、脆弱性のステータスを更新してください。 次の手順を実行します: - * アプリケーションを検索します。 **[one.newrelic.com](https://one.newrelic.com) > All capabilities > IAST > Tests & Applications**に移動します。 + * アプリケーションを検索します。 **[one.newrelic.com](https://one.newrelic.com) > All capabilities > IAST > Tests**に移動します。 * \[すべてのアプリケーション] タブをクリックし、実際の脆弱性ではない脆弱性を選択します。 diff --git a/src/i18n/content/jp/docs/infrastructure/infrastructure-monitoring/get-started/choose-infra-install-method.mdx b/src/i18n/content/jp/docs/infrastructure/infrastructure-monitoring/get-started/choose-infra-install-method.mdx new file mode 100644 index 00000000000..8b7d97e9aea --- /dev/null +++ b/src/i18n/content/jp/docs/infrastructure/infrastructure-monitoring/get-started/choose-infra-install-method.mdx @@ -0,0 +1,96 @@ +--- +title: infrastructureエージェントのインストール方法を選択する +tags: + - Infrastructure + - Install the infrastructure agent + - Get started +metaDescription: An overview of installation methods for New Relic's infrastructure agent and infrastructure integrations. +freshnessValidatedDate: '2024-05-21T00:00:00.000Z' +translationType: human +--- + +import osAnsibleRed from 'images/os_icon_ansible-red.webp' + +import osChef from 'images/os_icon_chef.webp' + +import osEbs from 'images/os_icon_ebs.webp' + +import osPuppet from 'images/os_icon_puppet.webp' + +import infrastructureAngetsandNr from 'images/infrastructure_diagram_angets-and-nr.webp' + +import osDocker from 'images/os_icon_docker.webp' + +infrastructureエージェントは、ホストに関するデータを収集する実行可能ファイルです。infrastructureエージェントを有効にすると、[一部のサードパーティサービス](/docs/infrastructure/host-integrations/installation/install-infrastructure-host-integrations)からのデータを報告し、[ログデータ](/docs/logs/enable-log-monitoring-new-relic/enable-log-monitoring-new-relic/forward-your-logs-using-infrastructure-agent)を収集することができます。 + +infrastructureエージェントは、Windows、macOS、および多くのLinuxディストリビューションで実行できます。このドキュメントでは、infrastructureエージェントをインストールするために使用できるさまざまな方法について説明します。開始するには、[New Relicアカウント](https://newrelic.com/signup)とライセンスキーが必要です。 + +## infrastructureエージェントを手動でインストールする [#manual-install] + +複数のホストを監視したいが、それほど複雑ではない場合は、手動インストール手順に従うことをお勧めします。通常は、コマンドラインを使用してエージェントが存在するディレクトリを作成し、ライセンスキー情報を追加します。OSによっては、設定ファイルを作成して編集する必要がある場合もあります。手動でインストールするには、ここから始めてください。 + +* [パッケージマネージャーを使用してLinuxシステムにインストールする](/docs/infrastructure/install-infrastructure-agent/linux-installation/install-infrastructure-monitoring-agent-linux) +* [macOSにインストールする](/docs/infrastructure/install-infrastructure-agent/macos-installation/install-infrastructure-monitoring-agent-macos) +* Install on Windows with [MSI install](/docs/infrastructure/install-infrastructure-agent/windows-installation/install-infrastructure-monitoring-agent-windows), [zip install](/docs/infrastructure/install-infrastructure-agent/windows-installation/zip-assisted-install-infrastructure-agent-windows), or [manual zip install](/docs/infrastructure/install-infrastructure-agent/windows-installation/zip-manual-install-infrastructure-agent-windows) + +## infrastructureエージェントをプログラミングでデプロイする [#deploy-programmatically] + +いくつかの設定管理およびデプロイツールを使用して、プログラミングでinfrastructureエージェントをデプロイできます。 + +* Ansible + + [Ansible](/docs/infrastructure/new-relic-infrastructure/config-management-tools/configure-new-relic-infrastructure-using-ansible) + +* Chef + + [Chef](/docs/infrastructure/new-relic-infrastructure/config-management-tools/configure-new-relic-infrastructure-using-chef) + +* Docker + + [Docker](/docs/infrastructure/install-infrastructure-agent/linux-installation/docker-container-infrastructure-monitoring)(コンテナとしてインストール) + +* EBS + + [Elastic Beanstalk](/docs/infrastructure/install-infrastructure-agent/config-management-tools/install-infrastructure-agent-aws-elastic-beanstalk) + +* Puppet + + [Puppet](/docs/infrastructure/new-relic-infrastructure/config-management-tools/configure-new-relic-infrastructure-puppet) + +## ガイド付きインストールを使用する [#guided-install] + +ガイド付きインストールは、インスタンスを監視するために実行できる単一のCLIコマンドです。これは、小規模な組織や、New Relicを試してみたいユーザーにとって優れた選択肢です。CLIコマンドを実行すると、 New Relicシステムを検査して、監視する必要があるその他の互換性テクノロジーが検出されます。デフォルトで[インフラストラクチャステータスAPI](https://github.com/newrelic/infrastructure-agent/blob/master/docs/status_api.md)も受け取ります。 + + + New Relic CLIはFedRAMPサーバーをサポートしません。FedRAMPP顧客の場合は、[手動のインストール手順](#manual-install)を参照してください。 + + +開始するには、[New Relicデータセンターの地域](/docs/accounts/accounts-billing/account-setup/choose-your-data-center)を選択してください。 + + + + ガイド付きインストール(米国地域) + + + + ガイド付きインストール(EU地域) + + + +## 次のステップ [#whats-next] + +infrastructureエージェントをインストールしたら、次の操作を実行します。 + +* [エージェントを設定する](/docs/infrastructure/install-configure-infrastructure/configuration/configure-infrastructure-agent)方法、または[設定テンプレート](https://github.com/newrelic/infrastructure-agent/blob/master/assets/examples/infrastructure/newrelic-infra-template.yml.example)を編集する方法を学びます +* [オンホストインテグレーション](/docs/integrations/host-integrations/getting-started/introduction-host-integrations)(ApacheやMySQLなど)をインストールします +* [infrastructureエージェントを使用したログの転送を有効にします](/docs/logs/enable-new-relic-logs/1-enable-logs/forward-your-logs-using-new-relic-infrastructure) +* [エージェントの管理](/docs/infrastructure/install-infrastructure-agent/manage-your-agent)方法を学びます +* 当社のinfrastructureエージェントは軽量の実行可能ファイルです。それが何を意味するかについて詳しくは、[こちら](/docs/infrastructure/new-relic-infrastructure/getting-started/infrastructure-agent-performance-overhead)をご覧ください。 \ No newline at end of file diff --git a/src/i18n/content/jp/docs/infrastructure/infrastructure-monitoring/get-started/get-started-infrastructure-monitoring.mdx b/src/i18n/content/jp/docs/infrastructure/infrastructure-monitoring/get-started/get-started-infrastructure-monitoring.mdx index b71e828b9ca..2a90e29592d 100644 --- a/src/i18n/content/jp/docs/infrastructure/infrastructure-monitoring/get-started/get-started-infrastructure-monitoring.mdx +++ b/src/i18n/content/jp/docs/infrastructure/infrastructure-monitoring/get-started/get-started-infrastructure-monitoring.mdx @@ -5,11 +5,13 @@ tags: - Infrastructure monitoring - Get started metaDescription: 'New Relic provides flexible, dynamic monitoring of your entire infrastructure. Learn about features, installation, and use cases.' -freshnessValidatedDate: never +freshnessValidatedDate: '2024-05-21T00:00:00.000Z' translationType: human --- -import infrastructureMainUi from 'images/infrastructure_screenshot-full_main_infra_hosts_ui.webp' +import infrastructureOverviewUI from 'images/infrastructure_screenshot-overview.webp' + +import infrastructureAngetsandNr from 'images/infrastructure_diagram_angets-and-nr.webp' import infrastructureInventory from 'images/infrastructure_screenshot-full_inventory-page.webp' @@ -17,65 +19,41 @@ import infrastructureEvents from 'images/infrastructure_screenshot-full_events-p import infrastructurek8ClusterExplorer from 'images/infrastructure_screenshot-full_k8-cluster-explorer.webp' -New Relicでは、クラウドや専用ホストで実行しているサービスや、オーケストレーションされた環境で実行しているコンテナなど、フレキシブルでダイナミックなインフラストラクチャ全体のオブザーバビリティを提供します。すべてのホストの健全性とパフォーマンスを、アプリケーションのコンテキストやログ、設定変更と関連付けることができます。 - -Infrastructureモニタリングを使用して、現在の運用チームは、データセンターや数千ものAmazonやGoogle Cloud、Azureインスタンスなどの複雑なハイブリッドシステムの完全なオブザーバビリティを実現します。 - -当社のインフラストラクチャモニタリングのソリューションに関する詳細と、その開始方法を続けてお読みください。まだ作成されていない場合は、無料のNew Relicアカウントを以下で作成し、今すぐデータの監視を開始してください。 - - +New Relicを使用すると、ソフトウェアインフラストラクチャを監視できるため、信頼性の高いシステムを提供できます。クラウド、専用ホスト、またはオーケストレーションされた環境で実行されるコンテナのいずれで作業している場合でも、infrastructureモニタリングを使用して健全性とパフォーマンスの結果を向上させることができます。 New Relic - Infrastructure Monitoring
- インフラストラクチャに関する**Hosts**ページには、システム、ネットワーク、プロセス、ストレージのパフォーマンス指標が表示されます。 + **[one.newrelic.com](https://one.newrelic.com) > All Capabilities > Infrastructure**から:**Hosts**ページには、システム、ネットワーク、プロセス、およびストレージに関するパフォーマンスデータが表示されます。
- - Infrastrcutureモニタリングを効果的に使用する方法を知りたいですか?当社のガイド付き[インフラストラクチャと根本原因のラボ](/docs/infrastructure/infrastructure-monitoring/get-started/identify-root-causes-guide)をお試しください。 - - -## Infrastructureモニタリングソリューション [#infrastructure-solutions] - -当社には、幅広いInfrastructureモニタリングソリューションがあります。概要は次のとおりです。 - -* Linux、macOS、Windowsオペレーティングシステム用の[Infrastructureエージェント](/docs/infrastructure/install-infrastructure-agent/get-started/install-infrastructure-agent)。 -* [Kubernetes](/docs/kubernetes-pixie/kubernetes-integration/installation/kubernetes-integration-install-configure)と[Pixie](/docs/kubernetes-pixie/auto-telemetry-pixie/get-started-auto-telemetry-pixie)インテグレーション。 -* Amazon、Azure、Google Cloud Platform向け[クラウドインテグレーション](/docs/infrastructure/infrastructure-integrations/get-started/introduction-infrastructure-integrations/#cloud-integrations)。 -* [Prometheusのインテグレーション](/docs/infrastructure/prometheus-integrations/get-started/send-prometheus-metric-data-new-relic)。 -* MySQL、NGINX、Cassandra、Kafkaなどのサービス向けの[オンホストインテグレーション](/docs/infrastructure/infrastructure-integrations/get-started/introduction-infrastructure-integrations/#on-host-integrations)(いくつか例を挙げます)。オンホストインテグレーションのほとんどは、Infrastructureエージェントとともにインストールされ、それと連携してデータを送信します。 +## 1つのエージェントで多くの機能を実現 [#overview] -## クイック・スタート:ガイド付きインストールを使用 [#quick] +infrastructureモニタリング機能にアクセスするには、infrastructureエージェントが必要です。エージェントをインストールすると、オンプレミスまたは仮想化ホストのシステムリソース、プロセスに関するパフォーマンスデータと正常性のデータが収集されます。そこから、エージェントを、サポートされている[オンホストインテグレーション](/docs/integrations/host-integrations/getting-started/introduction-host-integrations)の1つとペアリングするように設定したり、[ログを転送する](/docs/logs/enable-log-monitoring-new-relic/enable-log-monitoring-new-relic/forward-your-logs-using-infrastructure-agent)ように設定したりできます。 -最も手っ取り早い方法は、当社のガイド付きインストールを使用することです。このインストールでは、[Infrastructureモニタリングエージェント](/docs/infrastructure/install-infrastructure-agent/get-started/install-infrastructure-agent)をインストールし、ご使用の環境でアプリケーションとログソースを検出します。 - - - - ガイド付きインストール - +Agents and New Relic - - EUガイド付きインストール - - +infrastructureモニタリングにより、現在の運用チームは、単一のデータセンターから数千ものAmazonやGoogle Cloud 、Azureインスタンスなどの複雑なハイブリッドシステムを詳細に調査できるようになります。アーキテクチャーがどのようなものであっても、当社のinfrastructureモニタリング機能は、システムのトラブルシューティングと改善に役立ちます。以下にいくつかの解決策をご紹介します。 -ガイド付きインストールは、ほとんどの設定と連動します。ただし、ご希望に添えない場合は、[その他のインストールオプション](#install)をご確認ください。 +* Linux、macOS、Windowsオペレーティングシステム用の[infrastructureエージェント](/docs/infrastructure/install-infrastructure-agent/get-started/install-infrastructure-agent) +* [Kubernetes](/docs/kubernetes-pixie/kubernetes-integration/installation/kubernetes-integration-install-configure)と[Pixie](/docs/kubernetes-pixie/auto-telemetry-pixie/get-started-auto-telemetry-pixie)インテグレーション +* Amazon、Azure、Google Cloud Platform向けの[クラウドインテグレーション](/docs/infrastructure/infrastructure-integrations/get-started/introduction-infrastructure-integrations/#cloud-integrations) +* [Prometheusのインテグレーション](/docs/infrastructure/prometheus-integrations/get-started/send-prometheus-metric-data-new-relic) +* MySQL、NGINX、Cassandra、Kafkaなどのサービス向けの[オンホストインテグレーション](/docs/infrastructure/infrastructure-integrations/get-started/introduction-infrastructure-integrations/#on-host-integrations)(いくつか例を挙げます) ## 実行可能なデータでMTTRを短縮する [#why-it-matters] -リアルタイムのメトリクスと解析により、ホストパフォーマンスの変化を設定の変更と関連付けて考察することで、[平均解決時間](https://newrelic.com/devops/how-to-reduce-mttr)(MTTR)を短縮できます。**Inventory**ページでは、エステート全体を検索し、特定のパッケージ、設定ファイル、または起動スクリプトが含まれるホストを正確に特定できます。 +リアルタイムのメトリクスと解析により、ホストパフォーマンスの変化を設定の変更と関連付けて考察することで、[平均解決時間](https://newrelic.com/devops/how-to-reduce-mttr)(MTTR)を短縮できます。インフラストラクチャデータがどのように役立つかの例を次に示します。 + +**Inventory**ページでは、主にエステートのすべてのインフラストラクチャ[エンティティ](/docs/new-relic-one/use-new-relic-one/core-concepts/what-entity-new-relic)を取り上げています。
- **Inventory**ページでは、主にエステートのすべてのインフラストラクチャ[エンティティ](/docs/new-relic-one/use-new-relic-one/core-concepts/what-entity-new-relic)を取り上げています。 + **[one.newrelic.com](https://one.newrelic.com) > All Capabilities > Infrastructure monitoring > Inventory**:システム全体を検索し、特定のパッケージ、設定ファイル、または起動スクリプトが含まれるホストを正確に特定できます。
-**Events**ページでは、設定の変更、再起動、SSHセッション、その他の[重要なイベント](/docs/infrastructure-events-page#types)の変更を追跡できます。リアルタイムフィードで、インフラストラクチャ全体の変更ログを提供します。当社のソリューションは5秒以内に[安全に](/docs/infrastructure/new-relic-infrastructure/getting-started/infrastructure-security)データを収集・表示するため、モニタリングが現実から遅れを取ることはありません。 +**Events**ページでは、設定の変更、再起動、SSHセッション、その他の[重要なイベント](/docs/infrastructure-events-page#types)の変更を追跡できます。リアルタイムフィードで、インフラストラクチャ全体の変更ログを提供します。 **Events**ページには、ホストで発生したすべてのもののリアルタイムフィードが含まれます。 -Infrastructureモニタリングツールを使用して、次のことも行えます。 +どのように使用しても、当社のソリューションは[安全に](/docs/infrastructure/new-relic-infrastructure/getting-started/infrastructure-security)データを収集・表示するため、モニタリングが現実から遅れを取ることはありません。 -* [データのクエリ](/docs/using-new-relic/data/understand-data/query-new-relic-data)を行い、[インフラストラクチャイベント](/docs/default-infrastructure-events-attributes)を掘り下げて分析し、チームと共有可能な[カスタムダッシュボード](/docs/dashboards/new-relic-one-dashboards/get-started/introduction-new-relic-one-dashboards)を構築する。 -* サーバー側かアプリケーション側かによらず、問題がどこで発生しても、[InfrastructureモニタリングとのAPMデータ接続](/docs/infrastructure/new-relic-infrastructure/data-instrumentation/new-relic-apm-data-infrastructure)により、パフォーマンスの問題のトラブルシューティングを行う。 -* 関連性のあるInfrastructureチャートから直接、[アラート設定を作成、表示、または更新](/docs/add-edit-or-view-host-alert-information)します。たとえば、アラート条件を[報告しないホスト](/docs/infrastructure/new-relic-infrastructure/configuration/create-infrastructure-host-not-reporting-condition)を作成できます。 +## Infrastructureエージェントをインストールする [#install-infra-agent] -## インフラストラクチャおよびアプリデータのログを表示 [#logs-context] +infrastructureモニタリングにアクセスするには、まずエージェントをインストールする必要があります。Infrastructureエージェントは、Linux、macOS、Windowsシステムにインストールできます。オブザーバビリティのニーズに応じて、システムにエージェントをデプロイするためのいくつかの異なるオプションがあります。ユースケースに適したオプションを決定するには、[infrastructureエージェントのインストール方法の選択](/docs/infrastructure/infrastructure-monitoring/get-started/choose-infra-install-method)を確認することをお勧めします。 -ログとインフラストラクチャのデータを統合して、トラブルシューティングをより簡単かつ迅速にできます。コンテキストのログでは、Kubernetesクラスタなど、インフラストラクチャデータのログを表示することもできます。必要な数の設定ファイルを追加できます。これらのファイルは、ログメタデータを当社のプラットフォームにプッシュするソースとして機能します。 - -エラーとトレースに関連するログメッセージをアプリケーションやホストのUIで直接表示することもできます。New Relicで別のUIページに切り替える必要はありません。詳細については、[コンテキストのAPMログ](/docs/apm/new-relic-apm/getting-started/get-started-logs-context)のドキュメントを参照してください。 - -コンテキストソリューションの自動ログをまだサポートしていない場合は、コンテキストソリューションの手動ログを引き続き使用できます。また、[infrastructureエージェント](/docs/logs/forward-logs/forward-your-logs-using-infrastructure-agent/)またはその他の[サポートされているサードパーティ製ログフォワーダー](/docs/logs/forward-logs/enable-log-management-new-relic)を使用してログを転送できます。 - -## Infrastructureエージェントをインストールする [#install] - -[ガイド付きインストール](#quick)を使用しない場合、Infrastructureエージェントをインストールする最も簡単な方法は、[パッケージマネージャ](/docs/infrastructure/install-configure-manage-infrastructure/linux-installation/install-infrastructure-linux-using-package-manager)(Linux)または[MSIインストーラ](/docs/infrastructure/install-configure-manage-infrastructure/windows-installation/install-infrastructure-windows-server-using-msi-installer)(Windows)を使用することです。 - -まだNew Relicアカウントがない、またはステップごとの手順に従いたい場合は、チュートリアルを参照して[Linux](/docs/infrastructure/install-configure-manage-infrastructure/linux-installation/install-infrastructure-linux-using-package-manager) \| [Windows](/docs/infrastructure/new-relic-infrastructure/installation/install-infrastructure-windows-server) \| [Elastic Beanstalk](/docs/infrastructure/new-relic-infrastructure/installation/install-infrastructure-agent-aws-elastic-beanstalk) \| [Ansible](/docs/infrastructure/new-relic-infrastructure/config-management-tools/configure-new-relic-infrastructure-using-ansible) \| [Chef](/docs/infrastructure/new-relic-infrastructure/config-management-tools/configure-new-relic-infrastructure-using-chef) \| [Puppet](/docs/infrastructure/new-relic-infrastructure/config-management-tools/configure-new-relic-infrastructure-puppet)用のエージェントをインストールしてください。 +当社のソリューションのほとんどは、まずinfrastructureエージェントをインストールし、それと連携してデータを送信する必要があります。 ## Infrastructureサービスインテグレーション [#aws] @@ -128,20 +94,10 @@ Infrastructureインテグレーションにより、一般的な多くのサー * NGINX、Cassandra、MySQLなど、当社の[オンホストインテグレーション](/docs/infrastructure/host-integrations/host-integrations-list)は、Infrastructureエージェントと連携して機能します。 * [New Relic Flex](/docs/introduction-new-relics-flex-integration)と独自のインテグレーションを構築します。 -Understand your Kubernetes nodes and pods, and how the relate to each other. - -
- **[Kubernetes cluster explorer](/docs/integrations/kubernetes-integration/cluster-explorer/kubernetes-cluster-explorer)**は、大規模なKubernetesの実行に関連する問題に対する、強力で革新的な解決策となります。 -
+## インフラストラクチャおよびアプリデータのログを表示 [#logs-context] -## Infrastructureデータを詳しく調べる [#explore] +ログとインフラストラクチャのデータを統合して、トラブルシューティングをより簡単かつ迅速にできます。コンテキストのログでは、Kubernetesクラスタなど、インフラストラクチャデータのログを表示することもできます。必要な数の設定ファイルを追加できます。これらのファイルは、ログメタデータを当社のプラットフォームにプッシュするソースとして機能します。 -UI機能の詳細については、[Infrastructure UIの概要](/docs/infrastructure/infrastructure-ui-pages/infra-ui-overview)を参照してください。 +エラーとトレースに関連するログメッセージをアプリケーションやホストのUIで直接表示することもできます。詳細については、[コンテキストのAPMログ](/docs/apm/new-relic-apm/getting-started/get-started-logs-context)のドキュメントを参照してください。 - - Datadogを使用してインフラストラクチャをモニターしていますが、New Relicのモニタリング機能を無料で試してみませんか?その方法については、[Datadogからの移行方法に関するガイド](/docs/journey-migration/migrating-from-dd/)を参照してください。 - \ No newline at end of file +コンテキストソリューションの自動ログをまだサポートしていない場合は、コンテキストソリューションの手動ログを引き続き使用できます。また、[infrastructureエージェント](/docs/logs/forward-logs/forward-your-logs-using-infrastructure-agent/)またはその他の[サポートされているサードパーティ製ログフォワーダー](/docs/logs/forward-logs/enable-log-management-new-relic)を使用してログを転送できます。 \ No newline at end of file diff --git a/src/i18n/content/jp/docs/infrastructure/install-infrastructure-agent/get-started/requirements-infrastructure-agent.mdx b/src/i18n/content/jp/docs/infrastructure/install-infrastructure-agent/get-started/requirements-infrastructure-agent.mdx index 230bae0061e..b45cefd3473 100644 --- a/src/i18n/content/jp/docs/infrastructure/install-infrastructure-agent/get-started/requirements-infrastructure-agent.mdx +++ b/src/i18n/content/jp/docs/infrastructure/install-infrastructure-agent/get-started/requirements-infrastructure-agent.mdx @@ -183,7 +183,7 @@ Infrastructureエージェントは、メーカーの製品寿命までこれら
- [LTS](https://wiki.ubuntu.com/LTS)バージョン 16.04.x、18.04.x、20.04.x、22.04.x 中間リリース20.10、21.04。 + [LTS](https://wiki.ubuntu.com/LTS)バージョン 16.04.x、18.04.x、20.04.x、22.04.x、24.04.x中間リリース20.10、21.04。注意:Ubuntu 24.04ではログはまだサポートされていません。
- `SystemSample` には、CPU、メモリ、ディスク、ネットワークなど、サーバー全体の現在の状態を説明するデータが含まれます。このデータのスナップショットは5秒おきに記録され、`SystemSample`イベントにパッケージされます。これがNew Relicに送信されます。このデータは[**システム**UIタブ](/docs/infrastructure/infrastructure-ui-pages/infra-hosts-ui-page#system)に表示されます。 + `SystemSample` には、CPU、メモリ、ディスク、ネットワークなど、サーバー全体の現在の状態を説明するデータが含まれます。このデータのスナップショットは5秒おきに記録され、`SystemSample`イベントにパッケージされます。これがNew Relicに送信されます。このデータは[**Systems** UIタブ](/docs/infrastructure/infrastructure-ui-pages/infra-hosts-ui-page#system)に表示されます。
- `ProcessSample` は、単一システムで実行されているプログラムから詳細なリソース使用情報を収集します。すべてのアクティブプロセスに関して、このデータのスナップショットは20秒ごとに記録され、`ProcessSample`イベントにパッケージされ、これがNew Relicに送信されます。このデータは[**プロセス**UIページ](/docs/infrastructure/infrastructure-ui-pages/infra-hosts-ui-page#processes)に表示されます。 + `ProcessSample` は、単一システムで実行されているプログラムから詳細なリソース使用情報を収集します。すべてのアクティブプロセスに関して、このデータのスナップショットは20秒ごとに記録され、`ProcessSample`イベントにパッケージされ、これがNew Relicに送信されます。このデータは[**Processes** UIページ](/docs/infrastructure/infrastructure-ui-pages/infra-hosts-ui-page#processes)に表示されます。 プロセスメトリクスはデフォルトでは報告されません。このデータを報告するには、[プロセスメトリクスを有効にします](/docs/infrastructure/install-configure-manage-infrastructure/configuration/infrastructure-configuration-settings#enable-process-metrics)。 @@ -76,7 +76,7 @@ New Relicのインフラストラクチャ監視エージェントは、6つの - `StorageSample` は、サーバーに関連する単一のストレージデバイスを表します。各サンプルは、デバイスや使用するファイルシステムの種類、現在の使用量および容量についての分かりやすい情報を収集します。各マウントファイルシステムに関して、このデータのスナップショットは20秒ごとに記録され、`StorageSample`イベントにパッケージされ、New Relicに送信されます。このデータは[**ストレージ**UIページ](/docs/infrastructure/infrastructure-ui-pages/infra-hosts-ui-page#storage)に表示されます。 + `StorageSample` は、サーバーに関連する単一のストレージデバイスを表します。各サンプルは、デバイスや使用するファイルシステムの種類、現在の使用量および容量についての分かりやすい情報を収集します。各マウントファイルシステムに関して、このデータのスナップショットは20秒ごとに記録され、`StorageSample`イベントにパッケージされ、New Relicに送信されます。このデータは[**Storage** UIページ](/docs/infrastructure/infrastructure-ui-pages/infra-hosts-ui-page#storage)に表示されます。 サーバーが、次の表にあるサポートされているファイルシステム以外のファイルシステムを有するディスクを使用している場合、`StorageSample`イベントはこれらのディスクには生成されません。 @@ -119,7 +119,7 @@ New Relicのインフラストラクチャ監視エージェントは、6つの - `NetworkSample` は、サーバーに関連する各ネットワークデバイスの説明と状態情報を取得します。これには、デバイスのインタフェースおよびアドレス情報、ならびに現在の使用量データが含まれます。各添付ネットワークインタフェースに関して、このデータのスナップショットは10秒ごとに記録され、`NetworkSample`イベントにパッケージされ、New Relicに送信されます。このデータは[**ネットワーク**UIページ](/docs/infrastructure/infrastructure-ui-pages/infra-hosts-ui-page#network)に表示されます。 + `NetworkSample` は、サーバーに関連する各ネットワークデバイスの説明と状態情報を取得します。これには、デバイスのインタフェースおよびアドレス情報、ならびに現在の使用量データが含まれます。各添付ネットワークインタフェースに関して、このデータのスナップショットは10秒ごとに記録され、`NetworkSample`イベントにパッケージされ、New Relicに送信されます。このデータは[**Network** UIページ](/docs/infrastructure/infrastructure-ui-pages/infra-hosts-ui-page#network)に表示されます。
- `ContainerSample` は、各Dockerコンテナの説明と状態情報を収集します。この情報には、コンテナのID、名前、イメージ、イメージ名、またCPU、メモリ、ネットワークに関するメトリクスが含まれます。各コンテナに関して、このデータのスナップショットは15秒ごとに記録され、`ContainerSample`イベントにパッケージされ、New Relicに送信されます。このデータは[**コンテナ**UIページ](/docs/infrastructure/infrastructure-ui-pages/infra-hosts-ui-page#containers)に表示されます。詳細については、[Dockerモニタリング](/docs/infrastructure/new-relic-infrastructure/data-instrumentation/docker-instrumentation-infrastructure)を参照してください。 + `ContainerSample` は、各Dockerコンテナの説明と状態情報を収集します。この情報には、コンテナのID、名前、イメージ、イメージ名、またCPU、メモリ、ネットワークに関するメトリクスが含まれます。各コンテナに関して、このデータのスナップショットは15秒ごとに記録され、`ContainerSample`イベントにパッケージされ、New Relicに送信されます。このデータは[**Containers** UIページ](/docs/infrastructure/infrastructure-ui-pages/infra-hosts-ui-page#containers)に表示されます。詳細については、[Dockerモニタリング](/docs/infrastructure/new-relic-infrastructure/data-instrumentation/docker-instrumentation-infrastructure)を参照してください。
- `InfrastructureEvent` は、システムがライブ状態のときに発生する変化(デルタ)を説明します。インベントリまたはシステム状態が追加/削除/変更されると、そのアクティビティを記録する`InfrastructureEvent`が生成されます。このデータは[**イベント**UIページ](/docs/infrastructure/new-relic-infrastructure/infrastructure-ui-pages/infrastructure-events-page-live-feed-every-config-change)に表示されます。 + `InfrastructureEvent` は、システムがライブ状態のときに発生する変化(デルタ)を説明します。インベントリまたはシステム状態が追加/削除/変更されると、そのアクティビティを記録する`InfrastructureEvent`が生成されます。このデータは[**Events** UIページ](/docs/infrastructure/new-relic-infrastructure/infrastructure-ui-pages/infrastructure-events-page-live-feed-every-config-change)に表示されます。
- infrastructureモニタリングエージェント(Fluent Bit、Fluentd、Logstash、syslog/TCPなど)のソリューションを使用して、[OSからログを転送](#forward-infra)します。[infrastructureモニタリング用のガイド付きインストール](/docs/logs/forward-logs/forward-your-logs-using-infrastructure-agent)を、アプリとホストのログの軽量データコレクターとして使用します。 + infrastructureエージェント(Fluent Bit、Fluentd、Logstash、syslog/TCPなど)のソリューションを使用して、[OS からログを転送します](#forward-infra)。[infrastructureモニタリング用のガイド付きインストール](/docs/logs/forward-logs/forward-your-logs-using-infrastructure-agent)を、アプリとホストのログの軽量データコレクターとして使用します。
- 当社のエージェントとinfrastructureモニタリングエージェントを使用してください。アプリのAPMエージェントにより、[APM logs in context](/docs/apm/new-relic-apm/getting-started/get-started-logs-context)を使ってログデータをNew Relicに直接転送できるようになります。追加のサードパーティソフトウェアのインストールや保守は必要はありません。 + エージェントとinfrastructureエージェントを使用してください。アプリのAPMエージェントにより、[APM logs in context](/docs/apm/new-relic-apm/getting-started/get-started-logs-context)を使ってログデータをNew Relicに直接転送できるようになります。追加のサードパーティソフトウェアのインストールや保守は必要はありません。
- - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
- 要素 - - 詳細 -
- タイルバージョン - - 1.1.13 -
- 発売日 - - 2024 年 1 月 25 日 -
- ソフトウェアコンポーネントのバージョン - - New Relic .NET 拡張機能ビルドパック 1.1.13 -
- 互換性のある Ops Manager のバージョン - - 2.9.x、2.10.x、および 3.0.x -
- 互換性のある VMware Tanzu Application Service for VM のバージョン - - 2.10.x、2.11.x、2.12.x、2.13.x、3.0.x、4.0.x および 5.0.x -
- BOSH ステムセル バージョン - - Ubuntu ジャミー -
- IaaSのサポート - - AWS、GCP、Azure、vSphere -
- -## インストール [#install] - -VMware Tanzu 用 New Relic .NET Extension Buildpack は、Ops Manager のタイルを介してインストールできます。あるいは、 cf コマンドライン インターフェイス (CLI) コマンド`cf create-buildpack`を使用して、 `.Pivotal`ファイルを抽出し、個々の拡張機能ビルドパックをインストールすることもできます。 - -アプリの監視を開始したら、次のことを設定できます。 New Relic アラート サブシステムを使用して .NET エージェントによって収集されたメトリクスに基づきます。 - -New Relic .NET Extension Buildpack for VMware Tanzu は、タイル構成に応じて、次の 1 つ以上のビルドパックをインストールします (合計 8 つの拡張ビルドパック)。 - -* Ubuntu Jammy 1.\* スタック上で実行される .NET Core アプリケーション用の New Relic .NET Core 拡張ビルドパック。この拡張機能ビルドパックはキャッシュされません。 -* 切断された (分離された) VMware Tanzu デプロイメントの Ubuntu Jammy 1.\* で実行される .NET Core アプリケーション用の New Relic .NET Core 拡張機能キャッシュ ビルドパック。これは、外界へのアクセスがないエアギャップ環境をサポートするためのものです。 -* Windows 2019 スタック上で実行される .NET Framework アプリケーション用の 3 つの New Relic HWC 拡張ビルドパック。この拡張機能ビルドパックはキャッシュされません。 -* 切断された (分離された) VMware Tanzu デプロイメントの Windows 2019 スタック上で実行される .NET Framework アプリケーション用の 3 つの New Relic HWC 拡張キャッシュ ビルドパック。これは、外界へのアクセスがないエアギャップ環境をサポートするためのものです。 - -すべてのビルドパックは Cloud Foundry のマルチ ビルドパック アプローチを使用しており、標準の .NET Core ビルドパックまたは HWC ビルドパックを、アプリ マニフェストまたは`cf push`コマンド ラインのいずれかで、ビルドパック チェーンの最後のビルドパックとして指定する必要があります。 - - - .NET Core と .NET Framework の両方のこの拡張機能ビルドパックのキャッシュされたバージョンには、New Relic .NET Agents バージョンが含まれています `9.1.1` - - -## フィードバック [#feedback] - -機能リクエスト、質問、またはバグに関する情報がある場合は、 [github](https://github.com/newrelic/newrelic-dotnet-buildpack-tile/issues)で問題を送信してください。 \ No newline at end of file diff --git a/src/i18n/content/jp/docs/more-integrations/cloudfoundry-integrations/vmware-tanzu-firehose-nozzle-integration.mdx b/src/i18n/content/jp/docs/more-integrations/cloudfoundry-integrations/vmware-tanzu-firehose-nozzle-integration.mdx deleted file mode 100644 index 87e0cfa37de..00000000000 --- a/src/i18n/content/jp/docs/more-integrations/cloudfoundry-integrations/vmware-tanzu-firehose-nozzle-integration.mdx +++ /dev/null @@ -1,178 +0,0 @@ ---- -title: VMware Tanzu 用 New Relic ノズル -tags: - - Integrations - - Cloudfoundry - - Tanzu -metaDescription: Use our integration to gain increased visibility into the performance of your VMware Tanzu environment. -dataSource: vmware-tanzu -freshnessValidatedDate: '2023-11-13T00:00:00.000Z' -translationType: machine ---- - -import infrastructureVmwareTanzuDashboard from 'images/infrastructure_screenshot-crop_vmware-tanzu-dashboard.webp' - -import infrastructureVmwareTanzuAlertChart from 'images/infrastructure_screenshot-crop_vmware-tanzu-alert-chart.webp' - -[New Relic Nozzle for VMware Tanzu は、](https://network.pivotal.io/products/nr-firehose-nozzle) [Loggregator Firehose](https://docs.pivotal.io/pivotalcf/loggregator/index.html)を介して、VMware Tanzu Diego セル上で実行されるすべての VMware Tanzu コンポーネントとアプリケーションによって生成されたメトリクスとイベントを収集します。ノズルはリモート ログ プロキシ (RLP) ゲートウェイ経由でデータを収集し、処理と視覚化のために[New Relic](https://www.newrelic.com)にプッシュします。 - -newrelicone-dashboards-vmware-tanzu.png - -## 概要 [#overview] - -インストール後、ノズルは処理と視覚化のために Firehose イベントの収集と New Relic へのプッシュを開始します。New Relic は、Firehose イベント タイプに基づいてデータを整理し、各 Firehose イベント タイプを独自の個別のダッシュボードに表示します。 - -ノズルは、Ops Manager でタイルとしてインストールすることも、CLI コマンド cf push を使用して通常のアプリケーションとしてデプロイすることもできます。 その後、VMware Tanzu プログラムの健全性とパフォーマンスを監視し、VMware Tanzu Firehose から収集されたメトリックに基づいてを設定できます。 - -## 前提条件 [#prereqs] - -VMware Tanzu 用 New Relic Nozzle には次の要件があります。 - -* Pro または Pro Trial ライセンスを持つアクティブな New Relic アカウント。New Relic アカウントをまだお持ちでない場合は、 [14 日間の無料試用ライセンス](http://newrelic.com/signup?funnel=pivotal-cloud-foundry&partner=Pivotal+Cloud+Foundry)を取得できます。 -* New Relic Insights がライセンスに含まれています -* VMware Tanzu バージョン v2.10.x ~ v5.0.x。 - -## 主な特徴 [#key-features] - -次のような VMware Tanzu コンポーネントの健全性およびパフォーマンス データを監視できます。 - -* VMware Tanzu ドメイン -* VMware Tanzu の導入 -* Firehose イベントの種類 -* 起源 -* ジョブ -* コンポーネントのIPアドレス -* アプリケーションの詳細 -* コンテナ - -上記のいずれかのメトリクスの値のリストから項目を選択し、選択した値に基づいてダッシュボードをフィルタリングします。複数のメトリクスでダッシュボードをフィルタリングすることもできます。 - -## イベントフィルタリング [#event-filtering] - -多数のイベントが Firehose からストリーミングされる場合、Firehose によって生成された望ましくないイベントをフィルターで除外することが必要になる場合があります。Firehose イベント タイプ ( `ValueMetric` 、 `CounterEvent` 、 `ContainerMetric` 、 `HttpStartStop` 、 `LogMessage` ) のいずれかをキャプチャするためにノズルが必要な場合は、イベント タイプのカンマ区切りリストとしてイベント タイプを指定する必要があります。 `"Selected Events"`プロパティ。タイル設定の \[詳細設定] タブにあります。 - -ノズルのバージョン 2.X 以降、 `ContainerMetric` 、 `CounterEvent` 、および`ValueMetric`イベントが集約されます。イベントには、各メトリックの`min` 、 `max` 、 `sum` 、 `sample count` 、および`last`の値が含まれます。これにより、ノズルによって作成されるイベントの数が減りますが、各メトリック タイプの詳細は引き続き提供されます。必要に応じて、LogMessage イベントのサブセットを含めたり除外したりするように LogMessage フィルターを構成します。 - -必要に応じて、LogMessage イベントのサブセットを含めるか除外するように`LogMessage Filters`を構成します。 - -## フィルターの例 [#filter-examples] - -* **LogMessage Source Include Filter** - - : このコンマまたはパイプで区切られたリストにソースが記載されているログメッセージのイベントのみを生成します。 - -* **LogMessage Source Exclude Filter** - - : このコンマまたはパイプで区切られたリストにソースが記載されているログメッセージのイベントを生成しません。 - -* **LogMessage Message Include Filter** - - : このコンマまたはパイプで区切られたリストにリストされているテキストを含むログメッセージのイベントのみを生成します。 - -* **LogMessage Message Exclude Filter** - - : このコンマまたはパイプで区切られたリストにリストされているテキストを含むログメッセージのイベントを生成しません。 - -複数の LogMessage フィルターを組み合わせて、イベントの作成を制限できます。包含フィルターは除外フィルターの前に処理されます。 - - - **Note**: ノズルをアプリケーションとして実行する場合、アプリケーション マニフェスト ファイルで上記の環境変数を使用できます。 - - -## 製品のスナップショット [#product-snapshot] - -次の表に、New Relic Nozzle for VMware Tanzu のバージョンとバージョン サポート情報を示します。 - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
- 要素 - - 詳細 -
- タイルバージョン - - 2.9.0 -
- 発売日 - - 2023 年 11 月 14 日 -
- ソフトウェアコンポーネントのバージョン - - New Relic Nozzle v2.9.0 -
- 互換性のある Ops Manager のバージョン - - v2.9.x、v2.10.x、および v3.0.x -
- 互換性のある VMware Tanzu Application Service for VM のバージョン - - v2.10.x、v2.11.x、v2.12.x、v2.13.x、v3.0.x、v4.0.x、および v5.0.x -
- BOSH ステムセル バージョン - - Ubuntu ジャミー -
- IaaSのサポート - - AWS、GCP、Azure、vSphere -
- -## フィードバック [#feedback] - -機能リクエスト、質問、またはバグに関する情報がある場合は、 [github](https://github.com/newrelic/newrelic-pcf-nozzle-tile/issues)で問題を送信してください。 \ No newline at end of file diff --git a/src/i18n/content/jp/docs/more-integrations/cloudfoundry-integrations/vmware-tanzu-service-broker-integration.mdx b/src/i18n/content/jp/docs/more-integrations/cloudfoundry-integrations/vmware-tanzu-service-broker-integration.mdx deleted file mode 100644 index 537a19a3eb0..00000000000 --- a/src/i18n/content/jp/docs/more-integrations/cloudfoundry-integrations/vmware-tanzu-service-broker-integration.mdx +++ /dev/null @@ -1,445 +0,0 @@ ---- -title: VMware Tanzu 用 New Relic サービス ブローカー -tags: - - Integrations - - Cloudfoundry - - Tanzu -metaDescription: Use our integration to gain increased visibility into the performance of your VMware Tanzu environment. -freshnessValidatedDate: never -translationType: machine ---- - -import infrastructureVmwareTanzuImport from 'images/vmware-service-broker-import.webp' - -import infrastructureVmwareTanzuImport2 from 'images/vmware-service-broker-import-2.webp' - -import infrastructureVmwareTanzuImport3 from 'images/vmware-service-broker-import-3.webp' - -import infrastructureVmwareTanzuImport4 from 'images/vmware-service-broker-import-4.webp' - -import infrastructureVmwareTanzuImport5 from 'images/vmware-service-broker-import-5.webp' - -import infrastructureVmwareTanzuImport6 from 'images/vmware-service-broker-import-6.webp' - -import infrastructureVmwareTanzuImport7 from 'images/vmware-service-broker-import-7.webp' - -import infrastructureVmwareTanzuImport8 from 'images/vmware-service-broker-import-8.webp' - -import infrastructureVmwareTanzuImport9 from 'images/vmware-service-broker-import-9.webp' - -import infrastructureVmwareTanzuImport10 from 'images/vmware-service-broker-import-10.webp' - -import infrastructureVmwareTanzuImport11 from 'images/vmware-service-broker-import-11.webp' - -import infrastructureVmwareTanzuImport12 from 'images/vmware-service-broker-import-12.webp' - -import infrastructureVmwareTanzuImport13 from 'images/vmware-service-broker-import-13.webp' - -import infrastructureVmwareTanzuImport14 from 'images/vmware-service-broker-import-14.webp' - -import infrastructureVmwareTanzuImport15 from 'images/vmware-service-broker-import-15.webp' - -import infrastructureVmwareTanzuImport16 from 'images/vmware-service-broker-import-16.webp' - -import infrastructureVmwareTanzuImport17 from 'images/vmware-service-broker-import-17.webp' - -import infrastructureVmwareTanzuImport18 from 'images/vmware-service-broker-import-18.webp' - -New Relic Service Broker for VMware Tanzu を使用すると、1 つ以上の New Relic アカウントを使用できるようになり、VMware Tanzu 上に Java アプリとしてデプロイされます。サービス ブローカーを使用すると、Cloud Foundry アプリがサービスにバインドし、Apps Manager またはコマンド ラインから簡単にサービスを利用できるようになります。 - -## 使い方 [#works] - -ブローカーは New Relic サービスを Marketplace に公開し、ユーザーがサービス インスタンスを直接作成し、Apps Manager またはコマンド ラインからアプリにバインドできるようにします。 - -New Relic Service Broker for VMware Tanzu タイルは、New Relic Service Broker をアプリとしてインストールし、VMware Tanzu 上のサービス ブローカーとして登録し、そのサービス プランをマーケットプレイスに公開します。各サービス プランは、タイルのセットアップ中に構成される既存の New Relic アカウントに関連付けられます。 - -プランを選択すると、アプリが New Relic エージェントにバインドされ、エージェントは選択したプランに関連付けられている New Relic アカウントへのレポートを開始します。これにより、VMware Tanzu アプリでの New Relic のインストールとその後の使用がより簡単かつ簡単になります。 - -## 前提条件 [#prereqs] - -VMware Tanzu 用 New Relic Nozzle には次の要件があります。 - -* サービスブローカー v1.12.18 以降 -* v1.12.12 以前のサービス ブローカーの場合、プランの一意の GUID は異なる方法で計算されました。これらのプランで互換性が損なわれないようにするには、GUID が以前と同じである必要があります。移行スクリプトは、v1.12.12 以前のプラン コレクション内の既存のプランのプラン GUID を保存します。 - - - v1.12.12 以前のサービス ブローカーに関連付けられていた元のライセンス キーを変更した場合は、プラン GUID をオーバーライドする必要があります。Cloud Controller から元のプランの GUID を取得するには、次のスクリプトを実行します。 - - ```shell - cf curl $(cf curl /v2/services?q=label:newrelic | grep “service_plans_url” | - - awk ‘{print $2}’ | sed ‘s/[",]//g’) | egrep “"name":|"unique_id":” | - - sed ‘s/[",]//g’ | tr -s " " | awk ’ {name=$0; getline; printf(\t%-40s %-40s \n”,name,$0)}’ - ``` - - 1.12.12 プランより前のラベルが付いた 2 つの新しいプロパティがありますか?タイル構成内の各プランのプラン コレクション内のプラン ガイド オーバーライド (ブローカー 1.12.12 以降)。これらのプロパティは必要に応じて内部で設定されるため、どちらも変更しないでください。 - - * New Relic Service Broker v1.12.13 以降では、1.12.12 より前のプランのチェックを外し、プラン GUID オーバーライドを空白のままにします。 - * このタイルは、Ops Manager v2.9.x、v2.10.x、および v3.0.x でサポートされています。 - * これらのバージョンのいずれかにタイルをインストールし、v1.9.x から v3.x までの任意の Ops Manager バージョンにアップグレードできます。 - * v1.9.0 より古いバージョンはサポートされていないため、古いバージョンのタイルにはアップグレード パスは必要ありません。 - * v1.12.6 以降のタイルは、古いバージョンのタイルからの移行をサポートし、既存のサービスとサービス プランを保持します。 - * v1.11.4 より古いタイルを使用している場合は、最初に v1.11.4 にアップグレードする必要があります。次に v1.12.9、次にタイルの最新バージョンに進みます。 - - -次の表に、VMware Tanzu のサービス ブローカーのバージョンとバージョン サポート情報を示します。 - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
- 要素 - - 詳細 -
- バージョン - - 1.12.34 -
- 発売日 - - 2024 年 1 月 25 日 -
- ソフトウェアコンポーネントのバージョン - - New Relic サービス ブローカー 1.12.34 -
- 互換性のある Ops Manager のバージョン - - 2.9.x、2.10.x、および 3.x -
- 互換性のある VMware Tanzu Application Service for VM のバージョン - - 2.10.x、2.11.x、2.12.x、2.13.x、3.x、4.x、および 5.x -
- BOSH ステムセル バージョン - - Ubuntu ジャミー -
- IaaSのサポート - - AWS、GCP、Azure、vSphere -
- -現在のタイルは、タイルのデフォルトのセキュリティ設定から`all_open`セキュリティ グループを削除します。以前のバージョンのタイルを使用している場合は、アプリケーション セキュリティ グループ (ASG) 設定から`all_open`セキュリティ グループを削除して、VMware Tanzu 環境の安全性を高めます。新しいバージョンのタイルはセキュリティを開きません。また、セキュリティがすでに開いている場合は閉じません。 - -## Ops Manager を介してインストールする [#install-ops] - -New Relic Service Broker for VMware Tanzu タイルをダウンロードして VMware Tanzu Ops Manager にインストールするには、次の手順を実行します。 - -1. Pivotal Network から製品ファイルをダウンロードします。 - -2. 製品ファイルを Ops Manager インストールにインポートします。 - -3. この製品をステージング領域に追加するには、Ops Manager の左側のナビゲーション ビューでアップロードされた製品の説明の - - **+** - - 記号または - - **Add next** - - クリックします。 - -4. 新しく追加されたタイルをクリックし、構成可能なオプションを確認します。 - -5. **Apply Changes** - - をクリックします。 - -## タイルを構成する [#configure-tile] - -1. Ops Manager にログインします。 - -2. **Import a Product**をクリックして、New Relic Service Broker for VMware Tanzu タイルをインポートします。 - - vmware-service-broker-import.png - -3. アップロードした「New Relic Service Broker」の右側にある**+**ボタンをクリックします。 - - vmware-service-broker-import-2.png - -4. New Relic タイルを選択します。 - - vmware-service-broker-import-3.png - -5. アベイラビリティーゾーンとネットワークを構成します。 - - vmware-service-broker-import-4.png - -6. Service Broker のグローバル アクセスを構成します。すべてのサービス プランに対してグローバル アクセスを有効にしておく (デフォルト) ことも、グローバル アクセスを無効にすることもできます。追加するサービスプランごとに 1 つ以上の組織の設定を通じてアクセスを許可できます。 - - vmware-service-broker-import-5.png - -7. New Relic サービス ブローカーを構成します。新しいサービス プランを作成するには、\[サービス プラン] 画面で \[追加] をクリックします。 - - vmware-service-broker-import-6.png - -8. New Relic ライセンス キーを使用してサービス プランを作成します。 - - * サービス プランの名前を入力します (スペースは含まれません)。 - * プランの説明を入力します。 - * New Relic アカウントにログインし、ページの右上隅にあるドロップダウン メニューから \[アカウント設定] ページに移動します。New Relic アカウントからライセンス キーをコピーし、ここに貼り付けます。 - - vmware-service-broker-import-7.png - - * New Relic Service Broker 1.12.12 以前からアップグレードする場合は、このドキュメントのアップグレード セクションの手順に従って、「1.12.12 より前のプラン」フラグをチェックし、1.12.12 より前のプラン GUID を入力してください。 - * New Relic Firehose Nozzle を実行していて、各アプリケーションのデータを別の New Relic アカウント (New Relic の中央の Firehose Nozzle アカウントではなく) にルーティングしたい場合は、ここにターゲットの New Relic アカウントと Insights Insert Key を入力します。 - * 前の手順で \[グローバル アクセス] をオフにした場合は、組織のカンマ区切りのリストを入力して、システムが組織のサービス アクセスを有効にし、ユーザーがこのプランのサービス インスタンスを作成できるようにする必要があります。 - -vmware-service-broker-import-8.png - -9. ページ上部のボタンを選択して移動します `INSTALLATION DASHBOARD` - - vmware-service-broker-import-9.png - -10. 変更を適用します。 - - * 右上の青いボタンをクリックします。 - * プロセスを高速化するには、\[すべての製品を選択] チェックボックスをオフにし、New Relic Service Broker タイルに変更を適用することを選択します。 - - vmware-service-broker-import-10.png - -11. インストールが完了したら、Apps Manager で Services Marketplace を確認してください。New Relic タイルを選択します。 - - vmware-service-broker-import-11.png - -12. New Relic サービス プランを表示し、目的のプランを選択します。 - - vmware-service-broker-import-12.png - -13. サービスインスタンス名を入力し、「作成」ボタンをクリックするとサービスインスタンスが作成されます。 - - vmware-service-broker-import-13.png - -14. サービスプランが作成されました。 - - vmware-service-broker-import-14.png - -15. New Relic サービスをアプリにバインドします。 - - * アプリマネージャーでアプリケーションに移動します。 - - vmware-service-broker-import-15.png - - * 「サービス」タブを選択します。 - - * 「BIND SERVICE」ボタンをクリックし、作成したばかりのサービス・インスタンスを選択します。 - - vmware-service-broker-import-16.png - - * 右下のBINDボタンをクリックします。 - - vmware-service-broker-import-17.png - -16. アプリケーションを再ステージングします。 **Bind**ページの上部にあるリンクを選択するか、ターミナル ウィンドウで`cf restage`を実行して変更を加えることができます。 - - vmware-service-broker-import-18.png - - ```shell - cf restage APPNAME - ``` - -New Relic にログインしてモニタリング データを表示します。 - -## HTTPプロキシを使用した構成 [#configure-http] - -VMware Tanzu 環境が外部送信通信に HTTP または HTTPS プロキシを使用する必要がある場合、サービス ブローカー自体は、ライセンス キーをコンシューマ アプリに中継するため、HTTP プロキシについて何も知る必要はありません。コンシューマ アプリは、エージェントが非 Java アプリと外部通信できるように環境変数として`http\_proxy`または`https\_proxy`を指定し、Java アプリには`JAVA_OPTS`を使用する必要があります。さらに、Java 言語アプリのプロキシを介してコントローラーと通信するには、New Relic Agent を独自のパラメーター セット`(-Dnewrelic.config.\*)`で構成する必要があります。 - -New Relic 非 Java アプリ エージェントがプロキシを使用してコントローラーと通信するために`http_proxy`を使用するように指定するには、次のコマンドを実行します。 - -```shell -cf set-env APPNAME http_proxy 'http://user:password@proxy-server.customer.example.com:8080' -cf set-env APPNAME https_proxy 'http://user:password@proxy-server.customer.example.com:8080' -``` - -New Relic Java エージェントがプロキシを使用してコントローラーと通信するために`JAVA_OPTS`を使用するように指定するには、次のコマンドを実行します。 - -```shell -cf set-env APPNAME JAVA_OPTS " -Dtest.value=barbar - -Dnewrelic.config.proxy_host=proxy.customer.example.com - -Dnewrelic.config.proxy_port=8080 -``` - -Java アプリもプロキシ経由で通信する必要がある場合は、次のコマンドを使用して、New Relic エージェントのプロキシ設定に加えて Java プロキシ設定を追加します。 - -```shell -cf set-env APPNAME JAVA_OPTS " -Dtest.value=barbar - -Dnewrelic.config.proxy_host=proxy.customer.example.com - -Dnewrelic.config.proxy_port=8080 - -Dhttp.proxyHost=proxy.customer.example.com-Dhttp.proxyPort=8080 - -Dhttps.proxyHost=proxy.customer.example.com -Dhttps.proxyPort=8080 -``` - -プロキシを使用してアウトバウンド通信する必要がある非 Java アプリの場合は、次のコマンドを実行します。 - -```shell -cf set-env APPNAME http_proxy http://user@password:myproxy....:8080/ -cf set-env APPNAME https_proxy https://user@password:myproxy....:8080/ -``` - -Cloud Foundry 環境変数を変更する場合は、変更を有効にするためにアプリを再ステージングする必要があります。 - -```shell -cf restage APPNAME -``` - -これらの環境変数は、アプリごとに個別に設定することも、Cloud Foundry コマンド ライン インターフェイス (cf CLI) ツールを使用して、ステージング環境や実行環境などの一部としてすべてのアプリに設定される環境変数グループを設定することもできます。 - -## 環境変数グループ [#variable-groups] - -* `running-environment-variable-group/revg`: 実行中の環境変数グループの内容を取得します。 -* `staging-environment-variable-group/sevg`: ステージング環境変数グループの内容を取得します -* `set-staging-environment-variable-group/ssevg`: パラメーターを JSON として渡してステージング環境変数グループを作成します -* `set-running-environment-variable-group/srevg`: パラメーターを JSON として渡して実行環境変数グループを作成します - -`JAVA\_OPTS`環境変数を使用してステージング環境グループ内の New Relic Agent 固有の環境変数を指定すると、Java ビルドパックがそれを使用して正しい場所にプッシュできるようになります。ランタイム環境変数グループに JAVA_OPTS を指定しても、ビルドパックはそれを認識しないため、何も生成されません。 - -例えば: - -```shell -cf ssevg '{ "JAVA_OPTS" : " -Dtest.value=barbar - -Dnewrelic.config.proxy_host=proxy.customer.example.com - -Dnewrelic.config.proxy_port=8080 -Dhttp.proxyHost=proxy.customer.example.com - -Dhttp.proxyPort=8080 -Dhttps.proxyHost=proxy.customer.example.com - -Dhttps.proxyPort=8080 -Dspring.profiles.active=dev - -Dnewrelic.config.log_level=finer - -Djavax.net.debug=all ", "test_env_profile" : "Staging" }' -``` - -詳細については、 [「構成設定の優先順位」](https://docs.newrelic.com/docs/agents/java-agent/configuration/java-agent-configuration-config-file#config-options-precedence)を参照してください。 - -## オフライン ビルドパックのパッケージの依存関係 [#product-dependencies] - -オフライン (切断された) 環境で VMware Tanzu を実行している場合は、VMware Tanzu 環境でオフライン ビルドパックを使用して、New Relic エージェントのバイナリを含む依存関係を再作成してパッケージ化する必要があります。 - -詳細については、 [「オフライン ビルドパックの依存関係のパッケージ化」](https://docs.cloudfoundry.org/buildpacks/depend-pkg-offline.html)を参照してください。 - -## フィードバック [#feedback] - -機能リクエスト、質問、またはバグに関する情報がある場合は、 [github](https://github.com/newrelic/newrelic-service-broker-tile/issues)で問題を送信してください。 \ No newline at end of file diff --git a/src/i18n/content/jp/docs/more-integrations/grafana-integrations/get-started/grafana-support-prometheus-promql.mdx b/src/i18n/content/jp/docs/more-integrations/grafana-integrations/get-started/grafana-support-prometheus-promql.mdx deleted file mode 100644 index d3578ca9686..00000000000 --- a/src/i18n/content/jp/docs/more-integrations/grafana-integrations/get-started/grafana-support-prometheus-promql.mdx +++ /dev/null @@ -1,45 +0,0 @@ ---- -title: GrafanaによるPrometheusとPromQLのサポート -tags: - - Integrations - - Grafana integrations - - Get started -metaDescription: Read about about how you can use New Relic within Grafana and our options for Prometheus and Prom QL support. -freshnessValidatedDate: never -translationType: machine ---- - -Grafanaは、PrometheusデータソースとしてNew Relicを設定できます。それだけではなく、Grafana内で、[PromQLクエリ言語](/docs/integrations/prometheus-integrations/view-query-data/supported-promql-features)を使用して、New Relicに保存されたメトリクスをクエリできます。 - -## New Relicで既存のGrafanaダッシュボードを使用する [#Grafana-dashboards] - -[リモート書き込み](/docs/integrations/prometheus-integrations/get-started/monitor-prometheus-new-relic#remote-write)、[Prometheusエージェント](/docs/integrations/prometheus-integrations/get-started/monitor-prometheus-new-relic#agent)または[OpenMetricsインテグレーション](/docs/integrations/prometheus-integrations/get-started/monitor-prometheus-new-relic#OpenMetric)(2.0+)で、New RelicとPrometheusメトリクスを統合し、New RelicをGrafanaでPrometheusデータソースとして設定すると、既存のGrafanaを使用し、当社が提供する追加のモニタリング、信頼性、スケールをシームレスに使用できます。 - -## 互換性と要件 [#compat-requirements] - -始める前に、Prometheusメトリクスのインテグレーションを完了しており、十分に新しいバージョンのGrafanaを実行していることを確認します。 - -* GrafanaでNew Relic Prometheusデータソースを設定する前に、[リモート書込み](/docs/integrations/prometheus-integrations/get-started/monitor-prometheus-new-relic#remote-write)、[Prometheusエージェント](/docs/integrations/prometheus-integrations/get-started/monitor-prometheus-new-relic#agent)または[OpenMetricsインテグレーション](/docs/integrations/prometheus-integrations/get-started/monitor-prometheus-new-relic#OpenMetrics)(2.0+)を設定する必要があります。 -* Grafanaバージョン6.7.0以上でこの方法を使用する場合は、New Relic Prometheusデータソースの設定しかできません。UIでカスタムヘッダーを設定する必要がありますが、これは旧バージョンではできません。詳細については、[New RelicをGrafanaのPrometheusデータソースとして設定する](/docs/integrations/grafana-integrations/set-configure/configure-new-relic-prometheus-data-source-grafana)を参照してください。 - -### PromQLのサポート - -Prometheus APIは、PrometheusのクエリAPIを模倣します。当社は、PromQLスタイルクエリモードで、Prometheusクエリ言語(PromQL)をサポートしています。PromQL構文を最も近いNRQL近似に自動的に移行するよう努めています。 - -動作方法とPrometheusとNew Relicの違いの詳細については、[サポートされているPromQL機能](/docs/integrations/prometheus-integrations/view-query-data/supported-promql-features)を参照してください。 - -## Grafanaでデータフローを取得する [#get-data] - -New RelicデータをGrafanaで使用できるようにするため、次の簡単なステップで、新規または既存のPrometheusデータソースを設定できます。 - -1. Grafana UIに追加し、[新しいデータソースを設定します](/docs/integrations/grafana-integrations/set-configure/configure-new-relic-prometheus-data-source-grafana)。 -2. 新しいデータソースを保存し、データの表示を開始します。 - -## 次のステップ [#whats-next] - -Grafanaデータソースの設定の準備が整ったら - -* [Prometheusリモート書込みインテグレーション](/docs/integrations/prometheus-integrations/install-configure/set-your-prometheus-remote-write-integration)、[Prometheusエージェント](/docs/infrastructure/prometheus-integrations/install-configure-prometheus-agent/setup-prometheus-agent)または[Prometheus OpenMetricsインテグレーション](/docs/integrations/prometheus-integrations/install-configure/install-update-or-uninstall-your-prometheus-openmetrics-integration)の設定方法についてのドキュメントをお読みください。 -* [GrafanaでのPrometheusデータソース設定](/docs/integrations/grafana-integrations/set-configure/configure-new-relic-prometheus-data-source-grafana)の方法についてのドキュメントをお読みください。 - - \ No newline at end of file diff --git a/src/i18n/content/jp/docs/more-integrations/grafana-integrations/set-configure/configure-new-relic-prometheus-data-source-grafana.mdx b/src/i18n/content/jp/docs/more-integrations/grafana-integrations/set-configure/configure-new-relic-prometheus-data-source-grafana.mdx deleted file mode 100644 index de610116043..00000000000 --- a/src/i18n/content/jp/docs/more-integrations/grafana-integrations/set-configure/configure-new-relic-prometheus-data-source-grafana.mdx +++ /dev/null @@ -1,134 +0,0 @@ ---- -title: New RelicをGrafanaのPrometheusデータソースとして設定する -tags: - - Integrations - - Grafana integrations - - Set up and configure -metaDescription: How to configure New Relic as a Prometheus data source for Grafana -freshnessValidatedDate: never -translationType: machine ---- - -import moreintegrationsGrafanaDataSourceConfig from 'images/more-integrations_screenshot-crop_grafana-data-source-config.webp' - -[Grafana](https://grafana.com/docs/grafana/latest/features/datasources/prometheus/)で[Prometheusデータソース](https://grafana.com/login)を設定し、[PromQLスタイルクエリ言語](/docs/integrations/prometheus-integrations/view-query-data/supported-promql-features)を使用して、New Relicデータベース(NRDB)に保存されたデータをクエリできます。 - -## Prometheusデータソースを追加する [#create-update] - -これらのステップに従い、GrafanaのPrometheusデータソースとしてNew Relicを追加します。以下では、Grafanaバージョン6.7以上で作業する際にプロセスを完了する方法を詳細に説明します。 - - - 設定プロセスを開始する前に、[Prometheusリモート書込みインテグレーションプロセスを完了](/docs/integrations/prometheus-integrations/install-configure/set-your-prometheus-remote-write-integration)する必要があります。 - - -1. New Relicで、[インサイトクエリキーを新規作成します](/docs/apis/intro-apis/new-relic-api-keys/#insights-query-key)。 - - - 注: Grafanaで、このキーをカスタム**X-Query-Key** HTTPヘッダーに入れる必要がありますが(以下のステップ7を参照)、これはNew Relicクエリキーと同じエンティティです。 - - -2. [Grafana](https://grafana.com/login)の**ホーム**画面から、**設定 > データソース**と進み、**データソースの追加**をクリックします。 - -3. **時系列データベース**オプションの**データソースの追加**画面から、**Prometheus**を選択します。 - -4. 新しいPrometheusデータソースに使用する**名前**を入力します。 - -5. トグルをPrometheusクエリのデフォルトデータソースにするかどうかに応じて、オンまたはオフに**デフォルト**のトグルを設定します。 - - * オフ:デフォルトのデータソースにしない - * オン:デフォルトのデータソースにする - -6. 正しい**URL**を入力します。 - - * 米国: [prometheus-api.newrelic.com](https://prometheus-api.newrelic.com) - * EU: [prometheus-api.eu.newrelic.com](https://prometheus-api.eu.newrelic.com) - -7. **カスタムヘッダー**で、**ヘッダーを追加**を選択します。**ヘッダー**名を**X-Query-Key** に設定します。**値**には、ステップ1で作成したクエリキーを入力します。 - -8. **保存とテスト**をクリックします。 - - - グラフが、接続された線ではなく、ドットのグループとして表示される場合は、グラフスタイルを変更して代わりに線を表示できます。そうする場合は、Grafanaの **[グラフパネル](https://grafana.com/docs/grafana/latest/panels/visualizations/graph-panel/)**に移動し、 **スタッキングおよびnull値 > 接続**の順に選択します。 - - - - - Screen capture of the add data source workflow in Grafana - -
- [dbarnesbrown.newrelic.com](/users/dbarnesbrownnewreliccom)によるGrafanaデータソースConfig.webp -
-
-
- - - -## バージョン管理の考慮事項 - -New Relicでは、バージョン6.7.x以上を使用し、PrometheusデータソースとしてNew Relicを設定することを強く推奨しています。旧バージョンを実行して設定を完了することを選択する場合は、次のいずれかを実行してデータソースを正常に設定する必要があります。 - -* 基本的な認証を使用するよう新しいデータソースを設定してしてから、基本的な認証ワークフローのパスワードとしてクエリキーを入力します。 -* クエリキーを含めるよう、新規データソースURLを設定します: `` https://prometheus-api.newrelic.com/auth/`` `` - -## Prometheus APIの動作をカスタマイズする [#customize-API] - -[リモート書込みインテグレーション](/docs/integrations/prometheus-integrations/install-configure/set-your-prometheus-remote-write-integration)を使用して、複数のPrometheusサーバーをNew Relicに接続している場合は、ヘッダーは特に重要です。カスタマイズの詳細は、次のとおりです。 - - - - New Relicで認証し、メトリクスを含むアカウントを特定するには、[クエリキー](/docs/apis/get-started/intro-apis/types-new-relic-api-keys#x-query-key)パラメーターが必要です。Grafanaでは、これは**X-クエリキー**と呼ばれますが、New Relic UIでは、**クエリキー**として表示されます。 - - 詳細 - - * 必須 - * 認証に使用するAPIクエリキー - * Prometheusリモート書込みインテグレーションを使用している場合、X-クエリキーは、リモート書込みの統合に使用したX-ライセンスキーと同じアカウントに対応している必要があります。 - - - - - Grafanaの自動完了サポートでは、Prometheus命名規則に厳格に従えないメトリクスは扱いません。New Relicでは、このパラメーターに従わないメトリクスを含めないことを推奨しています。 - - - 詳細 - - * オプション - * APIによりさらされるメトリクスを、Prometheusからのメトリクスに制限します - * デフォルト = 指定されていない場合はtrue - - - - このパラメーターは、複数のPrometheusサーバーからメトリクスを収集している場合に有用です。たとえば、Grafanaを使用している場合、New Relicに接続している各Prometheusサーバーのデータソースを作成してから、すべてのPrometheusサーバーでのクエリに使用できる別のデータソースを作成できます。 - - 詳細 - - * オプション - * APIによりさらされるメトリクスを、指定したPrometheusサーバーから収集したメトリクスに制限します - * この値は、PrometheusサーバーをNew Relicに接続する際に使用したリモート書込みURLの`prometheus_server` URLパラメーターと一致する必要があります - * デフォルトで、すべてのサーバーから収集したメトリクスを返します - - - -## Prometheusデータソースを削除する [#delete] - -Grafanaでデータソースを削除する場合は、以下の手順に従います。 - -1. **設定 > データソース**の順に移動します。 -2. 削除するデータソースをクリックします。 -3. ページの下部にある**削除**ボタンをクリックします。 \ No newline at end of file diff --git a/src/i18n/content/jp/docs/more-integrations/java-integrations/vertx-eventbus-integration.mdx b/src/i18n/content/jp/docs/more-integrations/java-integrations/vertx-eventbus-integration.mdx deleted file mode 100644 index 988591882c3..00000000000 --- a/src/i18n/content/jp/docs/more-integrations/java-integrations/vertx-eventbus-integration.mdx +++ /dev/null @@ -1,164 +0,0 @@ ---- -title: Java Vert.x イベント バスインテグレーション -tags: - - nrlabs - - nrlabs-data - - apm - - java - - vertx - - vert.x - - eventbus - - expert services -metaDescription: Provides instrumentation for monitoring the Vert.x Event Bus. -freshnessValidatedDate: never -translationType: machine ---- - -[Java Vert.x イベント バス インテグレーションは、](https://github.com/newrelic/newrelic-java-vertx/tree/main)監視 (Vert.x)\[https://vertx.io/] のインストゥルメンテーションを提供します イベント バス。バス全体のイベント フローを追跡できます。 Vert.x専用に設計 `AbstractVerticle`を拡張する頂点では、この拡張により各デプロイ クラスがインストゥルメントされ、 `AbstractVerticle`で明示的に定義されているメソッドを除くすべてのメソッドが監視されます。 - -## サポート対象のメソッド - -インテグレーションはメトリックを追跡または除外します。 それぞれのリストは次のとおりです。 - -追跡されたメソッド: - -* イベントフローの追跡を容易にする方法 -* アプリケーションの動作とパフォーマンスの可視性を高める方法。 - -除外される方法: - -* 特定のライフサイクルと設定方法 ( `start` 、 `stop` 、 `rxStart` 、 `rxStop` 、 `config` 、 `deploymentID` 、 `getVertx` 、 `init` 、 `processArgs` ) - -## Javaエージェントのインストール - -Java Vert.x 拡張機能を構成するには、Java APM エージェントをインストールする必要があります。 指示に従って[Java APM エージェントをインストールします](https://docs.newrelic.com/install/java/)。 - -Java APM エージェントがアプリケーションにインストールされ、構成されたら、 `newrelic`ディレクトリの下に`extensions`フォルダがまだ存在しない場合は作成します。 - -```bash -# Open your Java APM Agent installation location and create 'extensions' folder ( if it is not existing) -cd path/to/newrelic -mkdir extensions -``` - -## Java Vert.x をインストールして設定する イベント バスインテグレーション [#install] - - - - - カール - - - - パワーシェル - - - - ウェブ - - - - - - Java Vert.xをインストールして設定するには イベント バス インテグレーションでは、次の手順に従ってください。 - - * 提供された bash スクリプトで Java APM エージェントの`extensions`フォルダーの場所を更新します。 - * 更新されたコマンドを bash スクリプト`install_vertx_integration.sh`にコピーします。 - * スクリプトを実行してJava Vert.xを統合する New Relic APM によるイベント バスの監視。 - - ```sh - #!/bin/bash - - # Define variables - apiUrl="https://api.github.com/repos/newrelic/newrelic-java-vertx/releases/latest" - tempZipPath="/tmp/latest.zip" - tempExtractPath="/tmp/Extracted" - extensionsDir="/path/to/newrelic/extensions" - - # Retrieve the download URL for the latest release ZIP file - downloadUrl=$(curl -s "$apiUrl" | grep -o "browser_download_url.*\.zip" | cut -d '"' -f 3) - - echo $downloadUrl - - # Check if the download URL is empty or invalid - if [ -z "$downloadUrl" ]; then - echo "Failed to retrieve download URL. Exiting." - exit 1 - fi - - # Download the latest release ZIP file - curl -L -o "$tempZipPath" "$downloadUrl" - - # Check if the ZIP file was downloaded successfully - if [ ! -f "$tempZipPath" ]; then - echo "Failed to download the ZIP file. Exiting." - exit 1 - fi - - # Create a temporary extraction folder - mkdir -p "$tempExtractPath" - - # Extract the contents of the ZIP file to the temporary folder - unzip -q "$tempZipPath" -d "$tempExtractPath" - - # Check if the extraction was successful - if [ $? -ne 0 ]; then - echo "Failed to extract the ZIP file. Exiting." - exit 1 - fi - - # Copy all .jar files to the Java APM Agent 'extensions' directory - find "$tempExtractPath" -name "*.jar" -exec cp {} "$extensionsDir" \; - - # Clean up temporary files - rm "$tempZipPath" - rm -r "$tempExtractPath" - - echo "Installation completed successfully." - ``` - - - - Java Vert.xをインストールして設定するには イベント バス インテグレーションでは、次の手順に従ってください。 - - * 提供された PowerShell コマンドで、Java APM エージェントの「extensions」フォルダーの場所を更新します。 - - ```sh - # Define variables - $apiUrl = "https://api.github.com/repos/newrelic/newrelic-java-vertx/releases/latest" - $tempZipPath = "C:\Temp\latest.zip" - $tempExtractPath = "C:\Temp\Extracted" - $extensionsDir = "C:\Path\To\newrelic\extensions" - - # Download the latest release ZIP file from GitHub - $response = Invoke-WebRequest -Uri $apiUrl - $downloadUrl = ($response.Content | ConvertFrom-Json).assets[0].browser_download_url - Invoke-WebRequest -Uri $downloadUrl -OutFile $tempZipPath - - # Extract the contents of the ZIP file to a temporary folder - New-Item -ItemType Directory -Path $tempExtractPath -Force - Expand-Archive -Path $tempZipPath -DestinationPath $tempExtractPath - - # Copy all .jar files to the Java APM Agent 'extensions' directory - Get-ChildItem -Path $tempExtractPath -Filter "*.jar" | Copy-Item -Destination $extensionsDir - - # Clean up temporary files - Remove-Item -Path $tempZipPath -Force - Remove-Item -Path $tempExtractPath -Recurse -Force - - ``` - - - - [Java Vert.x イベント バス インテグレーション リリース](https://github.com/newrelic/newrelic-java-vertx/releases/)から、 `vertx-instrumentation-vx.y.z.zip`を一時ディレクトリにダウンロードして解凍します。 すべての「jar」ファイルをNew Relic Java APMエージェントの「extensions」フォルダーにコピーします。 - - - - -## インテグレーションを確認する - -Java Vert.xを設定した後 イベントバスインテグレーションでは、アプリケーションのVert.xを視覚化できます イベント バスのトランザクションとトレースを New Relic APM およびサービス内で直接実行します。 - -## インテグレーションの問題の報告 - -Java Vert.xで問題が発生した場合 イベント Bus インテグレーションについては、 [GitHub リポジトリ](https://github.com/newrelic/newrelic-java-vertx/issues)に報告してください。 皆様からのフィードバックは、問題を迅速に特定して対処するのに役立ち、Vert.xのスムーズで信頼性の高い監視エクスペリエンスを保証します。 アプリケーション。 弊社インテグレーションの向上にご協力いただき誠にありがとうございます。 \ No newline at end of file diff --git a/src/i18n/content/jp/docs/more-integrations/java-integrations/vertx-extensions-integration.mdx b/src/i18n/content/jp/docs/more-integrations/java-integrations/vertx-extensions-integration.mdx deleted file mode 100644 index aced5507a54..00000000000 --- a/src/i18n/content/jp/docs/more-integrations/java-integrations/vertx-extensions-integration.mdx +++ /dev/null @@ -1,163 +0,0 @@ ---- -title: Vert.x 向けNew Relic Java インストゥルメンテーション 拡張機能 -tags: - - nrlabs - - nrlabs-data - - apm - - java - - vertx - - vert.x - - sql - - kafka - - mssql - - postgres - - oracle - - db2 - - cassandra - - jdbc - - redis - - rabbitmq - - rxjava - - mongodb - - reactive - - coroutines - - expert services -metaDescription: 'provides instrumentation for monitoring the Vert.x Cassandra, JDBCClient, Coroutines, Kafka, RxJava, SQL Clients, Redis, MongoDB, Reactive and Service Proxy.' -freshnessValidatedDate: never -translationType: machine ---- - -[Java インストゥルメンテーション for Vert.x 拡張機能は、](https://github.com/newrelic/newrelic-java-vertx-extensions/tree/main)監視 Vert.x のインストゥルメンテーションを提供します。 Cassandra、JDBCClient、コルーチン、Kafka、RxJava、SQL クライアント、Redis、MongoDB、Reactive およびサービス プロキシ。 - -## Javaエージェントのインストール - -Java Vert.x 拡張機能を構成するには、Java APM エージェントをインストールする必要があります。 指示に従って[Java APMエージェントをインストールします](https://docs.newrelic.com/install/java/) - -Java APM エージェントがアプリケーションにインストールされ、構成されたら、 `newrelic`ディレクトリの下に`extensions`フォルダを作成します (まだ存在しない場合)。 - -```bash -# Open your Java APM Agent installation location and create 'extensions' folder ( if it is not existing) -cd path/to/newrelic -mkdir extensions -``` - -## Vert.x 用の Java インストゥルメントのインストールと設定 拡張機能 [#install] - - - - - カール - - - - パワーシェル - - - - ウェブ - - - - - - Vert.x用のJavaインストゥルメンテーションをインストールして構成するには 拡張機能の場合は、次の手順に従ってください。 - - * 提供された bash スクリプトで Java APM エージェントの`extensions`フォルダーの場所を更新します。 - * 更新されたコマンドを bash スクリプト`install_vertx_integration.sh`にコピーします。 - * スクリプトを実行して、Java インストゥルメンテーションを Vert.x に統合します。 New Relic APM による拡張機能。 - - ```sh - #!/bin/bash - - # Define variables - apiUrl="https://api.github.com/repos/newrelic/newrelic-java-vertx-extensions/releases/latest" - tempZipPath="/tmp/latest.zip" - tempExtractPath="/tmp/Extracted" - extensionsDir="/path/to/newrelic/extensions" - - # Retrieve the download URL for the latest release ZIP file - downloadUrl=$(curl -s "$apiUrl" | grep -o "browser_download_url.*\.zip" | cut -d '"' -f 3) - - echo $downloadUrl - - # Check if the download URL is empty or invalid - if [ -z "$downloadUrl" ]; then - echo "Failed to retrieve download URL. Exiting." - exit 1 - fi - - # Download the latest release ZIP file - curl -L -o "$tempZipPath" "$downloadUrl" - - # Check if the ZIP file was downloaded successfully - if [ ! -f "$tempZipPath" ]; then - echo "Failed to download the ZIP file. Exiting." - exit 1 - fi - - # Create a temporary extraction folder - mkdir -p "$tempExtractPath" - - # Extract the contents of the ZIP file to the temporary folder - unzip -q "$tempZipPath" -d "$tempExtractPath" - - # Check if the extraction was successful - if [ $? -ne 0 ]; then - echo "Failed to extract the ZIP file. Exiting." - exit 1 - fi - - # Copy all .jar files to the Java APM Agent 'extensions' directory - find "$tempExtractPath" -name "*.jar" -exec cp {} "$extensionsDir" \; - - # Clean up temporary files - rm "$tempZipPath" - rm -r "$tempExtractPath" - - echo "Installation completed successfully." - ``` - - - - Vert.x用のJavaインストゥルメンテーションをインストールして構成するには 拡張機能の場合は、次の手順に従ってください。 - - * 提供されている PowerShell コマンドで、Java APM エージェントの「extensions」フォルダーの場所を更新します。 - - ```sh - # Define variables - $apiUrl = "https://api.github.com/repos/newrelic/newrelic-java-vertx-extensions/releases/latest" - $tempZipPath = "C:\Temp\latest.zip" - $tempExtractPath = "C:\Temp\Extracted" - $extensionsDir = "C:\Path\To\newrelic\extensions" - - # Download the latest release ZIP file from GitHub - $response = Invoke-WebRequest -Uri $apiUrl - $downloadUrl = ($response.Content | ConvertFrom-Json).assets[0].browser_download_url - Invoke-WebRequest -Uri $downloadUrl -OutFile $tempZipPath - - # Extract the contents of the ZIP file to a temporary folder - New-Item -ItemType Directory -Path $tempExtractPath -Force - Expand-Archive -Path $tempZipPath -DestinationPath $tempExtractPath - - # Copy all .jar files to the Java APM Agent 'extensions' directory - Get-ChildItem -Path $tempExtractPath -Filter "*.jar" | Copy-Item -Destination $extensionsDir - - # Clean up temporary files - Remove-Item -Path $tempZipPath -Force - Remove-Item -Path $tempExtractPath -Recurse -Force - ``` - - - - [Java インストゥルメンテーション for Vert.x Extensions Releases](https://github.com/newrelic/newrelic-java-vertx-extensions/releases/)から、 `vertx-instrumentation-vx.y.z.zip`一時ディレクトリにダウンロードし、解凍します。 すべての `jar` ファイルをNew Relic Java APM エージェントの `extensions` フォルダーにコピーします。 - - - - -## インテグレーションを確認する - -Vert.xのJavaインストゥルメンテーションを設定した後 拡張機能を使用すると、アプリケーションの Vert.x 拡張機能のトランザクションとトレースを New Relic APM およびサービス内で直接視覚化できます。 - -## インテグレーションの問題の報告 - -Vert.xのJavaインストゥルメンテーションで問題が発生した場合 拡張機能については、 [GitHub リポジトリ](https://github.com/newrelic/newrelic-java-vertx-extensions/issues)で報告してください。 皆様からのフィードバックは、問題を迅速に特定して対処するのに役立ち、Vert.xのスムーズで信頼性の高い監視エクスペリエンスを保証します。 アプリケーション。 インテグレーションの向上にご協力いただきありがとうございます。 \ No newline at end of file diff --git a/src/i18n/content/jp/docs/more-integrations/open-source-telemetry-integrations/airflow/monitoring-airflow-ot.mdx b/src/i18n/content/jp/docs/more-integrations/open-source-telemetry-integrations/airflow/monitoring-airflow-ot.mdx deleted file mode 100644 index 3aef3452513..00000000000 --- a/src/i18n/content/jp/docs/more-integrations/open-source-telemetry-integrations/airflow/monitoring-airflow-ot.mdx +++ /dev/null @@ -1,168 +0,0 @@ ---- -title: OpenTelemetry を使用して Apache Airflow を監視する -tags: - - Integrations - - Open source telemetry integrations - - OpenTelemetry - - Airflow - - Quickstart -metaDescription: Monitor Airflow data with New Relic using OpenTelemetry. -freshnessValidatedDate: '2023-11-16T00:00:00.000Z' -translationType: machine ---- - -import opentelemetryAirflow01 from 'images/opentelemetry_screenshot_airflow_01.webp' - -import opentelemetryAirflow02 from 'images/opentelemetry_screenshot_airflow_02.webp' - -[OpenTelemetry](https://airflow.apache.org/docs/apache-airflow/stable/administration-and-deployment/logging-monitoring/metrics.html#setup-opentelemetry)を構成して New Relic にデータを送信することで Apache Airflow データを監視し、タスク、オペレーター、DAG の実行をメトリクスとして視覚化できます。 - -Screenshot showing sample Airflow DAG runs in New Relic - -## 前提条件 [#prerequisites] - -Apache Airflow で OpenTelemetry を有効にする前に、 `otel`エクストラを含む Airflow パッケージをインストールする必要があります。インストール方法は、Airflow 導入アプローチによって異なります。 - -### オプション 1: PyPi からインストールする [#install-pypi] - -1. [Airflow のドキュメント](https://airflow.apache.org/docs/apache-airflow/stable/installation/installing-from-pypi.html)のインストール手順に従ってください。 - -2. pip を使用してインストールする場合は、コマンドに`otel`を追加します。 例えば: - - `pip install "apache-airflow[otel]"` - -### オプション 2: Docker からのインストール [#install-docker] - -1. [Airflow のドキュメント](https://airflow.apache.org/docs/docker-stack/index.html)の手順に従って、Airflow Docker イメージをセットアップします。 - -2. Dockerfile を使用してビルド済みの Docker イメージを拡張し、 `otel`エクストラをインストールします。最新のタグを希望のバージョンのイメージに置き換えることができます。 - - ``` - FROM apache/airflow:latest - RUN pip install --no-cache-dir "apache-airflow[otel]==$AIRFLOW_VERSION" - ``` - - - `$AIRFLOW_VERSION` は、Apache/airflow コンテナによってすでに設定されていますが、他のベース イメージのバージョン番号に置き換えることができます。 - - -## 構成 [#configuration] - -Airflow メトリクスをNew Relicに送信するには、 OpenTelemetryメトリクス[OpenTelemetry設定します](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/collector/opentelemetry-collector-intro/)。これにより、 を使用してデータがNew Relic [OTLP エンド ポイント](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/opentelemetry-setup/#note-endpoints)に転送されます。 - - - 現在、Airflow では認証ヘッダーを含む OpenTelemetry データの送信がサポートされていないため、New Relic での認証には OpenTelemetry コレクターが不可欠です。 - - -### OpenTelemetry コレクターを構成する [#configuration-collector] - -1. [基本的なコレクターの例](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/collector/opentelemetry-collector-basic/)に従って、OpenTelemetry コレクターを設定します。 - -2. `https://otlp.nr-data.net:4317`などの適切な OTLP エンドポイントを使用してコレクターを構成します。 - -3. 認証のために、 - - - - を環境変数`NEW_RELIC_LICENSE_KEY`に追加して、 `api-key`ヘッダーに値が設定されるようにします。 - -4. 実行中の Airflow インスタンスからコレクターのポート 4318 に到達できることを確認します。(Docker の場合は、 [Docker ネットワークを](https://docs.docker.com/network/)使用する必要がある場合があります。) - -5. コレクターを起動します。 - -### エアフローメトリクスを構成する [#configuration-airflow] - -Airflow は、ポート`4318`を使用する OTLP over HTTP を使用してメトリクスを送信します。Airflow には、[構成オプションを設定する](https://airflow.apache.org/docs/apache-airflow/stable/howto/set-config.html)複数の方法があります。 - - - ご使用の環境で、OpenTelemetry Collector と並行して Docker コンテナで Airflow が実行されている場合は、 `otel_host`設定を`localhost`からコレクタのコンテナ アドレスに変更する必要があります。 - - -次のいずれかの方法を選択して、エアフローに必要なオプションを設定します。 - -1. `airflow.cfg`ファイルに必要なオプションを設定します。 - - ``` - [metrics] - otel_on = True - otel_host = localhost - otel_port = 4318 - otel_ssl_active = False - ``` - -2. または、必要なオプションを環境変数として設定します。 - - ``` - export AIRFLOW__METRICS__OTEL_ON=True - export AIRFLOW__METRICS__OTEL_HOST=localhost - export AIRFLOW__METRICS__OTEL_PORT=4318 - export AIRFLOW__METRICS__OTEL_SSL_ACTIVE=False - ``` - - - Airflow には、役立つ可能性のあるメトリクスの[追加設定が](https://airflow.apache.org/docs/apache-airflow/stable/administration-and-deployment/logging-monitoring/metrics.html#setup-opentelemetry)あります。これには、送信前に[メトリクスの名前を変更する](https://airflow.apache.org/docs/apache-airflow/stable/administration-and-deployment/logging-monitoring/metrics.html#rename-metrics)機能が含まれます。これは、メトリクス名が OpenTelemetry の 63 バイト制限を超える場合に役立ちます。 - - -## データが New Relic に送信されることを検証する [#validation] - -New Relic が Airflow データを収集していることを確認するには、DAG またはパイプラインを実行します。 - -1. エアフローにログインします。 - -2. 既存のチュートリアル DAG の 1 つ、または独自のチュートリアル DAG の実行ボタンをクリックします。 - -3. パイプラインの実行が完了するまで待ちます。 - -4. **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > APM & services > Services - OpenTelemetry > Airflow** - - に移動します。 - -5. **Metrics Explorer** - - をクリックして、パイプライン実行のメトリクスを視覚化します。 - -## ダッシュボードの構築 [#building-dashboards] - -Airflow メトリクスを使用すると、個々のパイプラインや全体的なパフォーマンスに関するダッシュボードを構築したり、異なるパイプライン間の比較を表示したりできます。[メトリクスのクエリの](/docs/data-apis/understand-data/metric-data/query-metric-data-type/)詳細については、ここをクリックしてください。 - -このクエリは、Airflow について報告されたすべてのメトリクスのリストを取得します。 - -```sql -SELECT uniques(metricName) FROM Metric WHERE entity.name = 'Airflow' AND metricName LIKE 'airflow.%' SINCE 30 MINUTES AGO LIMIT 100 -``` - -メトリクス名が制限 ( `100` ) を超える場合は、必ず制限を変更してください。 - -このクエリは、さまざまな DAG が正常に実行された場合のさまざまな完了時間を比較します。 - -```sql -SELECT latest(airflow.dagrun.duration.success) FROM Metric FACET dag_id WHERE entity.name = 'Airflow' SINCE 30 minutes AGO TIMESERIES -``` - -Screenshot showing sample Airflow DAG runs in New Relic - -このクエリは、失敗した DAG 実行の数を示します。これは、重要なパイプラインのを構築するために使用できます。 - -```sql -SELECT count(airflow.dagrun.duration.failed) FROM Metric FACET dag_id WHERE entity.name = 'Airflow' SINCE 30 minutes AGO TIMESERIES -``` - -Screenshot showing sample Airflow failures in New Relic - - - Airflow の OpenTelemetry メトリクスは New Relic によって保守されていないため、インストルメンテーションに問題がある場合は、 [Airflow の GitHub リポジトリで新しい問題を作成してください](https://github.com/apache/airflow/issues)。 - - - \ No newline at end of file diff --git a/src/i18n/content/jp/docs/more-integrations/open-source-telemetry-integrations/atlassian/atlassian-integration.mdx b/src/i18n/content/jp/docs/more-integrations/open-source-telemetry-integrations/atlassian/atlassian-integration.mdx deleted file mode 100644 index 782d0496dd5..00000000000 --- a/src/i18n/content/jp/docs/more-integrations/open-source-telemetry-integrations/atlassian/atlassian-integration.mdx +++ /dev/null @@ -1,123 +0,0 @@ ---- -title: Atlassian Jira インテグレーション -tags: - - Integrations - - Open source telemetry integrations - - OpenTelemetry - - Atlassian - - Quickstart -metaDescription: Monitor Atlassian with New Relic. -freshnessValidatedDate: '2024-04-24T00:00:00.000Z' -translationType: machine ---- - -import opentelemetryAtlassianNRapiToken from 'images/opentelemetry_screenshot-crop_connect-nr-jira.webp' - -import opentelemetryJiraIncidentManagement from 'images/opentelemetry_screenshot-full_jira-incident-mgt.webp' - -import opentelemetryJiraNRConfiguration from 'images/opentelemetry_screenshot-full_jira-nr-configuration.webp' - -New Relic 、 New Relic問題とインシデント情報を Jira と同期する Atlassian Jira とのインテグレーションを提供します。 このデータは Jira の[インシデント機能](https://support.atlassian.com/jira-software-cloud/docs/what-is-the-incidents-feature/)に表示され、Jira の問題に接続して停止ワークフローを改善できます。 このセクションでは、このインテグレーションを設定する方法と、それを使用するためのベストプラクティスについて説明します。 - - - この機能はまだプレビュー段階ですが、ぜひお試しください。 - - -## データ共有 [#data-sharing] - -Atlassian Marketplace からNew Relic for Jira アプリをインストールすると、インテグレーションで次のアクションを実行できるようになります。 - -* Jira からエンティティ、インシデント、問題を読み取ります。 -* エンティティ、インシデント、問題を Jira に書き込みます。 -* New Relicと Jira の両方からテンプレート、インシデント、および課題を削除して、各テンプレートのデータレポートをミラーリングします。 - - - このインテグレーションにより、 New Relic問題とインシデント情報が、関連する Jira ワークスペース内のすべてのユーザーに公開されます。 このワークスペースの Jira ユーザーはNew Relicにアクセスできない可能性があります。また、アクセスできたとしても、API キー ユーザーと同じNew Relicアカウントにアクセスできない可能性があります。 - - 非表示にするNew Relicアカウント情報がある場合は、機密アカウントへのアクセス権を持たない[インテグレーション ユーザー](/docs/more-integrations/best-practices-integration/#integration-user-leverage)を使用してください。 - - -## インストール [#installation] - -New Relic を Jira と統合するには、次の手順に従ってください。 - - - - ## New Relic for Jiraアプリをインストールする [#install-nr-jira-app] - - New Relic と Atlassian の間でデータを同期するには、New Relic for Jira アプリをインストールする必要があります。 マーケットプレイス アプリケーションをインストールするには、Jira サイトのアドミニストレーター権限が必要であることに注意してください。 [Atlassian Marketplace](https://marketplace.atlassian.com/apps/1233828/new-relic-for-jira?tab=overview&hosting=cloud)にアクセスし、 **Install** \[インストール]ボタンをクリックします。 - - - サイト管理者権限を持っていない場合は、アドミニストレーターにリクエストすることができます。 アプリケーションのインストール プロセスを完了するには、Jira サイトのアドミニストレーターに問い合わせることをお勧めします。 - - - - - ## New Relic APIキーを作成する [#create-new-relic-key] - - New Relic for Jira アプリをインストールした後、 [New Relic API キー](/docs/apis/intro-apis/new-relic-api-keys/)を作成する必要があります。 Jira サイト管理者とNew Relicアドミニストレーターが、Jira に公開するアカウントを決定します。 正しいNew Relicアカウント アクセス権を持つユーザーは、 New Relic API キーを生成できます。 New Relic API キーは、それを生成したユーザーと同じアカウントにアクセスできます。 - - [New Relic API キーUI](https://one.newrelic.com/launcher/api-keys-ui.api-keys-launcher)ページから API キーを作成および管理するか、 [Atlassian APIキー](https://id.atlassian.com/manage-profile/security/api-tokens)ページにログインして**Create API token** \[APIキーの作成]をクリックします。 - - - - ## New Relic APIキーを適用する [#apply-new-relic-key] - - API キーを作成したら、そのキーをNew Relic connect アプリケーションの最初のページに適用できます。 - - New Relic API トークンを New Relic Atlassian Marketplace アプリケーションに貼り付けて、 **Connect** \[接続]をクリックします。 - - Apply a New Relic API key - - - - ## New Relicサービスを選択してください [#select-nr-services] - - New Relic for Jira アプリが API キー経由で接続されると、その API キーのアカウントに関連付けられているすべてのテンプレートのリストが表示されます。 ナビゲーションでインシデント機能を選択し、Jira で公開するエンティティを接続します。 - - [Jira でサービスを接続および削除する](https://support.atlassian.com/jira-software-cloud/docs/connect-jira-service-management-services-to-jira-software/)方法を学びます。 - - Jira incident management page - - - - ## Atlassian Jira で New Relic の問題とインシデントを確認する [#see-issues-incidents] - - New Relic エンティティを選択すると、アプリケーションは New Relic から Atlassian Jira へのデータの同期を開始します。 検出されたインシデントのリストを表示するには、インシデント タブを開きます。 - - - -## インシデント機能を有効にする [#enable-incidents-feature] - -プロジェクト管理者権限を持っている場合は、次の手順に従ってインシデント機能を有効にします。 - -1. プロジェクトのサイドバーから**Project settings > Features**に移動します。 -2. **Incidents**機能のオン/オフを切り替えます。 -3. 有効にしたら、プロジェクト サイドバーで**Incidents**を選択して機能を使用します。 - -詳細については、Atlassian サポート ドキュメントの[インシデント機能](https://support.atlassian.com/jira-software-cloud/docs/what-is-the-incidents-feature/)ページを参照してください。 - -## New RelicとJira間の接続を削除する [#remove-connection] - -いつでも New Relic からのデータの同期を停止し、同期されたデータを削除できます。 Jira サイト管理者権限を持っている場合は、Jira 内のNew Relic設定ページからこれを実行できます。 接続されている組織を選択し、 **Delete**をクリックできます。 プロセスが終了すると、Jira のインシデント機能に New Relic インシデントと問題情報が表示されなくなります。 - -## 別の組織に接続する [#different-organization] - -別の組織に接続したり、API キーが提供するアカウント アクセスを変更したりするには、Jira 内のNew Relic設定ページに移動します。 - -**Connect another New Relic organization** を選択した場合は、 New Relic API キーを指定する必要があります。 新しいキーを追加すると、Atlassian に同期されているすべてのデータを含む現在の接続が削除されます。 その後、新しい API キーのアカウントと組織アクセス間の新しい同期プロセスが開始されます。 - -New Relic configuration from Jira \ No newline at end of file diff --git a/src/i18n/content/jp/docs/more-integrations/open-source-telemetry-integrations/dojo/dojo-io-integration.mdx b/src/i18n/content/jp/docs/more-integrations/open-source-telemetry-integrations/dojo/dojo-io-integration.mdx deleted file mode 100644 index 45b26e1235f..00000000000 --- a/src/i18n/content/jp/docs/more-integrations/open-source-telemetry-integrations/dojo/dojo-io-integration.mdx +++ /dev/null @@ -1,37 +0,0 @@ ---- -title: Dojo.io の統合 -tags: - - dojo.io integration - - dojo integration - - new relic integrations -metaDescription: The New Relic Dojo.io integration sends performance metrics and inventory data from your Dojo.io framework to the New Relic platform. -freshnessValidatedDate: never -translationType: machine ---- - -import dojodashboard from 'images/infrastructure_screenshot-crop_dojo-dashboard.webp' - -New Relic の Dojo ダッシュボードを利用すると、アプリケーションのコア Web バイタル、ユーザーがサイトに費やした時間、初期ページ読み込みや Javascript エラーのあるページなどの重要なブラウザー パフォーマンス メトリクスを追跡できます。私たちのもので構築エージェントの場合、Dojo ダッシュボードを使用すると、最も重要なデータをすべて 1 か所で表示できます。 - -A screenshot of the Dojo dashboard - -## インフラストラクチャ エージェントをインストールする (オプション) [#infra-install] - -Dojo 統合はインフラストラクチャ エージェントで構築されていませんが、ホストに関するパフォーマンス データが必要な場合はインストールすることをお勧めします。インフラストラクチャ エージェントは、次の 2 つの方法でインストールできます。 - -* [ガイド付きインストール](https://one.newrelic.com/nr1-core?state=4f81feab-35f7-e97e-9903-52510f8542bd)は、システムを検査し、システムに最適なアプリケーション監視エージェントとともにインフラストラクチャ エージェントをインストールする CLI ツールです。ガイド付きインストールの仕組みの詳細については、[ガイド付きインストールの概要](/docs/infrastructure/host-integrations/installation/new-relic-guided-install-overview)をご覧ください。 -* インフラストラクチャ エージェントを手動でインストールする場合は、 [Linux](/docs/infrastructure/install-infrastructure-agent/linux-installation/install-infrastructure-monitoring-agent-linux) 、 [Windows](/docs/infrastructure/install-infrastructure-agent/windows-installation/install-infrastructure-monitoring-agent-windows/) 、または[macOS](/docs/infrastructure/install-infrastructure-agent/macos-installation/install-infrastructure-monitoring-agent-macos/)の手動インストールのチュートリアルに従うことができます。 - -## ブラウザエージェントのインストール [#browser-install] - -1. インストール[ランチャー](https://one.newrelic.com/marketplace?account=3510613&state=79352429-fa28-4c25-1123-30c4b23ff83c)に移動し、\[ **Browser monitoring** ] をクリックして、ブラウザー エージェントをインストールします。 -2. アカウントを選択し、UI の指示に従います。 -3. [Dojo インスタント オブザーバビリティ ページ](https://newrelic.com/instant-observability/dojo)に事前構築済みの Dojo ダッシュボードをインストールします。 - -## 次は何ですか? [#whats-next] - -ブラウザー エージェントをインストールしてアプリにインストルメント化すると、 [メトリックとイベント](/docs/query-your-data/explore-query-data/browse-data/introduction-data-explorer/)で生データを表示できます。デフォルト 生データをチャートやグラフに変換して、システムの健全性の概要を示します。デフォルトのダッシュボードをインストールするには、 [インスタント オブザーバビリティ ページ](https://newrelic.com/instant-observability/)にアクセスしてください \ No newline at end of file diff --git a/src/i18n/content/jp/docs/more-integrations/open-source-telemetry-integrations/dropwizard/dropwizard-reporter.mdx b/src/i18n/content/jp/docs/more-integrations/open-source-telemetry-integrations/dropwizard/dropwizard-reporter.mdx deleted file mode 100644 index b0b48ca3864..00000000000 --- a/src/i18n/content/jp/docs/more-integrations/open-source-telemetry-integrations/dropwizard/dropwizard-reporter.mdx +++ /dev/null @@ -1,27 +0,0 @@ ---- -title: Dropwizardのレポーター -tags: - - Integrations - - Open source telemetry integrations - - Dropwizard -metaDescription: New Relic offers an integration that exports data from your DropWizard and sends it to your New Relic account. -freshnessValidatedDate: never -translationType: machine ---- - -[Dropwizard](https://www.dropwizard.io/en/latest/) は、メトリクスのインストルメンテーションをすぐに提供することで、OPSに適した高性能なRESTful Webサービスを開発するためのJavaフレームワークです。New Relic の DropWizard レポーターは、Dropwizard のメトリクスをお客様の New Relic アカウントに送信します。 - -dropwizardのレポーターを試してみませんか? [New Relicのアカウントを作成してください](https://newrelic.com/signup) 無料でご利用いただけます。クレジットカードは必要ありません。 - -Dropwizardレポーターのためのリソースです。 - -* [READMEをご覧ください](https://github.com/newrelic/dropwizard-metrics-newrelic) -* [統合スペック](https://github.com/newrelic/newrelic-exporter-specs/tree/master/dropwizard) - -## データを検索する - -データを見つけるには、 **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > All entities**に移動します。サービスを名前で検索します。そこから、 **Metrics and events** \[メトリクスとイベント] を使用してメトリクスを調査し、メトリクスを使用してダッシュボードを構築できます。 - -New Relic に取り込んだデータを照会する方法については、 [データの照会](/docs/using-new-relic/data/understand-data/query-new-relic-data) および [NRQL の紹介](/docs/query-data/nrql-new-relic-query-language/getting-started/introduction-nrql) を参照してください。 - - \ No newline at end of file diff --git a/src/i18n/content/jp/docs/more-integrations/open-source-telemetry-integrations/elixir/elixir-open-source-agent.mdx b/src/i18n/content/jp/docs/more-integrations/open-source-telemetry-integrations/elixir/elixir-open-source-agent.mdx deleted file mode 100644 index 0150b9c763d..00000000000 --- a/src/i18n/content/jp/docs/more-integrations/open-source-telemetry-integrations/elixir/elixir-open-source-agent.mdx +++ /dev/null @@ -1,27 +0,0 @@ ---- -title: Elixirオープンソースエージェント -tags: - - Agents - - Open-source licensed agents - - Open-source licensed agents -metaDescription: A brief introduction to New Relic's open-source Elixir agent. -freshnessValidatedDate: never -translationType: machine ---- - -[Elixir](https://github.com/newrelic/elixir_agent) の動作を、Elixir のオープンソースエージェントを使って New Relic で監視します。エージェントが - -* トランザクション、分散型トレース、およびアプリケーションの動作の他の部分を追跡するのに役立ちます。 -* 基礎となる [BEAM](http://erlang.org/faq/implementations.html#idp32950544) 活動の概要を提供します。 - - - このエージェントは、オープンソースとして [GitHub](https://github.com/newrelic/) で公開されています。また、最新の更新情報としてチェンジログも公開されています。 - - -## 始めましょう [#get_started] - -要件、インストール、構成情報については、GitHub の[オープンソース Elixir エージェントの README](https://github.com/newrelic/elixir_agent/blob/master/README.md)を参照してください。 - -インストール、使用法、その他のトピックに関する質問については [、GitHub にある New Relic の Elixir リポジトリに](https://github.com/newrelic/elixir_agent) アクセスしてください。問題やバグを [GitHub リポジトリ](https://github.com/newrelic/elixir_agent/issues)の問題として報告します。 - - \ No newline at end of file diff --git a/src/i18n/content/jp/docs/more-integrations/open-source-telemetry-integrations/jenkins/monitoring-jenkins-ot.mdx b/src/i18n/content/jp/docs/more-integrations/open-source-telemetry-integrations/jenkins/monitoring-jenkins-ot.mdx deleted file mode 100644 index 805c3bbaa9f..00000000000 --- a/src/i18n/content/jp/docs/more-integrations/open-source-telemetry-integrations/jenkins/monitoring-jenkins-ot.mdx +++ /dev/null @@ -1,116 +0,0 @@ ---- -title: OpenTelemetry と New Relic を使用して Jenkins を監視する -tags: - - Integrations - - Open source telemetry integrations - - OpenTelemetry - - Jenkins - - Quickstart -metaDescription: Here is a simple example to setup the Jenkins OpenTelemetry plugin to send data to New Relic. -freshnessValidatedDate: never -translationType: machine ---- - -import opentelemetryJenkis01 from 'images/opentelemetry_screenshot-full_jenkins-01.webp' - -import opentelemetryIntegrationsJenkins02 from 'images/opentelemetry_screenshot-full_integrations-jenkins-02.webp' - -import opentelemetryIntegrationsJenkins03 from 'images/opentelemetry_screenshot-full_integrations-jenkins-03.webp' - -import opentelemetryOpentelemetryJenkins04 from 'images/opentelemetry_screenshot-full_opentelemetry-jenkins-04.webp' - -import opentelemetryJenkins05 from 'images/opentelemetry_screenshot-full_jenkins-05.webp' - -ジョブとパイプラインの実行を[分散トレース](/docs/distributed-tracing/concepts/introduction-distributed-tracing)として視覚化することにより、 [OpenTelemetry プラグイン](https://plugins.jenkins.io/opentelemetry)で Jenkins を監視します。[クイックスタート](https://newrelic.com/instant-observability/jenkins)をインストールして、Jenkins パイプラインを監視するための事前構築済みのダッシュボードを取得することもできます。 - -Screenshot showing sample Jenkins dashboard in New Relic - -## 前提条件 [#prerequisites] - -まず、Jenkins から OpenTelemetry プラグインをインストールする必要があります。 - -1. ジェンキンスにログインします。 -2. ダッシュボードから**Manage Jenkins**をクリックします。 -3. 「システム構成」で、 **Plugins** \[プラグイン]をクリックします。 -4. **Available plugins** \[利用可能なプラグイン] タブをクリックし、 **OpenTelemetry**を検索します。 -5. **OpenTelemetry**チェックボックスを選択し、**再起動せずにインストール**します。 -6. インストールが完了したら、 **Manage Jenkins**をクリックします。 -7. **System Configuration** \[システム構成]で **System** \[システム]をクリックします。 -8. 下にスクロールして、 **OpenTelemetry**というセクションを確認します。表示されない場合は、Jenkins を再起動します。 - -Screenshot showing Jenkins OpenTelemetry plugin - -## 構成 [#configuration] - -New Relic [OTLP エンドポイント](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/opentelemetry-setup/#note-endpoints) と New Relic にデータを送信するように Jenkins OpenTelemetry プラグインを設定します。 - -Screenshot showing Jenkins OpenTelemetry configuration - -1. OTLP エンドポイントを入力します。たとえば、 `https://otlp.nr-data.net:4317` . -2. 認証には、\[**ヘッダー認証**] を選択します。\[**ヘッダー名]**フィールドに**api-key**と入力します。b.**Header Value**フィールドに、New Relic インジェスト ライセンス キーを含むシークレット テキストを入力します。 -3. 変更を保存します。 - -New Relic ライセンス キーを使用してシークレット テキストを作成していない場合は、\[ **+ 追加**] ボタンをクリックし、\[ **Jenkins Credentials Provider** ] を選択して作成します。**kind**と**secret**を除いてデフォルト値をそのまま使用できます。**説明**はオプションです。 - -Screenshot showing Jenkins Credential Provider - -1. \[**種類**] ドロップダウンから、 \[**秘密のテキスト**] を選択します。 -2. **シークレット**フィールドに、New Relic インジェスト ライセンス キーを入力します。 -3. 必要に応じて、秘密のテキストの目的を示す説明を追加します。 - -## バリデーション [#validation] - -ジョブを実行するか、新しいパイプラインを作成して、New Relic で Jenkins データを表示します。パイプラインを構築する方法は次のとおりです。 - -1. Jenkins にログインし、 **New Item**をクリックします。 -2. 項目名を入力し、 \[**パイプライン**] をクリックしてから \[ **OK** ] をクリックします。 -3. **パイプライン**セクションまで一番下までスクロールします。 -4. パイプライン スクリプトを使用し、**サンプル パイプラインを試す...**ドロップダウンからオプションを選択します。 -5. \[保存] をクリックします。 -6. 新しく作成されたパイプラインで、 **Build Now**をクリックします。 -7. **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > APM & services > Services - OpenTelemetry > jenkins**に移動します。 -8. \[**分散トレース]**をクリックして、ジョブとパイプラインの実行を視覚化します。 -9. \[**ログ]**をクリックして、Jenkins コンソールのログを表示します。ログがない場合は、環境変数`OTEL_LOGS_EXPORTER="otlp"`が設定されていることを確認してください。 - -Screenshot showing Jenkins OpenTelemetry plugin - -## Jenkins クイックスタート ダッシュボードをインストールする [#quickstart] - -Jenkins パイプライン データを New Relic に送信した後、 [New Relic Instant Observability](http://newrelic.com/instant-observability)の事前構築済みダッシュボードを使用して、ジョブとパイプラインの実行を簡単に監視することもできます。事前構築済みのダッシュボードを使用して数分で開始し、統合されたビューで主要なメトリックを表示します。 - -1. [New Relic Instant Observability](https://newrelic.com/instant-observability/jenkins)の Jenkins クイックスタートに移動し、 **+ Install now**をクリックします。 -2. アカウントを選択し、\[**インストール**の開始] をクリックします。 -3. [検証](#validation)が既に完了している場合は、\[**完了**] を選択して次のステップに進みます。 -4. クイックスタートにより、リソースがアカウントにデプロイされます。\[**データを見る] を**クリックして、ダッシュボードにアクセスします。 - -Jenkins quickstart dashboard in New Relic - - - Jenkins OpenTelemetry プラグインは New Relic によって保守されていないため、インストルメンテーションに問題がある場合は、[プラグインの GitHub リポジトリで新しい問題を作成してください](https://github.com/jenkinsci/opentelemetry-plugin/issues)。 - - - \ No newline at end of file diff --git a/src/i18n/content/jp/docs/more-integrations/open-source-telemetry-integrations/kamon/kamon-reporter.mdx b/src/i18n/content/jp/docs/more-integrations/open-source-telemetry-integrations/kamon/kamon-reporter.mdx deleted file mode 100644 index d81c841e69a..00000000000 --- a/src/i18n/content/jp/docs/more-integrations/open-source-telemetry-integrations/kamon/kamon-reporter.mdx +++ /dev/null @@ -1,44 +0,0 @@ ---- -title: 嘉門レポーター -tags: - - Integrations - - Open source telemetry integrations - - Kamon -metaDescription: New Relic's Kamon reporter can send telemetry data from your Kamon-instrumented applications to your New Relic account. -freshnessValidatedDate: never -translationType: machine ---- - -[カモン](https://kamon.io/) は、ScalaおよびAkkaアプリケーションの自動インスツルメンテーションに特化したインスツルメンテーションツールキットを提供しています。メトリクスやトレースのインスツルメンテーションのためのAPIと、アプリケーションメトリクスや分散型トレースを作成する自動インスツルメンテーションモジュールで構成されています。 - -Kamonは、テレメトリデータを任意のバックエンドに転送するためのレポーターモジュールも提供しています。New RelicのKamonレポーターはKamon Bundleに含まれており、Kamonで計測したアプリケーションからNew Relicアカウントにテレメトリーデータを送信するように設定できます。 - -## イネーブル・カモン・レポーター [#install] - -当社のカモン・リポーターを有効にするために - -1. まだ[作成していない場合は、NewRelicアカウントを作成します](https://newrelic.com/signup)。それは永遠に無料です。 - -2. [カモンレポーターのインストール手順](https://kamon.io/docs/latest/reporters/newrelic/) に従ってください。 - -3. オプション:ネイティブのKamonトレースサンプリングを使用する代わりに、[無限トレース](/docs/introduction-infinite-tracing)機能を有効にすることができます。このオプションを使用する場合は、通常、すべてのトレースデータを送信するようにKamonを構成する必要があります([サンプリングの詳細を](/docs/distributed-tracing/concepts/how-new-relic-distributed-tracing-works)参照してください)。無限トレースを有効にするには: - - 1. New Relic の UI で、 [トレースオブザーバー](/docs/infinite-tracing-set-trace-observer#set-up) を設定します。 - 2. トレース オブザーバーにデータを送信するように Kamon レポーターを構成します。 `kamon.newrelic`構成ブロックで[`span-ingest-uri`](https://kamon.io/docs/latest/reporters/newrelic/)値を[YOUR_TRACE_OBSERVER_URL](/docs/infinite-tracing-set-trace-observer#ui-endpoints)に設定します。 - - - -## データを検索する - -データを見つけるには、 **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > すべてのエンティティ**に移動します。サービスを名前で検索します。Kamon インストルメンテーションが提供する最も有用なメトリクスのいくつかのグラフを含む、すぐに使える概要を提供します。分散トレース データも送信する場合は、トレースのクエリと表示に **Distributed tracing** \[分散トレース] 機能を使用できます。 - -すぐに使用できる概要を出発点として使用して、独自のダッシュボードを作成できます。グラフの`...`アイコンをクリックしてそのグラフをダッシュボードに追加するか、グラフの背後にあるクエリを表示して変更すると、ダッシュボードに追加されます。 - -New Relic に取り込んだデータを照会する方法については、 [データの照会](/docs/using-new-relic/data/understand-data/query-new-relic-data) および [NRQL の紹介](/docs/query-data/nrql-new-relic-query-language/getting-started/introduction-nrql) を参照してください。 - -## 資力 - -カモン・リポーターのリソースは以下の通りです。 - -* [インストールおよび設定ガイド](https://kamon.io/docs/latest/reporters/newrelic/) (カモンサイト) -* [統合仕様](https://github.com/newrelic/newrelic-exporter-specs/tree/master/kamon) (New Relic GitHub) \ No newline at end of file diff --git a/src/i18n/content/jp/docs/more-integrations/open-source-telemetry-integrations/lampy/lampy-integration.mdx b/src/i18n/content/jp/docs/more-integrations/open-source-telemetry-integrations/lampy/lampy-integration.mdx deleted file mode 100644 index a57b50a4d8d..00000000000 --- a/src/i18n/content/jp/docs/more-integrations/open-source-telemetry-integrations/lampy/lampy-integration.mdx +++ /dev/null @@ -1,137 +0,0 @@ ---- -title: LAMPy スタック監視の統合 -tags: - - New Relic integrations - - LAMPy - - Linux - - Apache - - Python - - MySQL -metaDescription: 'Use New Relic Linux, Apache, Python and MySQL monitoring to get a dashboard with metrics from your LAMPy application.' -freshnessValidatedDate: never -translationType: machine ---- - -import infrastructureLampyDashboard from 'images/infrastructure_screenshot-full_lampy-dashboard-1.webp' - -LAMPy 統合では、インフラストラクチャ エージェント、MySQL 統合、Apache 統合、Python エージェントを利用して、応答時間、CPU 使用率、トラフィック、ログイン頻度などの最も重要な指標を含む事前構築されたダッシュボードを提供します。 - -A screenshot depicting the LAMPy prebuilt dashboard - -
- LAMPy インテグレーションを設定すると、LAMPy Web アプリ メトリックのダッシュボードが表示されます。 -
- -## ステップ 1: インフラストラクチャ エージェントをインストールする [#infra-install] - -これを行うには、LAMPy アプリケーションを含むホストの [インフラストラクチャ エージェントのインストール手順](/docs/infrastructure/install-infrastructure-agent/linux-installation/install-infrastructure-monitoring-agent-linux) に従います。 - -## ステップ 2: MySQL 統合をインストールする [#mysql-install] - -LAMPy 統合は MySQL 統合に依存して機能します。詳細を確認して要件を確認するには、 [MySQL ドキュメント](/install/mysql/)を参照してください。 - -1. [one.newrelic.com](https://one.newrelic.com)から - - **Add data > Infrastructure & OS > MySQL** - - をクリックします。 - -2. 指示に従って MySQL エージェントをインストールします。 - -## ステップ 3: Apache 統合をインストールする [#apache-install] - -私たちの LAMPy 統合は、動作するために Apache 統合に依存しています。詳細と要件を確認するには、 [Apache ドキュメント](/docs/infrastructure/host-integrations/host-integrations-list/apache-monitoring-integration/)を参照してください。 - -1. [one.newrelic.com](https://one.newrelic.com)から - - **Add data > Infrastructure & OS > Apache** - - をクリックします。 - -2. 画面の指示に従って、Apache エージェントをインストールします。 - -## ステップ 4: Python エージェントをインストールする [#python-install] - -私たちの LAMPy 統合は、Python エージェントに依存しています。詳細を確認して要件を確認するには、 [Python ドキュメント](/docs/apm/agents/python-agent/getting-started/introduction-new-relic-python/)を参照してください。 - -1. [one.newrelic.com](https://one.newrelic.com)から**Add data > Application monitoring > Python**をクリックします。 - -2. アプリケーションに名前を付けます。 - -3. 構成ファイルをダウンロードして、アプリケーションのルート ディレクトリに配置します。 - -4. Django Web サイトに接続されている Python エージェントを統合します。この python エージェントは、Apache サーバーでも実行されます。 - -5. 次の行を `settings.py` ファイルに追加します。 - - ```py - NEW_RELIC_CONFIG_FILE = BASE_DIR / 'newrelic.ini' - ``` - -6. 次の行を `wsgi.py` ファイルに追加します。 - - ```py - import newrelic.agent - - from django.conf import settings - from django.core.wsgi import get_wsgi_application - - application = get_wsgi_application() - - newrelic.agent.initialize(settings.NEW_RELIC_CONFIG_FILE) - newrelic.agent.WSGIApplicationWrapper(application) - - ``` - -## ステップ 5: Apache サーバーを再起動する - -数分待ってから、New Relic でのデータの検索に進みます。 - -## データを検索する [#find-data] - -LAMPy ダッシュボードを取得するには: - -1. [one.newrelic.com](https://one.newrelic.com)から、 - - [**Add data**](https://one.newrelic.com/marketplace) - - [ページ](https://one.newrelic.com/marketplace)に移動します。 - -2. **Dashboards** - - をクリックします。 - -3. 検索バーに`LAMPy`と入力します。 - -4. LAMPy ダッシュボードが表示されます。それをクリックしてインストールします。 - -LAMPy ダッシュボードはカスタムダッシュボードとみなされ、**Dashboards** UIで確認できます。 ダッシュボードの使用と編集に関するドキュメントについては、[ダッシュボードのドキュメントを](/docs/query-your-data/explore-query-data/dashboards/introduction-dashboards)参照してください。 - -報告されたデータについては、インストールした各ツールのドキュメントを参照してください。 - -* [Linux データ](/docs/infrastructure/install-infrastructure-agent/linux-installation/install-infrastructure-monitoring-agent-linux/) -* [MySQL データ](/install/mysql/#metrics) -* [アパッチデータ](/docs/infrastructure/host-integrations/host-integrations-list/apache-monitoring-integration/) -* [Python データ](/docs/apm/agents/python-agent/getting-started/introduction-new-relic-python/) - -インフラストラクチャ エージェントをインストールした場合は、 [インフラストラクチャ データ](/docs/infrastructure/manage-your-data/data-instrumentation/default-infrastructure-monitoring-data/#infrastructure-events)も受け取ります。 - -以下は、リクエストごとに送信されたバイト数をチェックする NRQL クエリの例です。 - -```sql -SELECT (average(`apache.server.net.bytesPerSecond`) / average(`apache.server.net.requestsPerSecond`)) as 'Bytes sent per request' -FROM Metric -TIMESERIES auto -``` - -## 次は何ですか? [#whats-next] - -データのクエリとカスタム ダッシュボードの作成について詳しくは、次のドキュメントをご覧ください。 - -* [クエリビルダーの概要](/docs/query-your-data/explore-query-data/query-builder/introduction-query-builder) -* [カスタム ダッシュボードの概要](/docs/query-your-data/explore-query-data/dashboards/introduction-dashboards) -* [ダッシュボードの管理](/docs/query-your-data/explore-query-data/dashboards/manage-your-dashboard) \ No newline at end of file diff --git a/src/i18n/content/jp/docs/more-integrations/open-source-telemetry-integrations/micrometer/micrometer-metrics-registry.mdx b/src/i18n/content/jp/docs/more-integrations/open-source-telemetry-integrations/micrometer/micrometer-metrics-registry.mdx deleted file mode 100644 index 88998db368a..00000000000 --- a/src/i18n/content/jp/docs/more-integrations/open-source-telemetry-integrations/micrometer/micrometer-metrics-registry.mdx +++ /dev/null @@ -1,147 +0,0 @@ ---- -title: OpenTelemetry を使用して Micrometer データを New Relic に転送する -metaDescription: New Relic offers an integration that sends your Micrometer telemetry data to your New Relic account. -freshnessValidatedDate: never -translationType: machine ---- - -import opentelemetryMicrometerWithOtel from 'images/opentelemetry_screenshot-full_micrometer-with-otel.webp' - -New Relic [Micrometer データ](https://micrometer.io/)をサポートしているため、すべての可用性メトリックを 1 つのプラットフォームで表示できます。 OpenTelemetry SDK を使用して[OpenTelemetry Micrometer ブリッジ](https://github.com/open-telemetry/opentelemetry-java-instrumentation/tree/main/instrumentation/micrometer/micrometer-1.5/library)を設定し、OpenTelemetry プロトコル (OTLP) を使用して Micrometer データを New Relic に転送します。 - -A screenshot of the Micrometer summary page when instrumented with OpenTelemetry - -
- **[one.newrelic.com](https://one.newrelic.com) > All Capabilities > APM & Services**に移動し、 **Services - OpenTelemetry**セクションを見つけます。OpenTelemetry を介してブリッジされたときに、New Relic で Micrometer データを表示します。 -
- -## 互換性と要件 [#requirements] - -これらの手順を実行する前に、次の操作を行う必要があります。 - -* [OTLP経由で にデータをエクスポートするNew Relic](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/opentelemetry-introduction/#how-it-works) ためにOpenTelemetry SDKを設定する -* OpenTelemetry Micrometerブリッジをインストールする - -## Micrometer データを New Relic に転送する [#forward-data-OpenTelemetry] - -これらは、Micrometer メトリクス転送を設定するための一般的な手順です。 特定の環境に合わせて、必要に応じてコード スニペットを更新することもできます。 - - - - ### OpenTelemetry Micrometer インストゥルメンテーションを追加 - - `build.gradle` ファイルのアルファ モジュール セクションにOpenTelemetry Micrometer インストゥルメンテーションを追加します。 - - ```groovy - //Alpha modules - implementation 'io.opentelemetry.instrumentation:opentelemetry-micrometer-1.5' - ``` - - - - ### OpenTelemetry依存関係を追加 - - `dependencies`セクションで、OpenTelemetry SDK と OTLP エクスポーターを追加します。 - - ```groovy - dependencies { - implementation 'io.opentelemetry:opentelemetry-sdk' - implementation 'io.opentelemetry:opentelemetry-exporters-otlp' - } - ``` - - アルファ モジュールと依存関係が追加されたサンプル ファイルは次のようになります。 - - ```groovy - plugins { - id 'java-library' - id 'org.springframework.boot' - } - - bootRun { - mainClass.set 'io.opentelemetry.example.micrometer.Application' - } - - dependencies { - implementation platform("io.opentelemetry:opentelemetry-bom-alpha:JAVA_OTEL_VERSION") - implementation 'io.opentelemetry:opentelemetry-sdk' - implementation 'io.opentelemetry:opentelemetry-exporters-otlp' - - implementation platform("io.opentelemetry.instrumentation:opentelemetry-instrumentation-bom-alpha:OTEL_JAVA_INSTRUMENTATION_VERSION") - implementation 'io.opentelemetry.instrumentation:opentelemetry-micrometer-1.5' - } - ``` - - 正しいバージョンでスニペットを更新する必要があることに注意してください。 - - - - ### Micrometer を設定してデータを New Relic に転送する - - 以下は、Micrometer に OpenTelemetry Micrometer ブリッジを使用するように指示するコード スニペットの例です。 - - このスニペットはコードを更新し、OpenTelemetry が Micrometer データを検出し、そのデータを New Relic に転送できるようにします。 - - ```java - public OpenTelemetry openTelemetry() { - return OpenTelemetrySdk.builder() - .setMeterProvider( - SdkMeterProvider.builder() - .setResource( - Resource.getDefault() - .toBuilder() - .put("service.name", "micrometer-shim") - // Include instrumentation.provider=micrometer to enable - // micrometer metrics experience in New Relic - .put("instrumentation.provider", "micrometer") - .build()) - .registerMetricReader( - PeriodicMetricReader.builder( - OtlpHttpMetricExporter.builder() - .setEndpoint("https://otlp.nr-data.net") - .addHeader("api-key", - Optional - .ofNullable(System.getenv("NEW_RELIC_LICENSE_KEY")) - .filter(str -> !str.isEmpty() && !str.isBlank()) - .orElseThrow()) - // IMPORTANT: New Relic exports data using delta - // temporality rather than cumulative temporality - .setAggregationTemporalitySelector( - AggregationTemporalitySelector - .deltaPreferred()) - // Use exponential histogram aggregation for - // histogram instruments to produce better data - // and compression - .setDefaultAggregationSelector( - DefaultAggregationSelector.getDefault().with( - InstrumentType.HISTOGRAM, - Aggregation.base2ExponentialBucketHistogram())) - .build()) - // Match default micrometer collection interval of 60 - // seconds - .setInterval(Duration.ofSeconds(60)) - .build()) - .build()) - .build(); - } - ``` - - - - ### New Relicでデータを探す - - 数分待ってから、いくつかのテスト データをトリガーし、 **[one.newrelic.com](https://one.newrelic.com) > All Capabilities > APM & Services**に移動し、 **Services - OpenTelemetry**を見つけて、Micrometer でインストゥルメントされたサービスを選択します。 - - - -## 次は何ですか? [#whats-next] - -Micrometer データで New Relic を使用する方法の詳細については、次のドキュメントを参照してください。 - -* [ダッシュボードを使用してカスタム視覚化](/docs/query-your-data/explore-query-data/dashboards/introduction-dashboards)を作成する方法を学ぶ -* システムのパフォーマンスを追跡するための[アラートを設定する](/docs/tutorial-create-alerts/create-an-alert) -* [NRQLでデータをクエリする](/docs/nrql/get-started/introduction-nrql-how-nrql-works) \ No newline at end of file diff --git a/src/i18n/content/jp/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-best-practices-logs.mdx b/src/i18n/content/jp/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-best-practices-logs.mdx deleted file mode 100644 index 58dd5b31ea3..00000000000 --- a/src/i18n/content/jp/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-best-practices-logs.mdx +++ /dev/null @@ -1,207 +0,0 @@ ---- -title: OpenTelemetryのNew Relic -tags: - - Integrations - - Open source telemetry integrations - - OpenTelemetry - - Logs -metaDescription: Details on how New Relic works with OpenTelemetry logs -freshnessValidatedDate: '2024-05-17T00:00:00.000Z' -translationType: machine ---- - -このドキュメントでは、New Relic が専用の OTLP エンドポイントを通じて受信した OpenTelemetry ログを処理する方法に焦点を当てています。 - -OpenTelemetry ログを New Relic に送信するための一般的なワークフローは 2 つあります。 - -* [コレクターに直接](https://opentelemetry.io/docs/specs/otel/logs/#direct-to-collector): - - * アプリケーションは、ログを New Relic OTLP エンドポイントに直接送信できます。 - * 具体的な実装の詳細については、関連する[OpenTelemetry 言語ドキュメント](https://opentelemetry.io/docs/languages/)を参照してください。New Relic を使用したサービスの監視の詳細については、 [OpenTelemetry APM 監視を](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/get-started/apm-monitoring/opentelemetry-apm-intro/)参照してください。 - -* [ファイルまたは`stdout`経由](https://opentelemetry.io/docs/specs/otel/logs/#via-file-or-stdout-logs): - - * この方法では、ファイルまたは標準出力 ( `stdout` ) に書き込まれたアプリケーション ログをスクレイピングします。 - - * このタスクには通常、OpenTelemetry コレクターが使用されます。 スクレイピングされたログは New Relic OTLP エンドポイントに転送されます。 - - * 詳細な設定情報については、次のOpenTelemetryリソースを参照してください。 - - * [OpenTelemetry コレクター](https://opentelemetry.io/docs/collector/) - * [Kubernetes を使用したファイルログ レシーバー](https://opentelemetry.io/docs/kubernetes/collector/components/#filelog-receiver) - * [Log4j2 を使用した Java アプリケーションのワークフローを示す実用的な例](https://github.com/newrelic/newrelic-opentelemetry-examples/tree/main/other-examples/java/logs-in-context-log4j2) - -選択した収集方法に関係なく、統合を成功させるには、ログをこのエージェントにエクスポートするようにログ ソースを構成する必要があります。 続行する前に、必ず[デバイスの設定要件](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-otlp/#configure-endpoint-port-protocol)を確認してください。 - -## OTLP ログレコードのマッピング [#otlp-log-mapping] - -New Relic は OTLP ログ レコードを`Log`データ型にマッピングします。 以下の表は[、 `LogRecord` proto メッセージ](https://github.com/open-telemetry/opentelemetry-proto/blob/main/opentelemetry/proto/logs/v1/logs.proto)のフィールドが New Relic `Log`にどのようにマッピングされるかを示しています。 - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
- OTLP `logs.proto`フィールド - - New Relic `Log`フィールド -
- `ResourceLogs.Resource.attributes` - - 各キー値は`Log`フィールドの属性である**\[1]** -
- `ScopeLogs.InstrumentationScope.name` - - `otel.library.name` -
- `ScopeLogs.InstrumentationScope.version` - - `otel.library.version` -
- `ScopeLogs.InstrumentationScope.attributes` - - 各キー値は`Log`フィールドの属性である**\[1]** -
- `LogRecord.time_unix_nanos` - - `timestamp` **\[2]** -
- `LogRecord.severity_number` - - `severity.number` -
- `LogRecord.severity_text` - - `severity.text` -
- `LogRecord.body` - - `message`、および解析された属性**\[3]** -
- `LogRecord.attributes` - - 各キー値は`Log`フィールドの属性である**\[1]** -
- `LogRecord.dropped_attribute_count` - - `otel.dropped_attributes_count` -
- `LogRecord.flags` - - `w3c.flags` (整数) -
- `LogRecord.trace_id` - - `trace.id` -
- `LogRecord.span_id` - - `span.id` -
- -### 表の脚注 [#otlp-mapping-notes] - -**\[1]**リソース属性、スコープ属性、ログレコード属性、最上位ログレコードフィールド、および`LogRecord.body` **\[3]**からの解析された属性に競合がある場合、優先順位(最高から最低)は次のようになります: `LogRecord.body`からの解析された属性 -> 最上位`LogRecord.*`フィールド > `LogRecord.attributes` > `ScopeLogs.InstrumentationScope.attributes` > `ResourceLogs.Resource.attributes` 。 - -**\[2]** `LogRecord.time_unix_nanos`が存在しない場合は、 `timestamp` New Relicがデータを受信した時刻に設定されます。 - -**\[3]**[ログ解析は](/docs/logs/ui-data/parsing/)`LogRecord.body`に適用され、プレーンログテキストから属性を抽出しようとします。 たとえば、JSON 構造化ログ形式が使用される場合、キー値は結果のログの属性になります。 これは、ファイルまたは`stdout`からログを収集する場合に特に便利です。 この場合、ログ レコードに関連付けられたリソース属性 ( [APM サービス相関](#service-correlation)に必要) がなく、 `LogRecord.trace_id` / `LogRecord.span_id`の値 ([トレース相関](#trace-correlation)に必要) がないのが一般的です。 必要なフィールドを正常に解析できれば、相関関係は意図したとおりに機能します。 - -## OpenTelemetry APM サービスとの相関 [#service-correlation] - -ログは、 [必要な属性](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-best-practices-resources/#required-attributes)が含まれている場合、サービス エンティティと相関関係にあります。 通常、これらは`ResourceLogs.Resource.attributes`などのログのリソース属性から取得されますが、 [OTLP マッピングの脚注 3](#otlp-mapping-notes)で説明されているように`LogRecord.body`から解析することもできます。 - -サービスのログを表示するには、そのサービスの[ログ ページ](/docs/logs/ui-data/use-logs-ui/)に移動します。 - -## トレースとの相関 [#trace-correlation] - -`trace.id`属性と`span.id`属性を解決できる場合、ログはトレースと相関付けられます。 通常、これらは`LogRecord.trace_id`フィールドと`LogRecord.span_id`フィールドから取得されますが、 [OTLP マッピング](#otlp-mapping-notes)の脚注 3 で説明されているように`LogRecord.body`から解析することもできます。 - -特定のトレースのコンテキストで記録されたログを表示するには、次の 2 つのオプションがあります。 - -* [トレースの詳細ページ](/docs/distributed-tracing/ui-data/trace-details/#view-your-logs) 内の** Logs** \[ログ]タブに移動します。 -* サービスの[ログ ページ](/docs/logs/ui-data/use-logs-ui/)に移動し、ログをクリックしてログの詳細を開きます。 トレースに関連付けられている場合は、**Log details**\[ログの詳細]から**Trace details**\[トレースの詳細]に移動できます。 \ No newline at end of file diff --git a/src/i18n/content/jp/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-best-practices-metrics.mdx b/src/i18n/content/jp/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-best-practices-metrics.mdx deleted file mode 100644 index 205c691ee9e..00000000000 --- a/src/i18n/content/jp/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-best-practices-metrics.mdx +++ /dev/null @@ -1,458 +0,0 @@ ---- -title: OpenTelemetryの メトリクスNew Relic -tags: - - Integrations - - Open source telemetry integrations - - OpenTelemetry -metaDescription: Details on how New Relic works with OpenTelemetry metrics -freshnessValidatedDate: '2024-05-23T00:00:00.000Z' -translationType: machine ---- - -OpenTelemetry 、次元メトリックス[データ モデル](https://opentelemetry.io/docs/specs/otel/metrics/data-model/)、メトリックス テレメトリーを記録するための[API](https://opentelemetry.io/docs/specs/otel/metrics/api/) 、メトリックス データを集約およびエクスポートするための[SDK を](https://opentelemetry.io/docs/specs/otel/metrics/sdk/)提供します。 - -このページでは、New Relic OpenTelemetryが[New Relic OTLP インターフェース](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-otlp) 経由で受信した メトリックスをどのように処理するかについて説明します。OpenTelemetryメトリックスとNew Relicを統合するには、メトリックス ソースをこの エージェント にエクスポートするように構成する必要があります。 エージェント 設定の要件を確認してください。 OpenTelemetryメトリックスを使用したサービスの構成については、 [OpenTelemetry APM監視」](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/get-started/apm-monitoring/opentelemetry-apm-intro)を参照してください。 - -## 計装の種類からメトリクスの種類まで マッピング [#instrument-mapping] - -OpenTelemetryメトリクスAPI[いくつかの計装の種類](https://opentelemetry.io/docs/specs/otel/metrics/api/#instrument)を定義します。 インストゥルメントされたレコード測定値は集約され、特定のメトリック タイプとして OTLP 経由でエクスポートされます。 以下の表は、各OpenTelemetryメーターが集計およびエクスポートする方法のデフォルトの動作を示しています。 で各メトリック タイプがどのように処理されるかの詳細については[ 、「OTLP メトリック マッピング」を](#otlp-mapping)New Relic 参照してください。 - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
- 計装の種類 - - 使用例 - - デフォルトの集計 - - エクスポートされたメトリックスタイプ -
- [`Counter`](https://opentelemetry.io/docs/specs/otel/metrics/api/#counter) - - 処理されたバイト数 - - [サム](https://opentelemetry.io/docs/specs/otel/metrics/sdk/#sum-aggregation) - - [`Sum`メトリクス](https://github.com/open-telemetry/opentelemetry-proto/blob/a05597bff803d3d9405fcdd1e1fb1f42bed4eb7a/opentelemetry/proto/metrics/v1/metrics.proto#L217-L226)、 `is_monotonic=true` -
- [非同期カウンター](https://opentelemetry.io/docs/specs/otel/metrics/api/#asynchronous-counter) - - プロセス全体のCPU時間を観察する - - [サム](https://opentelemetry.io/docs/specs/otel/metrics/sdk/#sum-aggregation) - - [`Sum`メトリクス](https://github.com/open-telemetry/opentelemetry-proto/blob/a05597bff803d3d9405fcdd1e1fb1f42bed4eb7a/opentelemetry/proto/metrics/v1/metrics.proto#L217-L226)、 `is_monotonic=true` -
- [`UpDownCounter`](https://opentelemetry.io/docs/specs/otel/metrics/api/#updowncounter) - - キュー内のアイテム - - [サム](https://opentelemetry.io/docs/specs/otel/metrics/sdk/#sum-aggregation) - - [`Sum`メトリクス](https://github.com/open-telemetry/opentelemetry-proto/blob/a05597bff803d3d9405fcdd1e1fb1f42bed4eb7a/opentelemetry/proto/metrics/v1/metrics.proto#L217-L226)、 `is_monotonic=false` -
- [非同期アップダウンカウンタ](https://opentelemetry.io/docs/specs/otel/metrics/api/#asynchronous-updowncounter) - - 現在のメモリ使用量を観察する - - [サム](https://opentelemetry.io/docs/specs/otel/metrics/sdk/#sum-aggregation) - - [`Sum`メトリクス](https://github.com/open-telemetry/opentelemetry-proto/blob/a05597bff803d3d9405fcdd1e1fb1f42bed4eb7a/opentelemetry/proto/metrics/v1/metrics.proto#L217-L226)、 `is_monotonic=false` -
- [`Histogram`](https://opentelemetry.io/docs/specs/otel/metrics/api/#histogram) - - httpリクエストの持続時間 - - [明示的なバケットヒストグラム](https://opentelemetry.io/docs/specs/otel/metrics/sdk/#explicit-bucket-histogram-aggregation) - - [`Histogram`メトリクス](https://github.com/open-telemetry/opentelemetry-proto/blob/a05597bff803d3d9405fcdd1e1fb1f42bed4eb7a/opentelemetry/proto/metrics/v1/metrics.proto#L230-L236)**\[1]** -
- [`Gauge`](https://opentelemetry.io/docs/specs/otel/metrics/api/#gauge) - - CPUファン速度のイベントを変更する - - [最終値](https://opentelemetry.io/docs/specs/otel/metrics/sdk/#last-value-aggregation) - - [`Gauge` メトリック](https://github.com/open-telemetry/opentelemetry-proto/blob/a05597bff803d3d9405fcdd1e1fb1f42bed4eb7a/opentelemetry/proto/metrics/v1/metrics.proto#L211-L213) -
- [非同期ゲージ](https://opentelemetry.io/docs/specs/otel/metrics/api/#asynchronous-gauge) - - 現在の室温を観察する - - [最終値](https://opentelemetry.io/docs/specs/otel/metrics/sdk/#last-value-aggregation) - - [`Gauge` メトリック](https://github.com/open-telemetry/opentelemetry-proto/blob/a05597bff803d3d9405fcdd1e1fb1f42bed4eb7a/opentelemetry/proto/metrics/v1/metrics.proto#L211-L213) -
- -正しい計装タイプの選択の詳細については[、 OpenTelemetryの補足ガイドラインを](https://opentelemetry.io/docs/specs/otel/metrics/supplementary-guidelines/)参照してください。 - -**\[1]**ヒストグラム インストゥルメントされたは、指数ヒストグラムメトリックスに集約することもできます。 詳細については[、OTLP ヒストグラム メトリック](#otlp-histogram)を参照してください。 - -## OTLP メトリック マッピング [#otlp-mapping] - -New Relic OTLP メトリックを[`Metric` データ型](https://docs.newrelic.com/docs/data-apis/understand-data/metric-data/metric-data-type/#metric-types)にマッピングします。 以下の表は[、Metriks proto メッセージ](https://github.com/open-telemetry/opentelemetry-proto/blob/main/opentelemetry/proto/metrics/v1/metrics.proto)のフィールドがどのように解釈されるかを示しています。 /SDK によってさまざまなメトリック [タイプがどのように生成されるかの詳細については、「メトリック タイプへの計算の種類」 を参照してください。](#instrument-mapping)OpenTelemetryAPI - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
- OTLPメトリクス原始体 - - New Relic `Metric`フィールド -
- `ResourceMetrics.Resource.attributes` - - 各キー値は`Metric`の属性である**\[1]** -
- `ScopeMetrics.InstrumentationScope.name` - - `otel.library.name` -
- `ScopeMetrics.InstrumentationScope.version` - - `otel.library.version` -
- `ScopeMetrics.InstrumentationScope.attributes` - - 各キー値は`Metric`の属性である**\[1]** -
- `Metric.name` - - `metricName` -
- `Metric.description` - - `description` -
- `Metric.unit` - - `unit` -
- `Metric.*.data_points.start_time_unix_nano` - - `timestamp` -
- `Metric.*.data_points.time_unix_nano` - - `endTimestamp` -
- `Metric.*.data_points.attributes` - - 各キー値は`Metric`の属性である**\[1]** -
- `Metric.gauge.data_points` - - New Relic へのマップ[`gauge`](/docs/data-apis/understand-data/metric-data/metric-data-type/#metric-types) -
- `Metric.sum.data_points` - - New Relic [`count` 、 `cumulativeCount` 、または`gauge`](/docs/data-apis/understand-data/metric-data/metric-data-type/#metric-types)にマップします - - [OTLP合計メトリクス](#otlp-sum)を参照 -
- `Metric.histogram.data_points` - - New Relic へのマップ[`distribution`](/docs/data-apis/understand-data/metric-data/metric-data-type/#metric-types) - - [OTLPヒストグラムメトリクスを](#otlp-histogram)参照 -
- `Metric.exponential_histogram.data_points` - - New Relic へのマップ[`distribution`](/docs/data-apis/understand-data/metric-data/metric-data-type/#metric-types) - - [OTLPヒストグラムメトリクスを](#otlp-histogram)参照 -
- `Metric.summary.data_points` - - New Relic へのマップ[`summary`](/docs/data-apis/understand-data/metric-data/metric-data-type/#metric-types) - - [OTLPの概要を](https://github.com/open-telemetry/opentelemetry-proto/blob/a05597bff803d3d9405fcdd1e1fb1f42bed4eb7a/opentelemetry/proto/metrics/v1/metrics.proto#L254-L256)見る -
- -**\[1]** : リソース属性、スコープ属性、メトリクスポイント属性、および最上位のメトリクスフィールドで競合が発生した場合、優先順位(最高から最低)は次のようになります:最上位の`Metric.*`フィールド > `Metric.*.data_points.attributes` > `ScopeMetrics.InstrumentationScope.attributes` > `ResourceMetrics.Resource.attributes` 。 - -### OTLP 合計メトリック [#otlp-sum] - -OTLP [合計メトリクスは、](https://github.com/open-telemetry/opentelemetry-proto/blob/a05597bff803d3d9405fcdd1e1fb1f42bed4eb7a/opentelemetry/proto/metrics/v1/metrics.proto#L217-L226)時間の経過に伴う測定値の合計を表します。 合計には、値が単調に増加するか (つまり、上昇のみ可能)、そうでないか (つまり、上昇と下降が可能) を示す[`aggregation_temporality`](#aggregation-temporality)フィールドと`is_monotonic`フィールドが含まれます。 次の表は、New Relic がさまざまな合計の種類をどのように処理するかを示しています。 - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
- `is_monotonic` - - `aggregation_temporality` - - 行動 -
- `true` - - `cumulative` - - New Relic へのマップ[`cumulativeCount`](/docs/data-apis/understand-data/metric-data/metric-data-type/#metric-types) -
- `true` - - `delta` - - New Relic へのマップ[`count`](/docs/data-apis/understand-data/metric-data/metric-data-type/#metric-types) -
- `false` - - `cumulative` - - New Relic へのマップ[`gauge`](/docs/data-apis/understand-data/metric-data/metric-data-type/#metric-types) -
- `false` - - `delta` - - データが意味をなさないためサポートされていません。 詳細については[このディスカッションを](https://github.com/open-telemetry/opentelemetry-specification/pull/2314#pullrequestreview-877408961)参照してください。 -
- -### OTLP ヒストグラム メトリック [#otlp-histogram] - -OTLP [ヒストグラム メトリクス](https://github.com/open-telemetry/opentelemetry-proto/blob/a05597bff803d3d9405fcdd1e1fb1f42bed4eb7a/opentelemetry/proto/metrics/v1/metrics.proto#L230-L236)と[指数ヒストグラム メトリクスは、](https://github.com/open-telemetry/opentelemetry-proto/blob/a05597bff803d3d9405fcdd1e1fb1f42bed4eb7a/opentelemetry/proto/metrics/v1/metrics.proto#L240-L246)測定値の分布を表す合計、カウント、最小、最大、バケットなどの情報を使用して測定値の集団を要約します。 ヒストグラムの種類 (明示的なバケット ヒストグラムとも呼ばれます) には、明示的な境界を持つバケットがあります。 指数関数型には、指数式で記述される境界を持つバケットがあります。 どちらの種類にも[、集約時間](#aggregation-temporality)フィールドが含まれています。 - -ヒストグラムの両方の種類は、内部の基数 2 の指数ヒストグラム表現によってサポートされるNew Relic [`distribution`](/docs/data-apis/understand-data/metric-data/metric-data-type/#metric-types)に変換されます。 この表現は、OpenTelemetry 指数ヒストグラム形式にほぼ一致しています。 このため、 New Relic指数ヒストグラムが優先されます (指数ヒストグラムを優先するように OTLP を構成する方法の詳細については、「メトリクス ミストグラム[集計」](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-otlp/#metric-mistogram-aggregation)を参照してください)。 OpenTelemetry の明示的なバケット ヒストグラムの種類は、線形補間を使用して指数表現に変換されます。 詳しい説明については[NrSketchを](https://github.com/newrelic-experimental/newrelic-sketch-java#new-relic-sketch)参照してください。 - -負の無限大と正の無限大に境界を持つバケットは、New Relic ではゼロ幅のバケットとして表されます。 たとえば、境界が`[-∞, 10)`の OpenTelemetry バケットは、New Relic では`[10, 10)`として表されます。 その結果、ディストリビューションの最後に誇張されたバケット数が表示される場合があります。 - -### OTLPサマリーメトリクス [#otlp-summary] - -OTLP [サマリー メトリクスは、](https://github.com/open-telemetry/opentelemetry-proto/blob/a05597bff803d3d9405fcdd1e1fb1f42bed4eb7a/opentelemetry/proto/metrics/v1/metrics.proto#L254-L256)合計やカウントを含む一連の測定値を要約する点でヒストグラムに似ています。 ただし、ヒストグラムには測定値の分布を表すバケットが含まれますが、サマリーには分位数が含まれます。 これらの分位数は、空間的または時間的な再集約ができないため、用途が限られています。 レガシー サポート用の OpenTelemetry に含まれるサマリーと、OpenTelemetry API および SDK ではサマリーは生成されません。 - -要約は New Relic [`summary`](/docs/data-apis/understand-data/metric-data/metric-data-type/#metric-types)に翻訳されます。 - -## 集約の時間性 [#aggregation-temporality] - -OpenTelemetryの[集計時間](https://opentelemetry.io/docs/specs/otel/metrics/data-model/#temporality)の概念は、特定の Metrics データ ポイントが累積的な測定値セット (通常はアプリケーションの開始以降) を集計するか、最後のエクスポート以降の測定値のデルタ セットを集計するかを定義します。 OTLP[合計メトリクス](#otlp-sum)と[ヒストグラム](#otlp-histogram)メトリクスには、ポイントのセマンティクスを記述する`aggregation_temporality`フィールドがあります。 - -累積的時間メトリックとデルタ時間メトリックの両方を受け入れますが、 New Relic一般的にデルタ時間メトリック システムであるため、ユーザーに[は OTLP エクスポーターを設定してデルタ時間メトリックを優先するように](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-otlp/#metric-aggregation-temporality)推奨します。 - -時間性が累積的である場合、メトリックはデルタ表現に変換されます(累積値は[`cumulativeCount`](/docs/data-apis/understand-data/metric-data/metric-data-type/#metric-types)に対して保持されます)。ステートフル変換を使用すると、同じシリーズの 2 つの連続する累積ポイントからデルタを計算するステートフル プロセスが実行されます。 `Metric.*.data_points.start_time_unix_nano`はシリーズのリセットを検出するために使用されます。 - -## 模範となるサポート [#exemplars] - -OpenTelemetryメトリクス[サンプルは](https://opentelemetry.io/docs/specs/otel/metrics/data-model/#exemplars)現在New Relicではサポートされていません。 \ No newline at end of file diff --git a/src/i18n/content/jp/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-best-practices-resources.mdx b/src/i18n/content/jp/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-best-practices-resources.mdx deleted file mode 100644 index 3dc9d915c5a..00000000000 --- a/src/i18n/content/jp/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-best-practices-resources.mdx +++ /dev/null @@ -1,111 +0,0 @@ ---- -title: New Relic の OpenTelemetry リソース -tags: - - Integrations - - Open source telemetry integrations - - OpenTelemetry -metaDescription: Details on how New Relic works with OpenTelemetry resources -freshnessValidatedDate: '2024-05-08T00:00:00.000Z' -translationType: machine ---- - -OpenTelemetry からのすべてのデータは[リソース](https://opentelemetry.io/docs/concepts/resources)に関連付けられています。 リソースは、リソース属性としてテレメトリを生成するエンティティの表現です。 リソース属性は、リソースを New Relic の[エンティティ](/docs/new-relic-solutions/new-relic-one/core-concepts/what-entity-new-relic)の概念に適合させるために使用されます。 - -受信されたデータは、[エンティティ合成](/docs/entities/synthesis/)と呼ばれるプロセスを通じてエンティティに関連付けられます。このプロセスでは、存在するリソース属性が、データが関連付けられるエンティティのタイプを決定するルールと照合されます。 OpenTelemetry から取得されるデータの場合、エンティティ合成ルールは OpenTelemetry[リソースのセマンティック規則](https://opentelemetry.io/docs/specs/semconv/resource)を尊重するように設計されています。 - -リソース セマンティック規則は、さまざまな種類のエンティティを記述するためのさまざまな規則の集合を定義します。 たとえば、[サービス](https://opentelemetry.io/docs/specs/semconv/resource/#service)規則と[ホスト](https://opentelemetry.io/docs/specs/semconv/resource/host/)規則は、それぞれサービスまたはホスト インスタンスを記述するリソース属性を定義します。 - -## サポートされているエンティティタイプ [#supported-entity-types] - -New Relicここでは、OpenTelemetry インストゥルメンテーションを使用するときにサポートされる オブジェクト タイプについて説明します。サポートされている各エンティティ タイプには次のものが含まれます。 - -* エンティティ合成に必要なリソース属性。 -* New Relic UI の特定の側面を制御する推奨属性。 -* 存在する場合、 [エンティティ タグ](/docs/new-relic-solutions/new-relic-one/core-concepts/use-tags-help-organize-find-your-data/)となる属性。 - -### サービス [#services] - -サービス エンティティは[、サービス インスタンス](https://opentelemetry.io/docs/specs/semconv/resource/#service)を記述する OpenTelemetry リソースのセマンティック規則に従って合成されます。 - -OpenTelemetry を使用してサービス エンティティを監視する方法については、 [ドキュメントと例](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/get-started/opentelemetry-set-up-your-app)を参照してください。 - -#### 必要な属性 [#service-required-attributes] - -* [`service.name`](https://opentelemetry.io/docs/specs/semconv/attributes-registry/service) : UI に表示されるサービス名はこの値から取得されます。 - -#### 推奨属性 [#service-recommended-attributes] - -* [`service.instance.id`](https://opentelemetry.io/docs/specs/semconv/attributes-registry/service) : 同じサービスの複数のインスタンス間のファセットを有効にします。 -* [`telemetry.sdk.language`](https://opentelemetry.io/docs/specs/semconv/attributes-registry/telemetry) : この値が存在する場合、Java アプリケーションの JVM ランタイム ページなど、ランタイム固有の UI の表示が制御されます。 - -#### エンティティタグ [#service-entity-tags] - -* [`service.namespace`](https://opentelemetry.io/docs/specs/semconv/attributes-registry/service) -* [`telemetry.sdk.language`](https://opentelemetry.io/docs/specs/semconv/attributes-registry/telemetry) (言語タグとして追加) -* [`telemetry.sdk.version`](https://opentelemetry.io/docs/specs/semconv/attributes-registry/telemetry) -* [`k8s.cluster.name`](https://opentelemetry.io/docs/specs/semconv/attributes-registry/k8s) -* [`k8s.namespace.name`](https://opentelemetry.io/docs/specs/semconv/attributes-registry/k8s) -* [`k8s.deployment.name`](https://opentelemetry.io/docs/specs/semconv/attributes-registry/k8s) - -### ホスト [#hosts] - -ホスト エンティティは、[ホストを](https://opentelemetry.io/docs/specs/semconv/resource/host)記述する OpenTelemetry リソースのセマンティック規則に従って合成されます。 - -詳細については[、インフラストラクチャ モニタリングのコレクター](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/get-started/collector-infra-monitoring/opentelemetry-collector-infra-intro/)のホスト監視の例を参照してください。 - -#### 必要な属性 [#host-required-attributes] - -* [`host.name`](https://opentelemetry.io/docs/specs/semconv/attributes-registry/host) : UI に表示されるホスト名はこの値から取得されます。 -* [`host.id`](https://opentelemetry.io/docs/specs/semconv/attributes-registry/host) - -#### エンティティタグ [#host-entity-tags] - -* [`cloud.provider`](https://opentelemetry.io/docs/specs/semconv/attributes-registry/cloud) -* [`cloud.account.id`](https://opentelemetry.io/docs/specs/semconv/attributes-registry/cloud) -* [`cloud.region`](https://opentelemetry.io/docs/specs/semconv/attributes-registry/cloud) -* [`cloud.availability_zone`](https://opentelemetry.io/docs/specs/semconv/attributes-registry/cloud) -* [`cloud.platform`](https://opentelemetry.io/docs/specs/semconv/attributes-registry/cloud) -* [`host.id`](https://opentelemetry.io/docs/specs/semconv/attributes-registry/host) -* [`host.name`](https://opentelemetry.io/docs/specs/semconv/attributes-registry/host) -* [`host.type`](https://opentelemetry.io/docs/specs/semconv/attributes-registry/host) -* [`host.arch`](https://opentelemetry.io/docs/specs/semconv/attributes-registry/host) -* [`host.image.name`](https://opentelemetry.io/docs/specs/semconv/attributes-registry/host) -* [`host.image.id`](https://opentelemetry.io/docs/specs/semconv/attributes-registry/host) -* [`host.image.version`](https://opentelemetry.io/docs/specs/semconv/attributes-registry/host) - -### Redisインスタンス [#redis] - -Redis インスタンスは、コレクター[Redis レシーバー](https://github.com/open-telemetry/opentelemetry-collector-contrib/tree/main/receiver/redisreceiver)から発行されたデータを使用して合成されます。 残念ながら、現在、 Redisにはセマンティック規則がなく、 Redisレシーバーが発行するメトリック内の属性を識別する規則もありません。 したがって、ユーザーは以下に説明する属性を手動で含める必要があります。 - -詳細については、Redis [インフラストラクチャモニタリング用コレクター](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/get-started/collector-infra-monitoring/opentelemetry-collector-infra-intro/) の の例を参照してください。 - -#### 必要な属性 [#redis-required-attributes] - -* [`server.address`](https://opentelemetry.io/docs/specs/semconv/attributes-registry/server/) : UI に表示される Redis インスタンス名はこの値から取得されます。 -* [`server.port`](https://opentelemetry.io/docs/specs/semconv/attributes-registry/server/) - -#### エンティティタグ [#redis-entity-tags] - -* `redis.version` -* `redis.role` -* [`host.type`](https://opentelemetry.io/docs/specs/semconv/attributes-registry/host) -* [`cloud.provider`](https://opentelemetry.io/docs/specs/semconv/attributes-registry/cloud) -* [`cloud.account.id`](https://opentelemetry.io/docs/specs/semconv/attributes-registry/cloud) -* [`cloud.region`](https://opentelemetry.io/docs/specs/semconv/attributes-registry/cloud) -* `instrumenation.name` -* [`server.address`](https://opentelemetry.io/docs/specs/semconv/attributes-registry/server/) -* [`server.port`](https://opentelemetry.io/docs/specs/semconv/attributes-registry/server/) - -## サポートされているエンティティ関係 [#supported-entity-relationships] - -New Relic OpenTelemetryインストゥルメンテーションからソースされたエンティティ間のリレーションシップをサポートします。 これらの関係は、適切な関係基準が満たされると自動的に合成されます。 以下は現在サポートされている関係とその必要な基準です。 - -### ホストへのサービス [#service-to-host] - -サービスとホスト エンティティの関係では、サービスに`host.id`リソース属性が含まれ、それが実行されているホストの`host.id`と一致する必要があります。 - -## エンティティにカスタムタグを追加する [#tags] - -タグを使用して、UI 内のエンティティを整理およびフィルターできます。[タグは](/docs/new-relic-solutions/new-relic-one/core-concepts/use-tags-help-organize-find-your-data/)、監視対象のアプリやホストなどのさまざまなデータ セットに追加されるキーと値のペア (例: `team: operations`です。アカウント ID など、特定の重要な属性はタグとして自動的に使用可能になります。独自のカスタム タグを[UI に直接](/docs/new-relic-solutions/new-relic-one/core-concepts/use-tags-help-organize-find-your-data/#add-tags)追加するか、以下のいずれかの方法を使用して追加することもできます。 - -`tags`で始まるリソース属性を追加すると、New Relic のエンティティにタグが付けられます。 たとえば、属性`tags.mytag=myvalue`を追加すると、エンティティ タグ`mytag=myvalue`が生成されます。 \ No newline at end of file diff --git a/src/i18n/content/jp/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-best-practices-traces.mdx b/src/i18n/content/jp/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-best-practices-traces.mdx deleted file mode 100644 index 38a618782db..00000000000 --- a/src/i18n/content/jp/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-best-practices-traces.mdx +++ /dev/null @@ -1,262 +0,0 @@ ---- -title: New Relic の OpenTelemetry トレース -tags: - - Integrations - - Open source telemetry integrations - - OpenTelemetry -metaDescription: Details on how New Relic works with OpenTelemetry traces -freshnessValidatedDate: '2024-05-23T00:00:00.000Z' -translationType: machine ---- - -OpenTelemetry 、トレース テレメトリを記録するための[API](https://opentelemetry.io/docs/specs/otel/trace/api/) 、スパン データをエクスポートするための[SDK](https://opentelemetry.io/docs/specs/otel/trace/sdk/) 、アプリケーション境界を越えてトレースするための[コンテキスト トレース](https://opentelemetry.io/docs/specs/otel/context/api-propagators/)など、豊富なトレース エコシステムを提供します。 - -このページでは、New Relic が[New Relic OTLP エンドポイント](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-otlp)経由で受信した OpenTelemetry スパンをどのように処理するかについて説明します。 OpenTelemetryをNew Relicと統合するには、この エージェント にエクスポートするようにトレース ソースを構成する必要があります。 エージェント 設定の要件を確認してください。 OpenTelemetryを使用してサービスを構成する方法については、 [OpenTelemetry APM監視」](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/get-started/apm-monitoring/opentelemetry-apm-intro)を参照してください。 - -## OTLPスパンマッピング [#otlp-mapping] - -New Relic は OTLP スパンを`Span`データ型にマッピングします。 次の表は、 [Span proto メッセージ](https://github.com/open-telemetry/opentelemetry-proto/blob/main/opentelemetry/proto/trace/v1/trace.proto)のフィールドがどのように解釈されるかを示しています。 - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
- OTLP スパンのプロトフィールド - - New Relic `Span`フィールド -
- `ResourceSpans.Resource.attributes` - - 各キー値は`Span`の属性である**\[1]** -
- `ScopeSpans.InstrumentationScope.name` - - `otel.library.name` -
- `ScopeSpans.InstrumentationScope.version` - - `otel.library.version` -
- `ScopeSpans.InstrumentationScope.attributes` - - 各キー値は`Span`の属性である**\[1]** -
- `Span.trace_id` - - `trace.id` -
- `Span.span_id` - - `id` -
- `Span.trace_state` - - `w3c.tracestate` -
- `Span.parent_span_id` - - `parent.id` -
- `Span.name` - - `name` -
- `Span.kind` - - `span.kind` -
- `Span.start_time_unix_nano` - - `timestamp` -
- `Span.end_time_unix_nano` - - `druation.ms` (計算は `Span.start_time_unix_nano` -
- `Span.attributes` - - 各キー値は`Span`の属性である**\[1]** -
- `Span.dropped_attribute_count` - - `otel.dropped_attributes_count` -
- `Span.events` - - 各イベントは`SpanEvent`として記録され、 `span.id` / `trace.id`はソーススパンを参照し、カウントは次のように保存されます。 `nr.spanEventCount` -
- `Span.events[*].time_unix_nano` - - `timestamp`として保存 `SpanEvent` -
- `Span.events[*].name` - - `name`として保存 `SpanEvent` -
- `Span.events[*].attributes` - - 各キー値は、 `SpanEvent` -
- `Span.events[*].dropped_attributes_count` - - `ote.dropped_Attributes_count`として保存 `SpanEvent` -
- `Span.dropped_events_count` - - `otel.dropped_events_count` -
- `Span.status.message` - - `otel.status_description` -
- `Span.status.code` - - `otel.status_code` -
- -### 表の脚注 [#otlp-mapping-notes] - -**\[1]**リソース属性、スコープ属性、スパン属性、および最上位のスパンフィールドで競合が発生した場合、優先順位(最高から最低)は次のようになります:最上位の`Span.*`フィールド > `Span.attributes` > `ScopeSpans.InstrumentationScope.attributes` > `ResourceSpans.Resource.attributes` 。 - -## スパリンクのサポート [#span-links-support] - -OpenTelemetry[スパンのリンクは](https://opentelemetry.io/docs/concepts/signals/traces/#span-links)現在 New Relic ではサポートされていません。 \ No newline at end of file diff --git a/src/i18n/content/jp/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-data-overview.mdx b/src/i18n/content/jp/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-data-overview.mdx deleted file mode 100644 index 256876c29ce..00000000000 --- a/src/i18n/content/jp/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-data-overview.mdx +++ /dev/null @@ -1,28 +0,0 @@ ---- -title: New RelicのOpenTelemetryデータ -tags: - - Integrations - - Open source telemetry integrations - - OpenTelemetry - - OTLP -metaDescription: Overview of OpenTelemetry data in New RElic -freshnessValidatedDate: '2024-05-31T00:00:00.000Z' -translationType: machine ---- - -OpenTelemetryには、New Relic[ OTLP](https://opentelemetry.io/docs/specs/otlp/) を介して と統合できるインストゥルメンテーションとツールの豊富なエコシステムがあります。このドキュメントでは、New Relic が OTLP データを受信、処理、取り込む方法について説明します。 一般的なインテグレーション パターンの詳細については[、 OpenTelemetryとNew Relicの使用を開始する」](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/get-started/opentelemetry-get-started-intro/)を参照してください。 - -[New RelicOTLP](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-otlp/) OpenTelemetryセクション では、New Relic[ トラブルシューティング](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-otlp-troubleshooting/) 情報とともに、 を使用したあらゆる インテグレーションに関連する OTLP 設定要件について説明します。 - -OTLP は、トレース、メトリック、ログの信号に分かれており、すべてリソースの概念が含まれています。 それぞれの処理方法と取り込み方法の詳細については、次のページを参照してください。 - -* [New Relic の OpenTelemetry トレース](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-best-practices-traces/) -* [OpenTelemetryの メトリクスNew Relic](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-best-practices-metrics/) -* [OpenTelemetryのNew Relic](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-best-practices-logs/) -* [New Relic の OpenTelemetry リソース](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-best-practices-resources/) - -すべての OTLP データは[New Relic Platform](/docs/new-relic-solutions/new-relic-one/introduction-new-relic-platform/)に取り込まれます。New Relic Platform には、次のような問題の特定と診断に役立つ強力な汎用の可用性ツールが多数含まれています。 - -* [アラート](/docs/alerts-applied-intelligence/overview/): 信号が閾値を超えたときに通知します。 -* [カスタム クエリ](/docs/query-your-data/explore-query-data/get-started/introduction-querying-new-relic-data/): アドホック データ分析と探索用のカスタムNRQLクエリを記述します。 -* [ダッシュボード](/docs/query-your-data/explore-query-data/dashboards/introduction-dashboards/): アプリケーションの固有の要件を反映したカスタム データ視覚化を作成します。 \ No newline at end of file diff --git a/src/i18n/content/jp/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-otlp-troubleshooting.mdx b/src/i18n/content/jp/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-otlp-troubleshooting.mdx deleted file mode 100644 index 5e4bf868f2b..00000000000 --- a/src/i18n/content/jp/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-otlp-troubleshooting.mdx +++ /dev/null @@ -1,67 +0,0 @@ ---- -title: New Relic OTLP トラブルシューティング -tags: - - Integrations - - Open source telemetry integrations - - OpenTelemetry - - OTLP - - Troubleshoot -metaDescription: Troubleshoot common OTLP ingest errors -freshnessValidatedDate: '2024-05-06T00:00:00.000Z' -translationType: machine ---- - -New Relic は数年前から[ネイティブ OTLP 取り込みを](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-otlp/)サポートしてきました。 時々発生するサポートケースを処理する過程で、ユーザーが直面する一般的な問題について学びました。 一部の人にとっては、問題は簡単に特定して解決できます。 インターネットは信頼性が低く、顧客、New Relic、どちらにも制御できないパブリック ネットワーク インフラストラクチャなど、さまざまな関係者の制御下にある多くのコンポーネント (ソフトウェア、ネットワーク、ハードウェアなど) が関係していることを考えると、その他の攻撃は非常に困難です。 非常に複雑で、設定や障害箇所が多いため、どこに問題があるのか、どのように対処するのが最善なのかを判断することが難しい場合があります。 - -サポート ケースの処理には時間がかかり、顧客 (そして New Relic) にとってイライラすることもあります。 そのため、共通の理解を確立し、可能な場合は問題を自己診断して修正するためのツールを提供するために、このトラブルシューティング ガイドを作成しました。 - -まず、 [New Relic OTLP 設定の要件と推奨事項](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-otlp/)を確認してください。 これには、New Relic で OTLP を使用することを検討しているすべての人が知っておくべき重要なアドバイスとコンテキストが含まれています。 - -次に、以下のセクションを参照してください。 - -* [一般的な トラブルシューティング](#general-troubleshooting): 一般的な OTLP の問題のトラブルシューティング -* [問題カタログ](#issue-catalog): 一般的な顧客の問題と軽減手順 - -## 一般的なトラブルシューティング [#general-troubleshooting] - -New Relic OTLP エンドポイントで問題が発生した場合は、まず次の基本的なトラブルシューティング手順に従ってください。 サポート チケットを開くことになった場合、最初に次のことをお尋ねします。 - -1. **診断ログを有効にします。** 発生する可能性のあるエラーの詳細を確認できるように、OTLP クライアントでログ記録が有効になっていることを確認します。 ログを有効にするメカニズムは実装によって異なります。 関連するドキュメントを参照してください。 -2. **New Relic の OTLP エンドポイントに到達可能であることをテストします。** 問題のマシンから簡単なシェルコマンド`curl http://otlp.nr-data.net`を実行すると、ローカルネットワークの設定に問題があるかどうか(つまり、 ファイアウォールの制限により、New Relic への接続が妨げられています。 -3. **[`NrIntegrationError`](/docs/data-apis/manage-data/nrintegrationerror/)イベントを確認します。** New Relic OTLP インジェストは、成功ステータス コードを返す前に、最小限の検証を同期的に実行します。 アプリケーションログにエクスポート エラーの兆候が見られず、 New Relicにデータが表示されない場合は、`NrIntegrationError` をクエリしてみてください。 非同期検証中に検出されたデータに問題がある可能性があります。 -4. **問題が局所的であるかどうかを判断します。** 多くの場合、エラーは特定のアプリケーションまたは環境に限定されます。 このような場合、問題のある領域と正常に機能している領域の違いを評価すると役立ちます。 -5. **無効な API キーの兆候を探します。** New Relic OTLP エンドポイントでは[、 `api-key`ヘッダーを設定する必要があります](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-otlp/#api-key)。 無効または欠落している API キーは、HTTP 403 または 401 ステータス コード、あるいは gRPC の Unauthenticated または PermissionDenied ステータス コードで表示される一般的な問題です。 これらが表示された場合は、API キーが有効であり、適切に設定されていることを確認してください。 -6. **再試行後にエクスポートが成功したかどうかを確認します。** [再試行を有効にすることをお勧めします](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-otlp/#retry)。エクスポートの試行は、最初は一時的なエラーで失敗することがありますが、再試行後に成功することが予想されます。 ただし、 [SLA は](/docs/licenses/license-information/referenced-policies/service-level-availability-commitment/)あります。 一時的なエラーが頻繁に発生し、SLA を超えていると思われる場合は、サポート ケースを開いてください。 -7. **一時的なエラーが再試行されていない兆候がないか確認します。** 最善の努力を払っているにもかかわらず、New Relic OTLP エンドポイントが一時的なエラーに対して再試行不可能なステータス コードを返すという稀なケースが発生する可能性があります。 このようなシナリオに遭遇したと思われる場合は、サポート ケースを開いてください。 - -## 発行カタログ [#issue-catalog] - -以下の表は、 New Relic OTLP インテグレーションでお客様が遭遇した問題をまとめたものです。 多くは適切な設定を行えば簡単に解決できます。 **フィンガープリント**列には、アプリケーションが特定のクラスの問題に遭遇したときの一般的なログが表示されます。 軽減手順については、 **Known resolution** \[既知の解決策]および**Notes** \[注記]の 列を参照してください。 - -| OTLP プロトコル バージョン | タイプ | 言語 / エコシステム | 指紋 | 既知の解決策 | メモ | -| ---------------- | -------------------------- | ----------- | --------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------- | -------------------------------------------------------------------------------------------------------------------------------------- | ------------------------------------------------------------------------------------------------------------------------------------------------------------ | -| HTTP | 401 - 権限がありません | Java | `io.opentelemetry.exporter.internal.http.HttpExporter - Failed to export spans. Server responded with HTTP status code 401.` | [APIキーを含める](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-otlp/#api-key) | `api-key`ヘッダーがありません | -| HTTP | 401 - 権限がありません | コレクター | `Exporting failed. The error is not retryable. Dropping data. {"kind": "exporter", "data_type": "traces", "name": "otlphttp", "error": "Permanent error: error exporting items, request to https://otlp.nr-data.net/v1/traces responded with HTTP Status Code 401, Message=, Details=[]", "dropped_items": 4}` | [APIキーを含める](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-otlp/#api-key) | `api-key`ヘッダーがありません | -| HTTP | 401 - 権限がありません | Go | `failed to upload metrics: failed to send metrics to https://otlp.nr-data.net/v1/metrics: 401 Unauthorized` | [APIキーを含める](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-otlp/#api-key) | `api-key`ヘッダーがありません | -| HTTP | 403禁止します | Java | `io.opentelemetry.exporter.internal.http.HttpExporter - Failed to export spans. Server responded with HTTP status code 403.` | [APIキーを確認する](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-otlp/#api-key) | `api-key`ヘッダーが無効です | -| HTTP | 403禁止します | Java | `Exporting failed. The error is not retryable. Dropping data. {"kind": "exporter", "data_type": "traces", "name": "otlphttp", "error": "Permanent error: error exporting items, request to https://otlp.nr-data.net/v1/traces responded with HTTP Status Code 403, Message=, Details=[]", "dropped_items": 14}` | [APIキーを確認する](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-otlp/#api-key) | `api-key`ヘッダーが無効です | -| HTTP | 403禁止します | Go | `traces export: failed to send to https://otlp.nr-data.net/v1/traces: 403 Forbidden` | [APIキーを確認する](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-otlp/#api-key) | `api-key`ヘッダーが無効です | -| HTTP | 403禁止します | .NET | `Exporter failed send data to collector to {0} endpoint. Data will not be sent. Exception: {1}{https://otlp.nr-data.net:4317/v1/traces}{System.Net.Http.HttpRequestException: Response status code does not indicate success: 403 (Forbidden).` | [APIキーを確認する](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-otlp/#api-key) | `api-key`ヘッダーが無効です | -| HTTP | タイムアウト | Java | `io.opentelemetry.exporter.internal.http.HttpExporter - Failed to export spans. The request could not be executed. Full error message: timeout` | [バッチ処理/タイムアウトの調整](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-otlp/#payload) | エクスポートがタイムアウトした後に発生します。 タイムアウト設定とクライアント ネットワークの状態を確認します。
クライアント側のネットワークと構成を除外した場合は、サポート ケースを開いてください。 | -| HTTP | タイムアウト | コレクター | `max elapsed time expired failed to make an HTTP request: Post \"https://otlp.nr-data.net/v1/traces\": context deadline exceeded (Client.Timeout exceeded while awaiting headers)` | [バッチ処理/タイムアウトの調整](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-otlp/#payload) | 通常、再試行が失敗し、エクスポートがタイムアウトした後に発生します。 クライアント ネットワーク、クライアントの再試行/タイムアウト設定、またはNew Relicネットワーク/サーバーに関連している可能性があります。
クライアント側のネットワークと設定を除外した場合は、サポート ケースを開いてください。 | -| HTTP | タイムアウト | Go | `failed to upload metrics: context deadline exceeded: retry-able request failure` | [バッチ処理/タイムアウトの調整](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-otlp/#payload) | エクスポートがタイムアウトした後に発生します。 タイムアウト設定とクライアント ネットワークの状態を確認します。
クライアント側のネットワークと構成を除外した場合は、サポート ケースを開いてください。 | -| HTTP | レート制限 | コレクター | `Exporting failed. Will retry the request after interval. {"kind": "exporter", "data_type": "metrics", "name": "otlphttp", "error": "Throttle (29s), error: error exporting items, request to https://otlp.nr-data.net:443/v1/metrics responded with HTTP Status Code 429", "interval": "29s"}` | [バッチ処理の調整](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-otlp/#payload) | レート制限を超えました。
バッチ処理設定を調整してリクエストレートを減らします。 | -| gRPC | コード 2 - 不明
タイムアウト | Java | `io.opentelemetry.exporter.internal.grpc.GrpcExporter - Failed to export spans. Server responded with gRPC status code 2. Error message: timeout` | [バッチ処理/タイムアウトの調整](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-otlp/#payload) | エクスポートがタイムアウトした後に発生します。 タイムアウト設定とクライアント ネットワークの状態を確認します。
クライアント側のネットワークと構成を除外した場合は、サポート ケースを開いてください。 | -| gRPC | コード 2 - 不明
HTTP 500 | コレクター | `rpc error: code = Unknown desc = unexpected HTTP status code received from server: 500 (Internal Server Error); malformed header: missing HTTP content-type` | | New Relic ネットワーク ベンダーは、一時的なエラーに対して再試行不可能なステータス コードを生成しました。
これが繰り返し発生する場合は、サポート ケースを開いてください。 | -| gRPC | コード 2 - 不明
HTTP 530 | コレクター | `rpc error: code = Unknown desc = unexpected HTTP status code received from server: 530 (); transport: received unexpected content-type \"text/html; charset=UTF-8\"` | | New Relic ネットワーク ベンダーは、一時的なエラーに対して再試行不可能なステータス コードを生成しました。
これが繰り返し発生する場合は、サポート ケースを開いてください。 | -| gRPC | コード 4 - 期限超過 | コレクター | `rpc error: code = DeadlineExceeded desc = context deadline exceeded` | [バッチ処理/タイムアウトの調整](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-otlp/#payload) | 通常、再試行が失敗し、エクスポートがタイムアウトした後に発生します。 クライアント ネットワーク、クライアントの再試行/タイムアウト設定、またはNew Relicネットワーク/サーバーに関連している可能性があります。
クライアント側のネットワークと設定を除外した場合は、サポート ケースを開いてください。 | -| gRPC | コード 7 - 認証されていません | Java | `io.opentelemetry.exporter.internal.grpc.GrpcExporter - Failed to export spans. Server responded with gRPC status code 7.` | [APIキーを含める](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-otlp/#api-key) | `api-key`ヘッダーがありません | -| gRPC | コード 7 - 認証されていません | .NET | `Exporter failed send data to collector to {0} endpoint. Data will not be sent. Exception: {1}{https://otlp.nr-data.net:4317/}{Grpc.Core.RpcException: Status(StatusCode="Unauthenticated", Detail="")` | [APIキーを含める](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-otlp/#api-key) | `api-key`ヘッダーがありません | -| gRPC | コード 8 - リソース不足 | コレクター | `rpc error: code = ResourceExhausted desc = Too many requests", "dropped_items": 1024` | [バッチ処理の調整](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-otlp/#payload) | レート制限を超えました。
バッチ処理設定を調整してリクエストレートを減らします。 | -| gRPC | コード 13 - 内部 | Java | `io.opentelemetry.exporter.internal.grpc.GrpcExporter - Failed to export spans. Server responded with gRPC status code 13.` | | 診断するには情報が不十分です。 New Relic ネットワーク ベンダーが一時的なエラーに対して再試行不可能なステータス コードを生成した可能性があります。
これが繰り返し発生する場合は、サポート ケースを開いてください。 | -| gRPC | コード 13 - 内部
HTTP 400 | コレクター | `rpc error: code = Internal desc = unexpected HTTP status code received from server: 400 (Bad Request)` | | New Relic ネットワーク ベンダーは、一時的なエラーに対して再試行不可能なステータス コードを生成しました。
これが繰り返し発生する場合は、サポート ケースを開いてください。 | -| gRPC | コード 14 - 利用不可
接続リセット | コレクター | `rpc error: code = Unavailable desc = error reading from server: read tcp 100.127.0.171:47470->162.247.241.110:4317: read: connection reset by peer` | [チューニング再試行](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-otlp/#retry) | 再試行すれば解決するはずです。 コレクターに再試行バックプレッシャーを処理するのに十分なリソースがあることを確認します。 | -| gRPC | コード 14 - 利用不可
HTTP 502 | コレクター | `rpc error: code = Unavailable desc = unexpected HTTP status code received from server: 502 (Bad Gateway); transport: received unexpected content-type "text/html"` | [チューニング再試行](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-otlp/#retry) | 再試行すれば解決するはずです。 コレクターに再試行バックプレッシャーを処理するのに十分なリソースがあることを確認します。 | -| gRPC | コード 14 - 利用不可
HTTP 503 | コレクター | `rpc error: code = Unavailable desc = unexpected HTTP status code received from server: 503 (Service Unavailable)` | [チューニング再試行](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-otlp/#retry) | 再試行すれば解決するはずです。 コレクターに再試行バックプレッシャーを処理するのに十分なリソースがあることを確認します。 | -| gRPC | コード 16 - 権限が拒否されました | Java | `io.opentelemetry.exporter.internal.grpc.GrpcExporter - Failed to export spans. Server responded with gRPC status code 16.` | [APIキーを確認する](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-otlp/#api-key) | `api-key`ヘッダーが無効です | -| gRPC | コード 16 - 権限が拒否されました | .NET | `Exporter failed send data to collector to {0} endpoint. Data will not be sent. Exception: {1}{https://otlp.nr-data.net:4317/}{Grpc.Core.RpcException: Status(StatusCode="PermissionDenied", Detail="")` | [APIキーを確認する](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-otlp/#api-key) | `api-key`ヘッダーが無効です | \ No newline at end of file diff --git a/src/i18n/content/jp/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-otlp.mdx b/src/i18n/content/jp/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-otlp.mdx deleted file mode 100644 index d05a9aa1c9d..00000000000 --- a/src/i18n/content/jp/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-otlp.mdx +++ /dev/null @@ -1,282 +0,0 @@ ---- -title: New Relic OTLP エージェント -tags: - - Integrations - - Open source telemetry integrations - - OpenTelemetry - - OTLP -metaDescription: Configure OTLP exporter for New Relic -freshnessValidatedDate: '2024-05-06T00:00:00.000Z' -translationType: machine ---- - -[OpenTelemetry Protocol](https://github.com/open-telemetry/opentelemetry-proto/blob/main/docs/specification.md) (略して OTLP) は、 OpenTelemetryプロジェクト用に設計された汎用テレメトリデータ配信プロトコルです。 各 OpenTelemetry 言語 SDK は OTLP エクスポーターを提供しており、OpenTelemetry コレクターには OTLP レシーバーとエクスポーターがあります。 さらに、OpenTelemetry プロジェクト以外のさまざまなツールでも OTLP エクスポートのサポートが追加されました。 - -New Relic はネイティブ OTLP インジェストをサポートしており、OpenTelemetry データを New Relic プラットフォームに送信するための推奨方法としてこれを推奨しています。 このドキュメントでは、設定要件や推奨事項など、 New Relicの OTLP サポートについて詳しく説明します。 - -## あなたが始める前に [#before-you-begin] - -* まだ行っていない場合は、無料[のNewRelicアカウント](https://newrelic.com/signup)にサインアップしてください。 -* データをレポートする [アカウントの ライセンスキー を取得します。](https://one.newrelic.com/launcher/api-keys-ui.launcher)New Relicこのライセンスキーは[、 `api-key`ヘッダーを構成する](#api-key)ために使用されます。 - -## 構成: OTLP エンドポイント、ポート、プロトコル [#configure-endpoint-port-protocol] - -要件レベル:**Required** \[必須] - -OTLP データを New Relic に送信するように設定するには、環境に応じて、以下の表の関連するエンドポイントとポートを使用するように OTLP エクスポーターを設定する必要があります。 - -エンドポイントを構成するメカニズムはさまざまですが、OpenTelemetry 言語 SDK は通常、 `OTEL_EXPORTER_OTLP_ENDPOINT=`環境変数の設定をサポートしています (詳細については、 [OpenTelemetry のドキュメント](https://opentelemetry.io/docs/specs/otel/protocol/exporter/)を参照してください)。 - -さらに、利用可能な場合は、 [OTLP/HTTP バイナリ protobuf バージョン](https://opentelemetry.io/docs/specs/otlp/#binary-protobuf-encoding)のプロトコルを使用するように OTLP エクスポーターを構成する必要があります。 New Relic は OTLP のすべてのバージョンをサポートしていますが、OTLP/HTTP バイナリ プロトコル バッファは、パフォーマンスが明らかに低下することなく、gRPC よりも堅牢であることが証明されています。 - -エンドポイントを構成するメカニズムはさまざまですが、OpenTelemetry 言語 SDK は通常、 `OTEL_EXPORTER_OTLP_PROTOCOL=http/protobuf`環境変数の設定をサポートしています (詳細については、 [OpenTelemetry のドキュメント](https://opentelemetry.io/docs/specs/otel/protocol/exporter/)を参照してください)。 - -コレクターを使用している場合は、 [otlphttpexporter](https://github.com/open-telemetry/opentelemetry-collector/tree/main/exporter/otlphttpexporter)を使用することをお勧めします。 - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
- 環境 - - gRPC - - HTTP - - 終点 - - サポートされているポート -
- US OTLP - - ✅ - - ✅ - - `https://otlp.nr-data.net` - - `443`、 `4317` 、 `4318` -
- EU OTLP - - ✅ - - ✅ - - `https://otlp.eu01.nr-data.net` - - `443`、 `4317` 、 `4318` -
- US FedRAMP OTLP
(詳細については、 [FedRAMPへの準拠](/docs/security/security-privacy/compliance/fedramp-compliant-endpoints/#otlp-api)を参照してください) -
- ✅ - - ✅ - - `https://gov-otlp.nr-data.net` - - `443`、 `4317` 、 `4318` -
- 無限のトレース
(エンドポイントの詳細については[ベストプラクティス](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-best-practices-traces#infinite-tracing)を参照してください) -
- ✅ - - ✅ - - `https://{trace-observer}` - - `443` -
- - - - OTLP 標準では、gRPC トラフィックはポート`4317`に、HTTP トラフィックはポート`4318`に指定されています。New Relic US FedRamp ネイティブ OTLP エンドポイントは、これらの仕様に準拠しています。また、ポート`443`での gRPC トラフィックと HTTP トラフィックの両方が許可されます。`https`スキームはポート`443`を自動的に選択するため、簡単にするためにポートを省略できます。 - - - - OTLP/HTTP のエンドポイント URL に関する[OpenTelemetry ドキュメント](https://opentelemetry.io/docs/specs/otel/protocol/exporter/#endpoint-urls-for-otlphttp)によれば、OTLP/HTTP トラフィックを送信し、シグナルに依存しない環境変数 ( `OTEL_EXPORTER_OTLP_ENDPOINT` ) を使用している場合は、単に`OTEL_EXPORTER_OTLP_ENDPOINT=https://otlp.nr-data.net:{port}`を設定するだけで、エクスポーターはシグナル タイプに適切なパス ( `v1/traces`や`v1/metrics`など) を追加する必要があります。 - - シグナル固有の環境変数 ( `OTEL_EXPORTER_OTLP_TRACES_ENDPOINT`や`OTEL_EXPORTER_OTLP_METRICS_ENDPOINT`など) を使用している場合は、適切なパスを含める必要があります。 例えば: - - ``` - OTEL_EXPORTER_OTLP_TRACES_ENDPOINT=https://otlp.nr-data.net:4318/v1/traces - ``` - - パスが上記の構文に従っていない場合、 `404`エラーが発生します。 シグナル固有の環境変数はシグナルに依存しない環境変数よりも優先されることに注意してください。 - - - -## 設定: TLS 暗号化 [#tls] - -要件レベル:**Required** \[必須] - -OTLP データを New Relic に送信するには、TLS 1.2 を使用するように OTLP エクスポーターを設定する必要があります (詳細については、 [TLS 暗号化](/docs/new-relic-solutions/get-started/networks/#tls)を参照してください)。 通常、SDK およびコレクターのエクスポーターはデフォルトでこの要件を満たします。 - -多くの OTLP エクスポータは`https`エンドポイント スキームから TLS 設定を推測しますが、一部の gRPC エクスポータでは TLS を明示的に有効にする必要がある場合があります。 gRPC TLS を構成するメカニズムはさまざまですが、OpenTelemetry 言語 SDK は通常、 `OTEL_EXPORTER_OTLP_INSECURE=false`環境変数の設定をサポートしています (詳細については、 [OpenTelemetry のドキュメント](https://opentelemetry.io/docs/specs/otel/protocol/exporter/)を参照してください)。 - -## 設定: APIキーの設定 [#api-key] - -要件レベル:**Required** \[必須] - -OTLP データをNew Relicに送信するには、[ライセンスキー](#prereqs)に設定された値を持つ `api-key` という名前のヘッダーを含めるように OTLP エクスポーターを構成する必要があります。 そうしないと、認証エラーが発生します。 - -ヘッダーを構成するメカニズムはさまざまですが、OpenTelemetry 言語 SDK は通常、 `OTEL_EXPORTER_OTLP_HEADERS=api-key=`環境変数の設定をサポートしています (詳細については、 [OpenTelemetry のドキュメント](https://opentelemetry.io/docs/specs/otel/protocol/exporter/)を参照してください)。 - -## 設定: 属性の制限 [#attribute-limits] - -要件レベル:**Required** \[必須] - -OTLP データをNew Relicに送信するには、テレメトリ ソースをNew Relicプロパティ制限に準拠するように構成する必要があります。 これを行わないと、非同期データ検証中に[`NrIntegrationError`](/docs/data-apis/manage-data/nrintegrationerror/)イベントが発生する可能性があります。 - -属性の制限は次のとおりです。 - -* 属性名の最大長:255文字 -* 属性値の最大長:4095文字 -* 属性配列値の最大サイズ: 64 エントリ - -その他の制限については[、メトリクス 属性 制限](/docs/data-apis/ingest-apis/metric-api/metric-api-limits-restricted-attributes/)および[イベント 属性 制限を](/docs/data-apis/ingest-apis/event-api/introduction-event-api/#limits)参照してください。 - -属性制限を構成するメカニズムはさまざまですが、OpenTelemetry 言語 SDK は通常、 `OTEL_ATTRIBUTE_VALUE_LENGTH_LIMIT=4095`および`OTEL_ATTRIBUTE_COUNT_LIMIT=64`環境変数の設定をサポートしています (詳細については、 [OpenTelemetry のドキュメント](https://opentelemetry.io/docs/specs/otel/configuration/sdk-environment-variables/)を参照してください)。 - -コレクターを使用する場合、 [変換プロセッサは](https://github.com/open-telemetry/opentelemetry-collector-contrib/tree/main/processor/transformprocessor)属性を New Relic の制限に切り捨てるように構成できます。 - -メモ: - -* リソース属性は属性制限の対象となりますが、それを制限するための標準環境変数はありません。 リソース属性が許容制限を超えている場合は、コレクター[変換プロセッサ](https://github.com/open-telemetry/opentelemetry-collector-contrib/tree/main/processor/transformprocessor)を使用して切り捨てるか、リソース属性を別の値に上書きすることを検討してください。 -* 属性名を制限する標準的なメカニズムはありません。 ただし、インストゥルメンテーションでは通常、 New Relic制限を超える属性名は生成されません。 名前の長さ制限に遭遇した場合は、コレクターを使用して属性を削除します。 - -## 設定: ペイロードのバッチ処理、圧縮、レート制限 [#payload-limits] - -要件レベル:**Required** \[必須] - -OTLP データをNew Relicに送信するには、ペイロードが最大ペイロード サイズである 1 MB (10^6 バイト) より小さくなければなりません。 大きなペイロードはエラー ステータス コードで拒否されます。 大きなペイロードの場合、エラー ステータス コードが返される前にタイムアウトが発生してエクスポートに失敗することもあります。 - -さらに、New Relic は[レート制限](/docs/data-apis/manage-data/view-system-limits/#all_products)を課します。 レート制限を超えると、リクエストはエラー ステータス コードで拒否されます。 - -ペイロード サイズの制限とレート制限を回避するには、適切な間隔でデータがエクスポートされる適切なバッチ サイズを使用するように OTLP エクスポーターを構成する必要があります。 - -バッチ処理を構成するメカニズムは異なります。 OpenTelemetry SDK は通常、次の環境変数の設定をサポートしています (詳細については[OpenTelemetry のドキュメント](https://opentelemetry.io/docs/specs/otel/configuration/sdk-environment-variables/)を参照してください)。 - -* `OTEL_BSP_*` スパンの -* `OTEL_METRIC_EXPORT_*` メトリクス用 -* `OTEL_BLRP_*` ログ用 - -コレクターを使用する場合、 [バッチ プロセッサが](https://github.com/open-telemetry/opentelemetry-collector/tree/main/processor/batchprocessor)バッチ サイズを制御します。 - -さらに、ペイロード サイズを縮小し、ペイロード サイズの制限に遭遇する可能性を制限するために、圧縮を有効にする必要があります。 New Relic は`gzip`および`zstd`圧縮をサポートしています。 `zstd`圧縮はパフォーマンスが高く、エクスポーターがサポートしている場合は推奨されます。 ベンチマーク情報の詳細については、 [圧縮の比較を](https://github.com/open-telemetry/opentelemetry-collector/blob/main/config/configgrpc/README.md#compression-comparison)参照してください。 - -エンドポイントを構成するメカニズムはさまざまですが、OpenTelemetry 言語 SDK は通常、 `OTEL_EXPORTER_OTLP_COMPRESSION=gzip`環境変数の設定をサポートしています (詳細については、 [OpenTelemetry のドキュメント](https://opentelemetry.io/docs/specs/otel/protocol/exporter/)を参照してください)。 - -コレクターを使用する場合、 `gzip`デフォルトの圧縮ですが、 `zstd`をオプションで構成できます。 - -## 設定: 再試行 [#retry] - -要件レベル:**Recommended** \[推奨] - -OTLP データを New Relic に送信するには、一時的なエラーが発生したときに再試行するように OTLP エクスポーターを構成する必要があります。 インターネットは信頼性が低く、再試行に失敗するとデータが失われる可能性が高くなります。 - -再試行を構成するメカニズムは異なります。 一部の OpenTelemetry SDK には言語固有の環境変数がある場合がありますが (たとえば、 [java は](https://github.com/open-telemetry/opentelemetry-java/tree/main/sdk-extensions/autoconfigure)`OTEL_EXPERIMENTAL_EXPORTER_OTLP_RETRY_ENABLED=true`設定をサポートしています)、一般的なメカニズムはありません。 プログラムによる設定が必要になる場合があります。 - -コレクターを使用する場合、 `otlphttpexporter`と`otlpexporter`デフォルトで再試行されます。 詳細については、 [exporterhelper を](https://github.com/open-telemetry/opentelemetry-collector/blob/main/exporter/exporterhelper/README.md)参照してください。 - -## 設定: メトリクス集約時間 [#metric-aggregation-temporality] - -要件レベル:**Recommended** \[推奨] - -OTLP メトリックス データをNew Relicに送信するには、デルタ[集計の時間性](https://opentelemetry.io/docs/specs/otel/metrics/data-model/#temporality)を優先するように OTLP メトリックス エクスポーターを構成する必要があります。 New Relic累積集計時間性をサポートしていますが、 New Relicメトリックス アーキテクチャーは一般的にデルタ メトリックス システムです。 デフォルトの累積設定を使用すると、通常、SDK からのメモリ使用量が増加し、データの取り込み量が多くなります。 - -エンドポイントを構成するメカニズムはさまざまですが、OpenTelemetry 言語 SDK は通常、 `OTEL_EXPORTER_OTLP_METRICS_TEMPORALITY_PREFERENCE=delta`環境変数の設定をサポートしています (詳細については、 [OpenTelemetry のドキュメント](https://opentelemetry.io/docs/specs/otel/metrics/sdk_exporters/otlp/)を参照してください)。 手動で時間を設定する場合は、計装の種類ごとに次のように設定します。 - -* カウンター、非同期カウンター、ヒストグラム: デルタ -* UpDownCounter、非同期 UpDownCounter、ゲージ、非同期ゲージ: 累積 - -累積的な時間性は、 [New Relicゲージ タイプ](https://docs.newrelic.com/docs/data-apis/understand-data/metric-data/metric-data-type/)にマップされ、通常は累積値を使用して分析される インストゥルメントされた に使用されます。 - -## 設定: メトリクス ミストグラム集計 [#metric-mistogram-aggregation] - -要件レベル:**Recommended** \[推奨] - -OTLP メトリックス データをNew Relicに送信するには、ヒストグラム インストゥルメントされた測定値を指数[ヒストグラム](https://opentelemetry.io/docs/specs/otel/metrics/data-model/#exponentialhistogram)に集約するように OTLP メトリックス エクスポーターを構成する必要があります。 デフォルトの明示的なバケット ヒストグラムで使用される静的バケットとは対照的に、指数ヒストグラムは記録された測定値の範囲を反映するようにバケットを自動的に調整します。 さらに、ネットワーク経由で送信するために、高度に圧縮された表現を使用します。 指数ヒストグラムは、New Relic プラットフォームでより有用な分布データを提供します。 - -エンドポイントを構成するメカニズムはさまざまですが、OpenTelemetry 言語 SDK は通常、 `OTEL_EXPORTER_OTLP_METRICS_DEFAULT_HISTOGRAM_AGGREGATION=base2_exponential_bucket_histogram`環境変数の設定をサポートしています (詳細については、 [OpenTelemetry のドキュメント](https://opentelemetry.io/docs/specs/otel/metrics/sdk_exporters/otlp/)を参照してください)。 - -## OTLPプロトコルバージョン [#otlp-version-support] - -New Relic は[OTLP リリース v0.18.0](https://github.com/open-telemetry/opentelemetry-proto/releases/tag/v0.18.0)を使用します。 それ以降のバージョンはサポートされていますが、新しい機能はまだ実装されていません。 0.18.0 で利用できなくなった実験的な機能はサポートされていません。 - -## OTLP 応答ペイロード [#payloads] - -New Relic OTLP エンドポイント応答ペイロードに関する次の詳細に注意してください。 - -* New Relic からの成功した応答には、データ タイプに基づいて[Protobuf でエンコードされた応答](https://github.com/open-telemetry/opentelemetry-specification/blob/v1.8.0/specification/protocol/otlp.md#success)ではなく、応答本文が含まれません。 -* New Relic は、認証、ペイロード サイズ、レート制限の検証後に応答します。 ペイロードの内容の検証は非同期で行われます。 したがって、データの取り込みが最終的に失敗し、 [`NrIntegrationError`](/docs/data-apis/manage-data/nrintegrationerror/)イベントが発生したにもかかわらず、New Relic は成功ステータス コードを返す場合があります。 -* New Relic からの[失敗応答には](https://github.com/open-telemetry/opentelemetry-specification/blob/v1.8.0/specification/protocol/otlp.md#failures)`Status.message`または`Status.details`含まれません。 \ No newline at end of file diff --git a/src/i18n/content/jp/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/get-started/apm-monitoring/opentelemetry-apm-intro.mdx b/src/i18n/content/jp/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/get-started/apm-monitoring/opentelemetry-apm-intro.mdx deleted file mode 100644 index 8e6230364e0..00000000000 --- a/src/i18n/content/jp/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/get-started/apm-monitoring/opentelemetry-apm-intro.mdx +++ /dev/null @@ -1,111 +0,0 @@ ---- -title: 'APM : OpenTelemetryでアプリとサービスを監視' -tags: - - Integrations - - Open source telemetry integrations - - OpenTelemetry -metaDescription: Set up OpenTelemetry-based APM monitoring with New Relic. -freshnessValidatedDate: '2024-05-14T00:00:00.000Z' -translationType: machine ---- - -import moreintegrationsNativeOtlpNoCollector from 'images/more-integrations_diagram_native-otlp-no-collector.webp' - -import moreintegrationsNativeOtlpWithCollector from 'images/more-integrations_diagram_native-otlp-with-collector.webp' - -OpenTelemetry 、可用性データの収集、処理、エクスポートのための汎用APIと SDK を提供します。 これらのAPIと SDK の最も一般的な使用例の 1 つは、インストゥルメンテーションがインストールされてアプリまたはサービスを監視するAPM監視です。 - -このページでは、 を使用したOpenTelemetry ベースのAPM 監視の一般的なセットアップ手順について説明します。New Relic - - - - ## 始める前に [#prereqs] - - * New Relicアカウントに[サインアップ](https://newrelic.com/signup)します。 - * データを報告するNewRelicアカウントの[ライセンスキー](https://one.newrelic.com/launcher/api-keys-ui.launcher)を取得します。 - - - - ## OpenTelemetry を使用してアプリまたはサービスを計測する [#instrument] - - OpenTelemetry 、インストゥルメントされたアプリケーション用の[言語固有のAPIと SDK を](https://opentelemetry.io/docs/languages/)提供します。 ほとんどの言語は、一般的なライブラリとフレームワーク向けの豊富な[インストゥル](https://opentelemetry.io/docs/concepts/instrumentation/)メント セットを提供します。 - - 使い始める際の参考にしていただけるよう、さまざまな言語で簡単なサンプル アプリケーションを提供しています。 各言語ごとに、その言語で一般的な Web フレームワークを使用してアプリケーションが構築されます。 以下の例は設定方法を示しています。 - - * New Relic に表示されるサービス名。 - * [New Relic OTLP エンドポイント](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-otlp)にデータを送信するための OpenTelemetry Protocol (OTLP) エクスポーター。 - * 最高の New Relic エクスペリエンスを実現するために OpenTelemetry を最適化するための追加の推奨設定。 - - - - - - - - - - - - - - - - 利用可能なインストゥルメンテーションの詳細とより高度なシナリオについては、関連する[OpenTelemetry言語ドキュメント](https://opentelemetry.io/docs/languages/)を参照してください。 - - - OpenTelemetry がサポートする任意の言語を使用して、New Relic にデータを送信できます。 ただし、上記の例は[サポートされている言語](https://opentelemetry.io/docs/languages/)のサブセットのみを反映しています。 - - あなたの言語が恋しいですか? [GitHub で問題を開いて](https://github.com/newrelic/newrelic-opentelemetry-examples/issues/new?assignees=&labels=enhancement%2C+needs-triage&projects=&template=enhancement.md&title=)例をリクエストしてください。 - - - - - ## NewRelicUIでデータを表示する [#view-data] - - アプリがインストゥルメントされ、 New Relicにデータをエクスポートするように構成されると、 New Relic UIでデータを見つけることができるようになります。 - - * **All entities -> Services - OpenTelemetry** - - でエンティティを見つけます。 エンティティ名は、アプリの`service.name`リソース属性の値に設定されます。 New RelicサービスエンティティがOpenTelemetryリソース属性からどのように派生するかの詳細については、 [サービス](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-best-practices-resources/#services)を参照してください。 - - * [NRQL](/docs/nrql/get-started/introduction-nrql-new-relics-query-language/)を使用して、 [トレース](https://one.newrelic.com/launcher/nr1-core.explorer?overlay=eyJuZXJkbGV0SWQiOiJkYXRhLWV4cGxvcmF0aW9uLnF1ZXJ5LWJ1aWxkZXIiLCJpbml0aWFsQWN0aXZlSW50ZXJmYWNlIjoibnJxbEVkaXRvciIsImluaXRpYWxOcnFsVmFsdWUiOiIiLCJpbml0aWFsUXVlcmllcyI6W3sibnJxbCI6IkZST00gU3BhbiBTRUxFQ1QgY291bnQoKikgd2hlcmUgbmV3cmVsaWMuc291cmNlPSclb3RscCUnIFRJTUVTRVJJRVMifV0sImluaXRpYWxDaGFydFNldHRpbmdzIjp7ImNoYXJ0VHlwZSI6IkNIQVJUX0xJTkUiLCJsaW1pdCI6NzU0MiwibGlua2VkRW50aXR5R3VpZCI6bnVsbCwibGlua2VkRGFzaGJvYXJkSWQiOm51bGwsInlTY2FsZSI6eyJzdGF0aWMiOmZhbHNlLCJkb21haW4iOltudWxsLG51bGxdfSwieVplcm8iOnRydWV9fQo=)、 [メトリック](https://one.newrelic.com/launcher/nr1-core.explorer?overlay=eyJuZXJkbGV0SWQiOiJkYXRhLWV4cGxvcmF0aW9uLnF1ZXJ5LWJ1aWxkZXIiLCJpbml0aWFsQWN0aXZlSW50ZXJmYWNlIjoibnJxbEVkaXRvciIsImluaXRpYWxOcnFsVmFsdWUiOiIiLCJpbml0aWFsUXVlcmllcyI6W3sibnJxbCI6IkZST00gTWV0cmljIFNFTEVDVCBjb3VudCgqKSB3aGVyZSBuZXdyZWxpYy5zb3VyY2UgTElLRSAnJW90bHAlJyBUSU1FU0VSSUVTIn1dLCJpbml0aWFsQ2hhcnRTZXR0aW5ncyI6eyJjaGFydFR5cGUiOiJDSEFSVF9MSU5FIiwibGltaXQiOjc1NDIsImxpbmtlZEVudGl0eUd1aWQiOm51bGwsImxpbmtlZERhc2hib2FyZElkIjpudWxsLCJ5U2NhbGUiOnsic3RhdGljIjpmYWxzZSwiZG9tYWluIjpbbnVsbCxudWxsXX0sInlaZXJvIjp0cnVlfX0K)、および[ログ](https://one.newrelic.com/launcher/nr1-core.explorer?overlay=eyJuZXJkbGV0SWQiOiJkYXRhLWV4cGxvcmF0aW9uLnF1ZXJ5LWJ1aWxkZXIiLCJpbml0aWFsQWN0aXZlSW50ZXJmYWNlIjoibnJxbEVkaXRvciIsImluaXRpYWxOcnFsVmFsdWUiOiIiLCJpbml0aWFsUXVlcmllcyI6W3sibnJxbCI6IkZST00gTG9nIFNFTEVDVCBjb3VudCgqKSB3aGVyZSBuZXdyZWxpYy5zb3VyY2U9JyVvdGxwJScgVElNRVNFUklFUyJ9XSwiaW5pdGlhbENoYXJ0U2V0dGluZ3MiOnsiY2hhcnRUeXBlIjoiQ0hBUlRfTElORSIsImxpbWl0Ijo3NTQyLCJsaW5rZWRFbnRpdHlHdWlkIjpudWxsLCJsaW5rZWREYXNoYm9hcmRJZCI6bnVsbCwieVNjYWxlIjp7InN0YXRpYyI6ZmFsc2UsImRvbWFpbiI6W251bGwsbnVsbF19LCJ5WmVybyI6dHJ1ZX19Cg==)を直接クエリします。 - - * 詳細については[、OpenTelemetry APM UI](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/get-started/apm-monitoring/opentelemetry-apm-ui)を参照してください。 - - エンティティが見つからず、NRQL でデータが表示されない場合は、 [「OTLP トラブルシューティング」](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-otlp-troubleshooting)を参照してください。 - - - -## New Relic エージェントと OpenTelemetry ツールを同じプロセスで実行する。 [#apm-agents] - -New RelicのエージェントやOpenTelemetryのツール(SDK、エージェントなど)は、市場に数多く存在するAPM製品の一つです。 - -ある言語では、ほとんどすべてのAPM製品が、同じ低レベルの言語フックとランタイムフックを使って動作します。言語のアーキテクチャにもよるが、これはバイトコード操作やモンキーパッチのような技術で実現されることが多い。 - -APM製品が実行中のコードを変更する方法は複雑なため、ある製品が同じプロセスで実行されている別の製品と互換性がある保証はない。せいぜい、互いに気づかないうちに共存し、アプリケーションから独立してテレメトリーを生成する程度でしょう。最悪の場合、互いに干渉し合い、予測不可能な動作が発生する可能性があります。 - -New Relic は、弊社の APM エージェントが同じプロセスで実行されている別の APM 製品と互換性があることを保証することはできません。お客様のニーズに最も適したものを選択されることをお勧めします。 \ No newline at end of file diff --git a/src/i18n/content/jp/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/get-started/apm-monitoring/opentelemetry-apm-ui.mdx b/src/i18n/content/jp/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/get-started/apm-monitoring/opentelemetry-apm-ui.mdx deleted file mode 100644 index 5bf8ed145b8..00000000000 --- a/src/i18n/content/jp/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/get-started/apm-monitoring/opentelemetry-apm-ui.mdx +++ /dev/null @@ -1,150 +0,0 @@ ---- -title: OpenTelemetryAPMUI -tags: - - Integrations - - Open source telemetry integrations - - OpenTelemetry -metaDescription: The OpenTelemetry APM UI provides tools for identifying and diagnosing problems with services monitoring with OpenTelemetry. -freshnessValidatedDate: '2024-05-17T00:00:00.000Z' -translationType: machine ---- - -import opentelemetryViewSpanEvents from 'images/opentelemetry_screenshot-crop_view-span-events.webp' - -OpenTelemetry APM UI は、 [サービス エンティティ](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-best-practices-resources/#services)で利用できる厳選されたエクスペリエンスです。 New RelicとOpenTelemetryを使用してサービスを構成していない場合は、 [OpenTelemetry APM監視」](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/get-started/apm-monitoring/opentelemetry-apm-intro/)を参照してください。 - -OpenTelemetry APM UI ページは、問題を迅速に特定して診断できるように設計されています。 多くの場合、データはさまざまな[OpenTelemetry セマンティック規則](https://opentelemetry.io/docs/specs/semconv/)に準拠する必要がありますが、一部は汎用的です。 各ページの詳細情報と要件については以下を参照してください。 - -* [概要ページ](#summary-page) -* [トレースページの配布](#distributed-tracing-page) -* [サービスマップページ](#service-map-page) -* [トランザクションのページ](#transactions-page) -* [データベースページ](#databases-page) -* [外部サービスページ](#externals-page) -* [JVM ランタイム ページ](#jvm-runtime-page) -* [ランタイムページへ](#go-runtime-page) -* [ログページ](#logs-page) -* [Errors Inboxページ](#errors-inbox-page) -* [メトリクスエクスプローラーページ](#metrics-explorer-page) - -次の New Relic の概念は、ページ間で繰り返されるか、重複しています。 - -* [黄金の信号](#golden-signals) -* [フィルターでデータを絞り込む](#narrow-with-filters) -* [メトリクスまたはスパンの切り替え](#metrics-spans-toggle) - -## OpenTelemetry APM サービスを探す [#find-apm-services] - -OpenTelemetry APM サービスを見つけるには、 **All entities > Services > OpenTelemetry**または**APM & Services** \[APM とサービス]に移動します。 サービスをクリックすると、サービスの[概要ページ](#summary-page)に移動します。 - -エンティティ エクスプローラー内では、 [エンティティ タグ](/docs/new-relic-solutions/new-relic-one/core-concepts/use-tags-help-organize-find-your-data/)でフィルターできます。 エンティティ タグの計算方法の詳細については、 [New Relic の OpenTelemetry リソース](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-best-practices-resources)を参照してください。 - -## ページ: 概要 [#summary-page] - -概要ページには、次のようなサービスの健全性の概要が表示されます。 - -* **ゴールデンシグナル**: レスポンスタイム、完了、エラー率。 これらがどのように計算されるかの詳細については、 [golden signals](#golden-signals)を参照してください。 -* **関連エンティティ**: このサービスと通信する他のサービスおよび関連インフラストラクチャ。 詳細は[サービスマップを](#service-map)ご覧ください。 -* **アクティビティ**: このサービスに対してアクティブなアラートのステータス。 -* **ディストリビューティッド(分散)トレーシング インサイト**: 下流または上流のインフラストラクチャがパフォーマンスの低下に寄与しているかどうかを確認します。 詳細については[、関連するトレース エンティティ信号](/docs/distributed-tracing/ui-data/related-trace-entity-signals/)を参照してください。 -* **インスタンス**: サービスが水平方向にスケーリングされた場合のインスタンスごとのゴールデンシグナルの内訳。 `service.instance.id`リソース 属性に依存します (詳細については[、サービス エレメント 属性を](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-best-practices-resources/#services)参照してください)。 - -## ページ: ディストリビューティッド(分散)トレーシング [#distributed-tracing-page] - -ディストリビューティッド(分散)ト レーシング ページでは、 OpenTelemetryトレース データの詳細が提供されています。 ページの使用情報については[、ディストリビューティッド(分散)トレーシングを](/docs/distributed-tracing/ui-data/understand-use-distributed-tracing-ui/)参照してください。 データが [OpenTelemetryNew Relic](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-best-practices-traces)に取り込まれる方法の詳細についてはOpenTelemetryNew Relic 、 Relic の を参照してください。 - -[ゴールデンシグナル](#golden-signals)と同様に、スパンのステータスが`ERROR`に設定されている場合 (たとえば、 `otel.status_code = ERROR` )、スパンはエラーとして分類されます。 スパンはエラーの場合、**エラーの詳細**にスパンのステータスの説明(たとえば、 `otel.status_description` )が表示されます。 - -OpenTelemetry span イベントは、特定のスパンに追加のイベント コンテキスト情報を添付します。 これらは例外情報をキャプチャするために最もよく使用されます。 利用可能な場合は、**トレースの詳細**でスパンのイベントを表示できます。 注意: スパンの例外イベントが存在するだけでは、スパン自体がエラーとして分類されるわけではありません。 スパン ステータスが`ERROR`に設定されているスパンのみがエラーとして分類されます。 - -Screenshot showing the right pane showing the two links for span events - -## ページ: サービスマップ [#service-map-page] - -サービス マップ ページでは、アーキテクチャ全体を視覚的に表示します。 詳細については[サービス マップ](/docs/new-relic-solutions/new-relic-one/ui-data/service-maps/service-maps/)を参照してください。 - -## ページ: 履歴書 [#transactions-page] - -トランザクション ページには、サービスの[トランザクション](/docs/apm/transactions/intro-transactions/transactions-new-relic-apm/#txn-defined)に関する問題を特定し、分析するためのツールが提供されます。 - -メトリクスの場合、クエリはデータが[http メトリクス](https://opentelemetry.io/docs/specs/semconv/http/http-metrics/)または[rpc メトリクス](https://opentelemetry.io/docs/specs/semconv/rpc/rpc-metrics/)のセマンティック規則に準拠していると想定します。 `http.route`属性と`rpc.method`属性は、トランザクションによるリスト表示とフィルタリングに使用されます。 - -スパンの場合には、クエリは汎用的であり、最上位レベルのスパンのデータ モデルのみを利用します。 スパンは[、golden シグナルで説明されているように、スイッチング完了とレスポンス](#golden-signals)タイムにカウントされます。 スパンの名フィールドは、トランザクションによるリスト表示とフィルタリングに使用されます。 - -## ページ: データベース [#databases-page] - -データベース ページには、サービスのデータベース クライアント操作に関する問題を特定し、分析するためのツールが用意されています。 - -現在、利用できるセマンティック規則がないため、データベースのメトリックスベースのビューはありません。 - -スパンの場合には、クエリはデータが[DB スパンの](https://opentelemetry.io/docs/specs/semconv/database/database-spans/)セマンティック規則に準拠していると想定します。 スパン名、 `db.system` 、 `db.sql.table` 、 `db.operation`属性は、データベース操作の一覧表示とフィルタリングに使用されます。 - -## ページ: 外部サービス [#externals-page] - -外部ページには、呼び出し元エンティティ (上流サービス) や呼び出し先エンティティ (下流サービス) などのサービスの外部呼び出しに関する問題を特定し、分析するためのツールが用意されています。 - -外部サービスページのメトリックスベースのビューはありません。 - -スパンの場合には、クエリは汎用的であり、最上位レベルのスパンのデータ モデルのみを利用します。 スパンは、サービスを終了する場合、外部サービスの完了と応答時間にカウントされ、ヒューリスティック`WHERE span.kind = client OR span.kind = producer`を使用して計算されます。 データベース クライアント サービスは、 `WHERE db.system is null`を使用して除外されます ([データベース ページ](#databases-page)を参照)。 [ゴールデンシグナル](#golden-signals)と同様に、スパンのステータスコードが`ERROR` (たとえば、 `otel.status_code = ERROR` ) の場合、そのスパンはエラーになります。 利用可能な場合、 [http span](https://opentelemetry.io/docs/specs/semconv/http/http-spans/)および[rpc span](https://opentelemetry.io/docs/specs/semconv/rpc/rpc-spans/)セマンティック規則のデータを使用して、外部サービス呼び出しを分類します。 - -## ページ: JVM ランタイム [#jvm-runtime-page] - -JVM ランタイム ページには、Java サービスの JVM の問題を特定し、分析するためのツールが提供されています。 このページは、 [OpenTelemetry java](https://opentelemetry.io/docs/languages/java/)を使用するサービスに対してのみ表示されます。 個別のサービス インスタンスを区別するために、ページでは`service.instance.id`リソース プロパティを設定する必要があります (詳細については[、サービス インスタンス プロパティ](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-best-practices-resources/#services)を参照してください)。 - -JVMランタイム ページには、ランタイムの問題とサービスの使用状況を関連付けるために、 JVMランタイム メトリックスの横にゴールデン シグナルが表示されます。 [span-metriks](#metrics-spans-toggle)トグルは[、ゴールデン シグナルが](#golden-signals)span データによって駆動されるか、metriks データによって駆動されるかを決定します。 JVMランタイム メトリックにはスパンベースのビューはありません。 - -メトリックスの場合、クエリはデータが[JVMメトリックスの](https://opentelemetry.io/docs/specs/semconv/runtime/jvm-metrics/)セマンティック規則に準拠していると想定します。 これらの規則は、OpenTelemetry[OpenTelemetry Java](https://github.com/open-telemetry/opentelemetry-java-instrumentation/tree/main/instrumentation/runtime-telemetry/runtime-telemetry-java8/library) OpenTelemetryエージェントに自動的に含まれる ランタイム インストゥルメンテーション ライブラリ に組み込まれていることに注意してください。 - -## ページ: Go ランタイム [#go-runtime-page] - -Go ランタイム ページには、Go サービスのランタイムの問題を特定し、分析するためのツールが提供されています。 このページは、 [OpenTelemetry Go](https://opentelemetry.io/docs/languages/go/)を使用するサービスに対してのみ表示されます。 個別のサービス インスタンスを区別するために、ページでは`service.instance.id`リソース プロパティを設定する必要があります (詳細については[、サービス インスタンス プロパティ](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-best-practices-resources/#services)を参照してください)。 - -Go ランタイム ページには、ランタイムの問題とサービスの使用状況を関連付けるために、Go ランタイム メトリクスの横にゴールデン シグナルが表示されます。 [span-metriks](#metrics-spans-toggle)トグルは[、ゴールデン シグナルが](#golden-signals)span データによって駆動されるか、metriks データによって駆動されるかを決定します。 Go ランタイムメトリックスにはスパンベースのビューはありません。 - -メトリクスの場合、クエリは[OpenTelemetry Go ランタイム インストゥルメンテーション ライブラリ](https://github.com/open-telemetry/opentelemetry-go-contrib/tree/main/instrumentation/runtime)によってデータが生成されることを前提としています。 なお、現在、Go ランタイム メトリックスにはセマンティック規則はありません。 - -## ページ: ログ [#logs-page] - -ログ ページには、問題を特定し、サービスのログを分析するためのツールが提供されています。 詳細については、[ログ UI を](/docs/logs/ui-data/use-logs-ui/)参照してください。 - -## ページ: Errors Inbox [#errors-inbox-page] - -Errors Inboxページには、サービスのエラーを検出してトリアージするためのツールが提供されます。 詳細については、[エラー受信トレイを](/docs/errors-inbox/errors-inbox/)参照してください。 - -Errors Inboxページはトレース データによって駆動されます。 [ゴールデンシグナル](#golden-signals)と同様に、スパンのステータスが`ERROR`に設定されている場合 (たとえば、 `otel.status_code = ERROR` )、スパンはエラーとして分類されます。 - -エラー スパンは、UUID、16 進数値、電子メール アドレスなどの識別値を正規化して計算されたエラー フィンガープリントごとにグループ化されます。 それぞれの個別のエラー スパンは、エラー グループ内の個別のインスタンスです。 エラー グループ メッセージは次のように決定されます。 - -* スパンステータスの説明(例: `otel.status_description` ) -* `rpc.grpc.status_code` [rpc span](https://opentelemetry.io/docs/specs/semconv/rpc/rpc-spans/)セマンティック規約より -* `http.status_code` [http span](https://opentelemetry.io/docs/specs/semconv/http/http-spans/)セマンティック規約より -* `http.response.status_code` [http span](https://opentelemetry.io/docs/specs/semconv/http/http-spans/)セマンティック規約より -* `undefined` 上記のいずれも存在しない場合 - -## ページ: メトリクスエクスプローラー [#metrics-explorer-page] - -メトリクス エクスプローラーは、サービスのメトリクスを一般的な方法で探索するためのツールを提供します。 詳細については、 [「データの探索」を](/docs/query-your-data/explore-query-data/browse-data/introduction-data-explorer/#explore-data)参照してください。 - -## 黄金の信号 [#golden-signals] - -最長、レスポンスタイム、エラー率のゴールデン シグナルは、 OpenTelemetry APM UI全体の複数の場所に表示されます。 使用する場合、次のように計算されます。 - -メトリクスの場合、クエリはデータが[http メトリクス](https://opentelemetry.io/docs/specs/semconv/http/http-metrics/)または[rpc メトリクス](https://opentelemetry.io/docs/specs/semconv/rpc/rpc-metrics/)のセマンティック規則に準拠していると想定します。 - -スパンの場合には、クエリは汎用的であり、最上位レベルのスパンのデータ モデルのみを利用します。 スパンは、サービスへのルート エントリ スパンの場合には、長さと応答時間にカウントされ、ヒューリスティック`WHERE span.kind = server OR span.kind = consumer`を使用して計算されます。 スパンのステータス コードが`ERROR` (たとえば、 `otel.status_code = ERROR` ) の場合、そのスパンはエラーになります。 - -## フィルターでデータを絞り込む [#narrow-with-filters] - -いくつかのページには、**Narrow data to...** \[データを絞り込む]などのオプションを含むフィルター バーが含まれています。 これにより、ページ上のクエリを基準に合わせてフィルタリングできます。 たとえば、 `service.version='1.2.3-canary'`をフィルタリングすることで、特定のカナリアデプロイメントに絞り込むことができます。 ページ間を移動するときにフィルターは保持されます。 - -## メトリクスまたはスパンの切り替え [#metrics-spans-toggle] - -さまざまなページにメトリックまたはスパンの切り替えが含まれています。 これにより、分析要件とデータの可用性に基づいて、クエリがスパン データによって駆動されるか、メトリックス データによって駆動されるかを切り替えることができます。 - -メトリックはサンプリングの対象ではないため、特に中間率などのレートを計算する場合はより正確です。 ただし、メトリックはカーディナリティ制約の対象であり、分析に重要な特定の属性が欠落している可能性があります。 対照的に、スパンはサンプリングされるため、精度の問題が生じますが、カーディナリティ制約の対象ではないため、より豊富な属性を持ちます。 - -歴史的に、 OpenTelemetry言語API /SDK と インストゥルメンテーション は、トレース インストゥルメンテーションを優先してきました。 しかし、プロジェクトは長い道のりを歩んでおり、メトリクスはほぼすべての言語で利用できるようになりました。 詳細については、関連する言語およびインストゥルメンテーションの[ドキュメント](https://opentelemetry.io/docs/languages/)を確認してください。 \ No newline at end of file diff --git a/src/i18n/content/jp/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/get-started/collector-infra-monitoring/opentelemetry-collector-infra-intro.mdx b/src/i18n/content/jp/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/get-started/collector-infra-monitoring/opentelemetry-collector-infra-intro.mdx deleted file mode 100644 index cb0a074da42..00000000000 --- a/src/i18n/content/jp/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/get-started/collector-infra-monitoring/opentelemetry-collector-infra-intro.mdx +++ /dev/null @@ -1,36 +0,0 @@ ---- -title: インフラ監視用OpenTelemetryコレクター -tags: - - Integrations - - Open source telemetry integrations - - OpenTelemetry -metaDescription: Using the OpenTelemetry Collector for infrastructure monitoring -freshnessValidatedDate: '2024-05-14T00:00:00.000Z' -redirect: - - /docs/more-integrations/open-source-telemetry-integrations/opentelemetry/get-started/collector-infra-monitoring/opentelemetry-collector-infra-redis -translationType: machine ---- - -[OpenTelemetry Collector は、](https://opentelemetry.io/docs/collector/)テレメトリデータを受信、処理、エクスポートするためのベンダーに依存しないツールです。 コレクターの要件や設定はさまざまですが、さまざまな受信機やプロセッサが付属しており、インフラストラクチャのモニタリングに人気があります。 データ処理に コレクター を使用することも一般的ですが、このドキュメントではインフラストラクチャのモニタリングのユースケースに重点を置いています。 詳細については[、 OpenTelemetryコレクター for データ処理](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/get-started/collector-processing/opentelemetry-collector-processing-intro)を参照してください。 - -## インフラストラクチャテレメトリーの受信 [#infrastructure-receivers] - -次の例では、コレクターを使用してさまざまなインフラストラクチャ コンポーネントを監視する方法を示します。 一般的なパターンは、コレクターをテクノロジー固有の受信機または汎用受信機(つまり Prometheus などのツールを使用してインフラストラクチャ ターゲットからデータをスクレイピングまたはポーリングし、OTLP 経由で New Relic にデータをエクスポートします。 - -* [Docker](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/get-started/collector-infra-monitoring/opentelemetry-collector-infra-docker) -* [HCP領事](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/get-started/collector-infra-monitoring/opentelemetry-collector-infra-hcp-consul) -* [HiveMQ](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/get-started/collector-infra-monitoring/opentelemetry-collector-infra-hivemq) -* [ホスト](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/get-started/collector-infra-monitoring/opentelemetry-collector-infra-hosts) -* [Kafka コンフルエントクラウド](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/get-started/collector-infra-monitoring/opentelemetry-collector-infra-kafka-confluentcloud) -* [Prometheus](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/get-started/collector-infra-monitoring/opentelemetry-collector-infra-prometheus) -* [Redis](https://github.com/newrelic/newrelic-opentelemetry-examples/tree/main/other-examples/collector/redis) -* [シングルストア](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/get-started/collector-infra-monitoring/opentelemetry-collector-infra-singlestore) -* [Squid](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/get-started/collector-infra-monitoring/opentelemetry-collector-infra-squid) -* [StatsD](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/get-started/collector-infra-monitoring/opentelemetry-collector-infra-statsd) - -## OpenTelemetry APM によるインフラストラクチャの相関 [#infrastructure-correlation] - -次の例は、コレクターを使用して[APM OpenTelemetry データを](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/get-started/apm-monitoring/opentelemetry-apm-intro)インフラストラクチャと相関させる方法を示しています。 一般的なパターンは、OTLP APM経由で にデータをエクスポートする前に、リソース属性の形式で追加の環境コンテキストを検出して テレメトリを強化するプロセッサを使用してコレクターを構成することです。New RelicNew Relic はこの相関データを検出し、 [APM とインフラストラクチャ エンティティ間の関係を](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-best-practices-resources)構築できます。 - -* [ホスト](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/get-started/collector-infra-monitoring/opentelemetry-collector-infra-hosts) -* [Kubernetes](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/get-started/collector-infra-monitoring/opentelemetry-collector-infra-k8s) \ No newline at end of file diff --git a/src/i18n/content/jp/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/get-started/collector-processing/opentelemetry-collector-processing-intro.mdx b/src/i18n/content/jp/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/get-started/collector-processing/opentelemetry-collector-processing-intro.mdx deleted file mode 100644 index f1a7da316f7..00000000000 --- a/src/i18n/content/jp/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/get-started/collector-processing/opentelemetry-collector-processing-intro.mdx +++ /dev/null @@ -1,83 +0,0 @@ ---- -title: OpenTelemetryコレクター for データ処理 -tags: - - Integrations - - Open source telemetry integrations - - OpenTelemetry -metaDescription: Use the OpenTelemetry collector as a general purpose telemetry data processing tool -freshnessValidatedDate: '2024-05-13T00:00:00.000Z' -translationType: machine ---- - -import opentelemetryNativeOtlpWithCollector from 'images/opentelemetry_diagram_native-otlp-with-collector.webp' - -[OpenTelemetry Collector は、](https://opentelemetry.io/docs/collector/)テレメトリデータを受信、処理、エクスポートするためのベンダーに依存しないツールです。 オブザーバビリティ パイプラインで コレクター を実行することをお勧めします。 コレクターの要件と設定はさまざまですが、 [APM OpenTelemetryデータを](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/get-started/apm-monitoring/opentelemetry-apm-intro)コレクター経由でルーティングするのが一般的です。 これにより、オーバーヘッドがアプリケーションから切り離され、追加の環境コンテキスト データ、フィルター、変換などでテレメトリを充実させる場所が提供されます。 インフラストラクチャのモニタリングに コレクター を使用することも一般的ですが、このドキュメントではデータ処理のユースケースに焦点を当てています。 詳細については[、インフラストラクチャモニタリング用コレクター](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/get-started/collector-infra-monitoring/opentelemetry-collector-infra-intro)を参照してください。 - -以下はゲートウェイとしてのコレクターの例ですが、アプリケーションと同じホスト上で実行されるエージェントとしてコレクターを設定することもできます。 - -Diagram showing OpenTelemetry using the OpenTelemetry collector and New Relic's OTLP endpoint. - -コレクターには、レシーバー、プロセッサ、エクスポーター、拡張機能、およびコネクタの広範なセットがあります。 これらのコンポーネントは、事前に構築された[ディストリビューション](https://opentelemetry.io/docs/collector/distributions/)にバンドルされています。 ただし、特定の要件に合わせてカスタム コンポーネントを構築したり、特定のコンポーネント セットをパッケージ化する[カスタム コレクター ディストリビューション](https://opentelemetry.io/docs/collector/custom-collector/)を構築したりすることも可能です。 - -設定は要件によって異なりますが、 New Relicにデータを送信するコレクターには、いくつかの共通点があります。 - -## OTLPエクスポーター [#otlp-exporter] - -OpenTelemetryコレクターは、 [otlphttpexporter](https://github.com/open-telemetry/opentelemetry-collector/tree/main/exporter/otlphttpexporter)を使用したデータのエクスポートをサポートしています。 エクスポーターの設定が[New Relic OTLP 要件](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-otlp/#configure-endpoint-port-protocol)と一致していることを確認します。 - -注意:[otlpexporter](https://github.com/open-telemetry/opentelemetry-collector/tree/main/exporter/otlpexporter)はサポートされていますが、OTLP/gRPC よりも OTLP/HTTP バイナリ プロトコルが優先されます。 - -## バッチプロセッサ [#batch-processor] - -[バッチ プロセッサを](https://github.com/open-telemetry/opentelemetry-collector/tree/main/processor/batchprocessor)使用してレコードをバッチでエクスポートするようにコレクターを構成します。 バッチ サイズと頻度が[New Relic OTLP 要件に一致するように設定されていること](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-otlp/)を確認します。 - -## 最小限の例 [#minimal-example] - -コレクターをインストールするには、 [OpenTelemetry のドキュメント](https://opentelemetry.io/docs/collector/installation/)を参照してください。 - -以下の設定でコレクターを実行し、次の内容を必ず置き換えてください。 - -* ``を適切な[New Relic OTLP オペレーター](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-otlp/#endpoint-port-protocol)に置き換えてください -* `` [ライセンスキー](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-otlp/#endpoint-port-protocol/#prereqs)に置き換えます - -```yaml -receivers: - otlp: - protocols: - grpc: - http: - -processors: - batch: - -exporters: - otlphttp: - endpoint: - headers: - api-key: - -service: - pipelines: - traces: - receivers: [otlp] - processors: [batch] - exporters: [otlphttp] - metrics: - receivers: [otlp] - processors: [batch] - exporters: [otlphttp] - logs: - receivers: [otlp] - processors: [batch] - exporters: [otlphttp] -``` - -実際の例については、 [New Relic OpenTelemetry サンプル リポジトリ](https://github.com/newrelic/newrelic-opentelemetry-examples/tree/main/other-examples/collector/nr-config)を参照してください。 - -その他の コレクター の例については、 [インフラストラクチャのモニタリング用のコレクター](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/get-started/collector-infra-monitoring/opentelemetry-collector-infra-intro)を参照してください。 \ No newline at end of file diff --git a/src/i18n/content/jp/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/get-started/opentelemetry-get-started-intro.mdx b/src/i18n/content/jp/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/get-started/opentelemetry-get-started-intro.mdx deleted file mode 100644 index 4686ac3cc15..00000000000 --- a/src/i18n/content/jp/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/get-started/opentelemetry-get-started-intro.mdx +++ /dev/null @@ -1,20 +0,0 @@ ---- -title: OpenTelemetryとNew Relicを使い始める -tags: - - Integrations - - Open source telemetry integrations - - OpenTelemetry -metaDescription: Explore a variety of OpenTelemetry integration patterns with New Relic. -freshnessValidatedDate: never -translationType: machine ---- - -OpenTelemetryプロジェクトは、 [APIおよび SDK 仕様](https://opentelemetry.io/docs/specs/otel/)、[インストゥルメンテーション](https://opentelemetry.io/docs/concepts/instrumentation/)、[コレクター](https://opentelemetry.io/docs/collector/)、[セマンティック規則](https://opentelemetry.io/docs/specs/semconv/)、 [OTLP](https://opentelemetry.io/docs/specs/otlp/)プロトコルなど、幅広い範囲にわたります。 New Relic AI モニタリングは、 OpenTelemetryに対する第一級のサポートを備えており、 OpenTelemetryツールを簡単に使用できるようにするさまざまなプラットフォーム機能を備えています。 - -このドキュメントは、 を使用した一般的なOpenTelemetry インテグレーションNew Relic パターンのコレクションです。これはすべての使用法を網羅したものではありませんが、ほとんどの人が OpenTelemetry を使用する方法と、それらのワークフローに基づいて構築される New Relic プラットフォーム機能の種類についてのアイデアを提供するはずです。 - -[OpenTelemetryAPM監視では、](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/get-started/apm-monitoring/opentelemetry-apm-intro) を使用して、OpenTelemetry APM[APMNew Relicエージェントを使用した](/docs/apm/new-relic-apm/getting-started/introduction-apm/) 監視 に類似した 監視を実行する方法について説明します。 - -[OpenTelemetryCollector ー for Infrastructure Monitoring](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/get-started/collector-infra-monitoring/opentelemetry-collector-infra-intro) には、OpenTelemetry インフラストラクチャ ターゲット の スクレイピング/ポーリング、 データとOpenTelemetryAPM インフラストラクチャ の相関付けなど、 Collector ー for Infrastructure Monitoring のさまざまな使用例が含まれています。 - -[OpenTelemetryコレクター - データ処理用では、テレメトリデータ](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/get-started/collector-processing/opentelemetry-collector-processing-intro)の受信、処理 (強化、変換、サンプリング、フィルタリングなど)、およびエクスポートのための一般的なツールとしてOpenTelemetryコレクターを使用する基本について説明します。 \ No newline at end of file diff --git a/src/i18n/content/jp/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/opentelemetry-introduction.mdx b/src/i18n/content/jp/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/opentelemetry-introduction.mdx deleted file mode 100644 index 30acf00a2d5..00000000000 --- a/src/i18n/content/jp/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/opentelemetry-introduction.mdx +++ /dev/null @@ -1,119 +0,0 @@ ---- -title: New RelicによるOpenTelemetryの紹介 -tags: - - Integrations - - Open source telemetry integrations - - OpenTelemetry -metaDescription: Here are some New Relic tips about when to implement OpenTelemetry. -freshnessValidatedDate: '2024-06-01T00:00:00.000Z' -translationType: machine ---- - -import moreintegrationsOtelRefArch from 'images/more-integrations_diagram_otel-ref-arch.webp' - -OpenTelemetryは、アプリケーション、インフラストラクチャ(例: ホスト、k8s など)などがあります。 OpenTelemetry データ ソースを New Relic にエクスポートするように構成することで、幅広いプラットフォーム機能を活用してデータを分析し、問題を診断できます。 - -このページでは、OpenTelemetry と New Relic の概要を説明します。 APMやインフラストラクチャ モニタリングなどの一般的なインテグレーション パターンを示す実用的なコード例については、 [「 OpenTelemetryとNew Relicの使用を開始する」](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/get-started/opentelemetry-get-started-intro/)を参照してください。 New Relic が OpenTelemetry データを受信、処理、取り込む方法については、 [「New Relic の OpenTelemetry データ」](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-data-overview/) 、特に[New Relic の OTLP エンドポイント](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-otlp/)の詳細を参照してください。 - -## OpenTelemetryのメリット [#benefits] - -OpenTelemetryは、テレメトリデータをインストゥルメントおよびエクスポートするためのベンダーニュートラル オープン スタンダードです。 プロジェクトの範囲は非常に広範囲にわたり、次のような内容が含まれます。 - -* オブザバビリティの中核となる要素 (トレース、メトリクス、ログ) 用の言語に依存しない の 仕様[ と、プロセス外でメトリクスをエクスポートする方法を構成する SDK があり、](https://opentelemetry.io/docs/specs/otel/)API[ 11 以上の](https://opentelemetry.io/docs/languages/) 言語で実装されています。これらのAPI上に構築された、利用可能なインストゥルメンテーションの膨大なカタログがあります。 -* 汎用テレメトリデータ配信プロトコルである[OTLP](https://opentelemetry.io/docs/specs/otlp/) 。 -* 共通[ドメイン](https://opentelemetry.io/docs/specs/semconv/)(すなわち、 HTTP サーバー、メッセージング システムなど)。 -* [コレクターは](https://opentelemetry.io/docs/collector/)、インフラストラクチャを監視し、テレメトリを拡充、フィルタリング、変換するために使用される、高度に構成可能で拡張可能なデータ収集および処理パイプラインです。 - -これらのコンポーネントが連携して、明確な利点を生み出します。 - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
- 機能 - - 説明 -
- 言語に依存しない - - OpenTelemetry は、1 つの語彙と 1 つのツールキットを提供することで、多言語チームの認知負荷を軽減します。 -
- オープンスタンダード - - オープン ガバナンス構造を備えたオープン スタンダードであるため、OpenTelemetry の方向性を制御するベンダーは 1 社もありません。 -
- 安全性データの完全な制御 - - 言語 SDK と コレクター の高度な構成と拡張性により、テレメトリーデータ パイプラインに対する比類のない制御が可能になります。 -
- 豊かなインストゥルメンテーションエコシステム - - OpenTelemetry の目標の 1 つは、API が最終的にアップストリーム ライブラリとフレームワークで直接使用されるようにすることです。 このギャップを埋めるために、 OpenTelemetry世界中のエンジニアから寄せられたインストゥルメンテーションの大規模なカタログを提供しています。 OpenTelemetryには、どのベンダーも単独で提供できるよりも多くの集合的なインストゥルメンテーションの取り組みが盛り込まれています。 -
- 将来性 - - OpenTelemetry はすでに大きな進歩を遂げていますが、大規模で活発なコミュニティ、業界のサポート、オープン ガバナンス モデルのおかげで、採用が拡大する見込みです。 将来はわかりませんが、 OpenTelemetry 、オペレーショナル エンジニアリング業界におけるオープンソースの勝者となる可能性が最も高いです。 -
- -## OpenTelemetryまたはNew Relicインストゥルメンテーション? [#choice] - -多くの場合、OpenTelemetry と New Relic で利用できる機能とコンポーネントには重複があります。 たとえば、 [OpenTelemetry APM監視は](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/get-started/apm-monitoring/opentelemetry-apm-intro/)[New Relic APMエージェント](/docs/apm/new-relic-apm/getting-started/introduction-apm/)を反映し、 [OpenTelemetryコレクターを使用したインフラストラクチャ モニタリング](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/get-started/collector-infra-monitoring/opentelemetry-collector-infra-intro/)は[New Relic Infrastructureエージェント](/docs/infrastructure/infrastructure-monitoring/get-started/get-started-infrastructure-monitoring/)の機能を反映します。 - -New Relic と OpenTelemetry の両方のオプションを検討することをお勧めします。 New Relicインストゥルメンテーション では、連携して動作する インストゥルメンテーション と プラットフォーム 機能 を開発することに固有の利点があり、 New Relicインテグレーション はそのままでもより適切に動作する傾向があります。 一方、OpenTelemetry は比類のない柔軟性と制御性を提供しますが、望ましい結果を得るには追加の調査と努力が必要になる場合があります。 - -## OpenTelemetryは進化し続けています [#emerging-standard] - -OpenTelemetry プロジェクトは、長年にわたって成長してきた大規模なプロジェクトです。 多くのコア コンポーネント (OTLP、トレースAPI /SDK、メトリクスAPI /SDK、ログ ブリッジAPI /SDK、http セマンティック規則、および多くの言語実装を含む) は安定状態に達していますが、当然ながら、他のさまざまな成熟段階にある部分も存在します。 - -New Relic AI モニタリングは、すべての OTLP データを汎用オブザーバビリティ プラットフォームに取り込むことや、 OpenTelemetryデータに基づいてユーザー エクスペリエンスを構築してすぐにデータからインサイトを推進することなど、 OpenTelemetryに対するファーストクラスのサポートを提供します。 コンポーネントが出現し、開発されるにつれて、当社のプラットフォーム機能も進化していきます。 ただし、統合する OpenTelemetry コンポーネントの成熟度ステータスに注意してください。 私たちは変更に常に対応しようと努めていますが、実験的なコンポーネントの重大な変更を中心に構築するのは難しい場合があります。 - -## OpenTelemetryリファレンスアーキテクチャ [#reference-architecture] - -多種多様なコンポーネントと設定オプションがあるため、 OpenTelemetryをどこから始めればよいか判断するのが難しい場合があります。 - -以下の図は、リファレンスアーキテクチャを示しています。リファレンスアーキテクチャは、さまざまなOpenTelemetryコンポーネントがどのように連携してNew Relicと統合されるかを高レベルで示したものです。 ソフトウェア開発者、DevOps、アーキテクト、マネージャーは、これを使用して概念を調整できます。 これは、 New Relic APMエージェント、 OpenTelemetry APMインストゥルメンテーション、Jaeger、Prometheus などのさまざまなツールを使用してインストゥルメントされたアプリを示しており、データをNew Relicにエクスポートし、オプションで中間のOpenTelemetryコレクターを介してエクスポートします。 OpenTelemetry Collector はさまざまなプロトコルを理解し、テレメトリデータを 1 つ以上の宛先にエクスポートする前に処理、フィルタリング、拡充することができます。 これらのインテグレーションを示す実用的なコード例については、 [「 OpenTelemetryとNew Relicの使用を開始する」](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/get-started/opentelemetry-get-started-intro/)を参照してください。 - -Diagram showing a reference architecture for OpenTelemetry and New Relic - -さらに詳しく読むには、 [OpenTelemetry デモ](https://opentelemetry.io/docs/demo/)をよく読んでください。これは、一連のマイクロサービスによって駆動される架空の電子商取引システムを通じて、さまざまな OpenTelemetry の概念を説明する、OpenTelemetry コミュニティによって管理されているプロジェクトです。 \ No newline at end of file diff --git a/src/i18n/content/jp/docs/more-integrations/open-source-telemetry-integrations/roku/roku-open-source-video-agent.mdx b/src/i18n/content/jp/docs/more-integrations/open-source-telemetry-integrations/roku/roku-open-source-video-agent.mdx deleted file mode 100644 index 0596c42bd07..00000000000 --- a/src/i18n/content/jp/docs/more-integrations/open-source-telemetry-integrations/roku/roku-open-source-video-agent.mdx +++ /dev/null @@ -1,23 +0,0 @@ ---- -title: Rokuオープンソースエージェント -tags: - - Agents - - Open-source licensed agents - - Open-source licensed agents -metaDescription: A brief introduction to New Relic's open-source Roku video agent. -freshnessValidatedDate: never -translationType: machine ---- - -[Roku オープンソースエージェント](https://github.com/newrelic/video-agent-roku) を使用して、New Relic で Roku の動作を監視します。このエージェントには2つの部分があり、2つの異なるカテゴリーの Roku の動作を把握することができます。 - -* アプリの起動やHTTPリクエストなどのアプリイベント -* アプリ内での動画再生 - - - このエージェントは GitHub でオープンソースとしてリリースされています。 最新のアップデートについては、変更ログもそこで入手できます。 - - -## 始めましょう [#get_started] - -要件、インストール、構成情報については、GitHub の[オープンソース Roku エージェントの README](https://github.com/newrelic/video-agent-roku/blob/master/README.md)を参照してください。 \ No newline at end of file diff --git a/src/i18n/content/jp/docs/more-integrations/open-source-telemetry-integrations/statsd/statsd-monitoring-integration.mdx b/src/i18n/content/jp/docs/more-integrations/open-source-telemetry-integrations/statsd/statsd-monitoring-integration.mdx deleted file mode 100644 index 17c64bd3bb8..00000000000 --- a/src/i18n/content/jp/docs/more-integrations/open-source-telemetry-integrations/statsd/statsd-monitoring-integration.mdx +++ /dev/null @@ -1,649 +0,0 @@ ---- -title: StatsDモニタリングの統合 -tags: - - Integrations - - On-host integrations - - On-host integrations list -freshnessValidatedDate: never -translationType: machine ---- - -import infrastructureStatsdNrqlCondition from 'images/infrastructure_screenshot-crop_statsd-nrql-condition.webp' - -import infrastructureStatsdNrqlAlert from 'images/infrastructure_screenshot-crop_statsd-nrql-alert.webp' - -StatsD の統合により、 [StatsD](https://github.com/statsd/statsd)-format data を New Relic に簡単に取り込むことができます。また、データに任意のタグ(キーと値のペア)を追加することもできます。メトリクスが New Relic に取り込まれると、 [データを照会したり、](#find-use-data) カスタムチャートやダッシュボードを作成することができます。 - -StatsDインテグレーションを試してみませんか? [New Relicアカウントを作成してください](https://newrelic.com/signup) 無料でご利用いただけます。クレジットカードは必要ありません。 - -## 要件 - -この統合では[、メトリクス API](/docs/data-ingest-apis/get-data-new-relic/metric-api/introduction-metric-api)と[イベント API を](/docs/insights/insights-data-sources/custom-data/introduction-event-api)使用してデータを取り込みます。 これらの API を使用するには、 が必要です。 - -この統合は、Metric API の [要件とデータ制限](/docs/data-ingest-apis/get-data-new-relic/metric-api/metric-api-limits-restricted-attributes)に従います。レート制限に達しているかどうかを確認するには、次の [`NrIntegrationError` イベント](/docs/telemetry-data-platform/manage-data/nrintegrationerror)の NRQL クエリを実行します。 - -```sql -SELECT count(*) FROM NrIntegrationError - WHERE newRelicFeature ='Metrics' - FACET category, message - LIMIT 100 since 1 day ago -``` - -統合は、amd64およびarm64アーキテクチャ用の[DockerHub](https://hub.docker.com/r/newrelic/nri-statsd/tags)でLinuxコンテナイメージとして利用できます。 - -## インストール - -ここでは、標準的なインストールの方法を説明します。KubernetesでStatsDを動作させたい場合は、 [Kubernetes install](#kubernetes) をご覧ください。 - -StatsD 統合をインストールするには、 [New Relic アカウント ID](/docs/accounts/install-new-relic/account-setup/account-id)とを含めて次のコマンドを実行します。 これにより、 `gostatsd`で使用される TOML 設定ファイルが生成されます。 - -```shell -docker run \ - -d --restart unless-stopped \ - --name newrelic-statsd \ - -h $(hostname) \ - -e NR_ACCOUNT_ID=YOUR_ACCOUNT_ID \ - -e NR_API_KEY=NEW_RELIC_LICENSE_KEY \ - -p 8125:8125/udp \ - newrelic/nri-statsd:latest -``` - -組織が [EU データセンター地域](/docs/using-new-relic/welcome-new-relic/get-started/introduction-eu-region-data-center)にある場合は、これを上記のコマンドに追加します。 - -```shell --e NR_EU_REGION=true \ -``` - -インストール後は - -* オプションを行う [追加設定](#configure) -* [指標の定義](#metric-format) -* [カスタムタグの追加](#add-tags) データに -* [アラートの作成](#alerts) - -### Kubernetesへのインストール [#kubernetes] - -ここでは、デプロイメントとサービスオブジェクトのためのKubernetesマニフェストの例を紹介します。 - - - - 以下は、Kubernetes 環境に StatsD をデプロイし、 `newrelic-statsd`という名前の StatsD サービスを作成するための Kubernetes マニフェストの例です。 [アカウント ID](/docs/accounts/install-new-relic/account-setup/account-id)とを入力する必要があります。 - - **deployment.yml**: - - ```yml - apiVersion: apps/v1 - kind: Deployment - metadata: - name: newrelic-statsd - namespace: tooling - labels: - app: newrelic-statsd - spec: - selector: - matchLabels: - app: newrelic-statsd - replicas: 2 - revisionHistoryLimit: 2 - template: - metadata: - labels: - app: newrelic-statsd - spec: - serviceAccountName: newrelic-statsd - containers: - - name: newrelic-statsd - image: newrelic/nri-statsd:latest - env: - - name: NR_ACCOUNT_ID - value: "NEW_RELIC_ACCOUNT_ID" - - name: NR_API_KEY - value: "NEW_RELIC_LICENSE_KEY" - ``` - - **service.yml**: - - ```yml - apiVersion: v1 - kind: Service - metadata: - name: newrelic-statsd - namespace: tooling - labels: - app: newrelic-statsd - spec: - type: ClusterIP - ports: - - name: newrelic-statsd - port: 80 - targetPort: 8125 - protocol: UDP - selector: - app: newrelic-statsd - ``` - - **service-account.yml**: - - ```yml - apiVersion: v1 - kind: ServiceAccount - metadata: - name: newrelic-statsd - namespace: default - ``` - - 設定の詳細については、 [Kubernetes の設定](#k8s-config) を参照してください。 - - - - 統合をインストールするために、 [StatsD Helm チャート](https://github.com/newrelic/helm-charts/tree/master/charts/nri-statsd) も利用できます。 - - - - - -## 設定 - -[インストール手順](#install)では、環境変数を使用して`nri-statsd`を実行します。これにより、TOML構成ファイルが生成されます。さらに、次の構成オプションを設定できます。 - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
- 設定オプション - - 説明 -
- `expiry-interval` - - _ストリング_ - - この期間、指標が更新されない場合、その指標の報告を停止します。デフォルトは`5m`です。 - - フラッシュ間隔の間に値が更新された場合にのみメトリックを送信する場合は、これを`1ms`に構成します。メトリックを期限切れにしないようにするには、 `0`に設定します。 -
- `percent-threshold` - - _整数のリスト_ - - メトリックの集計に使用されるパーセンタイルを指定します。デフォルト: `90` 。 -
- `metrics-addr` - - _ストリング_ - - メトリックをリッスンするアドレスを示します。デフォルト: `:8125` 。 nri-statsd `v2.3.0` (goStatsD `v34.2.1` )から、Unixドメインソケット(UDS)を介した接続がサポートされます。構成で「\[host]:port」の代わりに「metrics-addr = / some / path/newrelic-statsd.socket」を使用します。 -
- - - StatsD統合を使用してFedRAMPコンプライアンスを確保するには、カスタム構成で以下のエンドポイントを定義する必要があります。 - - ``` - address = 'https://gov-insights-collector.newrelic.com/v1/accounts/ $NR_ACCOUNT_ID/events' - ``` - - ``` - address-metrics = 'https://gov-infra-api.newrelic.com/metric/v1' - ``` - - -ここでは、デフォルトの設定を上書きして設定をカスタマイズする例を紹介します。 - - - - ``` - # Specify after how long do we expire metrics, default:5m - expiry-interval = '1ms' - - # percent-threshold specify a list of percentiles for metrics aggregation, default:90 - percent-threshold = [90, 99] - - backends='newrelic' - [newrelic] - # flush types supported: metrics, insights, infra - flush-type = 'metrics' - transport = 'default' - address = 'https://insights-collector.newrelic.com/v1/accounts/$NR_ACCOUNT_ID/events' - address-metrics = 'https://metric-api.newrelic.com/metric/v1' - api-key = 'NEW_RELIC_LICENSE_KEY' - ``` - - - **Disable timer sub-metrics:** - - - デフォルトでは、 `nri_statsd`はタイマーメトリックに対して次の値を計算します:フラッシュ間隔の標準偏差、平均、中央値、合計、下限、および上限。これらのメトリックを無効にする場合は、 `disabled-sub-metrics`構成セクションを追加し、無効にするメトリックに`true`を設定することで無効にできます。次に例を示します。 - - ``` - # disabled-sub-metrics configuration section allows disabling timer sub-metrics - [disabled-sub-metrics] - # Regular metrics - count=false - count-per-second=false - mean=false - median=false - lower=false - upper=false - stddev=false - sum=false - sum-squares=false - - # Percentile metrics - count-pct=false - mean-pct=false - sum-pct=false - sum-squares-pct=false - lower-pct=false - upper-pct=false - ``` - - - - コンテナーでの実行中にデフォルトの`nri-statsd`構成を上書きするには、コンテナー内に構成ファイルをマウントできます。 - - 以下のテンプレートは、お客様の状況に応じて適宜採用してください。 - - 例: - - ``` - backends='newrelic' - flush-interval='10s' - - [newrelic] - # flush types supported: metrics, insights, infra - flush-type = 'metrics' - transport = 'default' - address-metrics = 'https://metric-api.newrelic.com/metric/v1' - api-key = 'NEW_RELIC_LICENSE_KEY' - ``` - - ファイルを適切なパスにマウントした状態でコンテナを実行するには - - ```shell - docker run \ - ... - -v ${PWD}/nri-statsd.toml:/etc/opt/newrelic/nri-statsd.toml \ - ... - newrelic/nri-statsd:latest - ``` - - - - Kubernetesで実行されている`nri-statsd`を設定するための最良のアプローチは、 `configMap`を使用して`configMap`をコンテナにマウントすることです。 (これは、Dockerで構成ファイルをマウントするのと同様のプロセスです。) - - 例: - - ``` - apiVersion: v1 - kind: ConfigMap - metadata: - name: nri-statsd-config - namespace: default - data: - nri-statsd.toml: | - backends='newrelic' - flush-interval='10s' - - [newrelic] - # flush types supported: metrics, insights, infra - flush-type = 'metrics' - transport = 'default' - address = 'https://metric-api.newrelic.com/metric/v1' - api-key = '$NEW_RELIC_LICENSE_KEY' - ``` - - configMapを使用するには、デプロイメント仕様テンプレートでボリュームを宣言してから、コンテナー仕様で`volumeMount`を宣言します。 - - 例: - - ``` - apiVersion: apps/v1 - kind: Deployment - spec: - template: - spec: - containers: - .... - volumeMounts: - - mountPath: /etc/opt/newrelic/ - name: nri-statsd-config - volumes: - - name: nri-statsd-config - configMap: - name: nri-statsd-config - ``` - - - -## メトリックフォーマット - -インテグレーションは、 [StatsD プロトコル](https://github.com/statsd/statsd) を使用してメトリクスを受信します。オプションで、サンプルレートを設定したり、タグを追加することができます。 - -ここでは、私たちが使用しているメトリックデータのフォーマットを紹介します。 - -``` -:||@|# -``` - -ここでは、これらの分野について説明します。 - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
- フィールド名 - - 説明 -
- <metric name> - `string` - - **Required.** メトリクスの名前。 -
- <value> - `string` - - **Required.** [メトリクスのタイプ](#metric-types): - - * `c` = counter - * `g` = gauge - * `ms` = timer -
- @<sample rate> - `float` - - **Optional** 単純なカウンターまたはタイマーカウンターの場合。 多数のメトリクスを送信する必要がある場合は、サンプリングを使用してネットワーク トラフィックを削減できます。 欠点は、データの解像度が低下することです。 - - `1`未満のサンプルレートでこれがどのように機能するかの例:これを`0.1`に設定すると、カウンターは10回に1回の測定値を送信します。 -
- #<tags> - `string` - - **Optional.** メトリクスに付加されたタグは属性 (キーの値のペア) に変換されます。 タグ付けオプションの詳細については、 [「タグ」](#add-tags)を参照してください。 -
- -## メトリックのタイプ - -ここでは、メトリクスの種類とそのフォーマットをご紹介します。 - - - - カウンターは、あるイベントの発生回数を測定するものです。例えば、レポート間隔ごとのキャッシュヒット数や、レポート間隔ごとのスレッド作成数などです。 - - カウンタは、値に符号を追加することにより、同じフラッシュ間隔中にインクリメントまたはデクリメントできます。次の例では、カウンター値は`2`になります。 - - ``` - counter:4|c - counter:-2|c - ``` - - フラッシュするたびに、現在のカウントが送信され、 `0`にリセットされます。カウントが更新されていない場合、次のフラッシュで値`0`が送信されます。 [`expiry-interval`](#configure)を`1ms`に設定することで、この動作を無効にすることを選択できます。 - - ここでは、10回に1回の割合でサンプリングされているカウンターの例を紹介します。 - - ``` - counter:4|c@0.1 - ``` - - - - ゲージは、時間の経過とともに増加または減少する可能性のある値を表します。ゲージの例としては、温度、CPU使用率、メモリなどがあります。以下にその例を示します。 - - ``` - temperature:40|g - ``` - - ゲージが更新されていない場合、次のフラッシュで前の値が送信されます。 [`expiry-interval`](#configure)を`1ms`に設定することで、この動作を無効にすることを選択できます。 - - - - タイマーメトリックタイプは、タイミングデータを測定します。 - - デフォルトでは、 `nri_statsd`はタイマーメトリックに対して次の値を計算します:フラッシュ間隔の標準偏差、平均、中央値、合計、下限、および上限。これらは、次の形式でサブメトリックとして送信されます。 - - ``` - .std_dev - .median - .summary - .sum_squares - .mean - .per_second - ``` - - 設定されたパーセンタイルは、以下のメトリクスを生成します。パーセンタイルのしきい値は、タグとして付けられます。 - - ``` - .sum_squares.percentiles - .sum.percentiles - .count.percentiles - .upper.percentiles - .mean.percentiles - ``` - - パーセンタイルしきい値は、 [`percent-threshold`](#configure)構成オプションを使用して調整できます。これらは、 [`disabled-sub-metrics`構成セクション](#config-example)から制御できます。 - - - -## タグ(属性)の追加 [#add-tags] - -データにタグを追加することができます。タグは [属性](/docs/using-new-relic/welcome-new-relic/get-started/glossary#attribute) (キーと値のペア)として保存されます。タグの追加には2つのオプションがあります。 - -* すべてのメトリクスに適用されるデフォルトのタグを追加します。これらは、すべてのメトリクスに適用されます。これらは固定されており、時間が経っても変化しません。 -* メトリクスレベルのタグを追加します。このタグは特定のメトリクスに適用され、2回のサブミットの間に値を変更することができます。 - - - - メトリクスやイベントにタグを追加するには、 [起動コマンド](#install) で環境変数を定義します。 - - ここでは、2つのタグを作成する例を紹介します。 - - ``` - -e TAGS="environment:production region:us" - ``` - - [起動コマンド](#install) で使用されている環境変数を示します。 - - ``` - docker run \ - -d --restart unless-stopped \ - --name newrelic-statsd \ - -h $(hostname) \ - -e NR_ACCOUNT_ID=YOUR_ACCOUNT_ID \ - -e NR_API_KEY=NEW_RELIC_LICENSE_KEY \ - -e TAGS="environment:production region:us" \ - -p 8125:8125/udp \ - newrelic/nri-statsd:latest - ``` - - - - [メトリックフォーマット](#metric-format) を定義する際に、このフォーマットを使用してタグを追加することができます。 - - ``` - :||# - ``` - - この例では、 ``はコンマで区切られたタグのリストです。タグの形式は、 `simple`または`key:value`です。 - - - -以下は、カスタムタグを含む [NRQL](/docs/query-data/nrql-new-relic-query-language/getting-started/introduction-nrql) クエリの例です。 - -``` -SELECT count(*) FROM Metric WHERE environment = 'production' -``` - -## アラートの作成 [#alerts] - -[NRQLのアラート条件](/docs/alerts/new-relic-alerts/defining-conditions/create-alert-conditions-nrql-queries) を使ってStatsDのデータにアラートを出すことができます。 - - - - この手順では、サンプルデータの送信から、そのデータを使ったアラート条件の作成までを行います。 - - まず、このデータをNew RelicのStatsDコンテナに送ります。 - - ``` - echo "prod.test.num:32|g" | nc -v -w 1 -u localhost 8125 - ``` - - 次に、このクエリを使用して、 [NRQL アラート条件](/docs/alerts/new-relic-alerts/defining-conditions/create-alert-conditions-nrql-queries) を作成します。 - - ``` - SELECT latest(prod.test.num) FROM Metric WHERE metricName = 'prod.test.num' - ``` - - このNRQLのアラート条件を作成しているイメージは以下の通りです。送られてきたサンプルデータは、チャートの右上にある青い点で表されていることに注目してください。 - - StatsD NRQL alert condition query - - それでは、これらの設定でアラート条件を作成します。 - - StatsD NRQL alert condition creation example - - NRQL アラート条件を作成するときは、必ず**Condition name**を設定してください。 - - 50を超える値のメトリックが送信された場合、インシデントが作成され、通知されます。このインシデントは24時間後に自動的にクローズされます。アラートが機能していることをテストするには、次のコマンドを実行します。 - - ``` - echo "prod.test.num:60|g" | nc -v -w 1 -u localhost 8125 - ``` - - - -## データを見つけて使用する [#find-use-data] - -データを照会するには、New Relic の [クエリオプション](/docs/using-new-relic/data/understand-data/query-new-relic-data) を使用します。例えば、 [NRQL](/docs/query-data/nrql-new-relic-query-language/getting-started/introduction-nrql) のようなクエリを実行します。 - -``` -SELECT count(*) FROM Metric WHERE metricName = 'myMetric' and environment = 'production' -``` - -`Metric`データ型をクエリする方法の詳細については、「[メトリックデータのクエリ](/docs/data-ingest-apis/get-data-new-relic/metric-api/view-query-you-metric-data)」を参照してください。 - -## トラブルシューティング [#troubleshooting] - -**問題**: - -StatsD 統合を実行する手順に従いましたが、New Relic で予想されるメトリクスを確認する必要があります。 - -**解決策**: - -設定のトラブルシューティングを行うには、次の手順に従ってください。 - -* - - に 40 桁の 16 進数文字のライセンスキーが含まれていること、およびそれが選択した New Relic アカウント ID の有効なライセンスであることを確認してください。 - -* New Relic アカウントに適切なデータセンター (US または EU) が選択されていることを確認してください。 ヒント: License_key が「eu」で始まる場合は、 `NR_EU_REGION=true`フラグを使用する必要があります。 - -* StatsD 統合に関連する[`NrIntegrationError`](/data-apis/ingest-apis/metric-api/troubleshoot-nrintegrationerror-events/)がないことを確認してください。 - -* 詳細ログは、環境変数`NR_STATSD_VERBOSE`を使用して有効にできます。 docker run コマンドを変更して変数`-e NR_STATSD_VERBOSE=true`を追加します。 - -* テスト メトリクスをプッシュして、インテグレーションが期待どおりのメトリクスを送信していることを確認できます。 NetCat `nc`ユーティリティを使用した例: - - * `echo "example.gauge:123|g" | nc -u -w0 127.0.0.1 8125` (実行中のコンテナ IP/アドレスで`127.0.0.1`を更新します)。 - -## ソースコードを確認してください [#source-code] - -この統合はオープン ソース ソフトウェアです。つまり[、ソース コードを参照して](https://github.com/newrelic/nri-statsd/)改善を送信したり、独自のフォークを作成してビルドしたりできます。 \ No newline at end of file diff --git a/src/i18n/content/jp/docs/more-integrations/open-source-telemetry-integrations/wordpress/wordpress-fullstack-integration.mdx b/src/i18n/content/jp/docs/more-integrations/open-source-telemetry-integrations/wordpress/wordpress-fullstack-integration.mdx deleted file mode 100644 index 229f1bd75ee..00000000000 --- a/src/i18n/content/jp/docs/more-integrations/open-source-telemetry-integrations/wordpress/wordpress-fullstack-integration.mdx +++ /dev/null @@ -1,202 +0,0 @@ ---- -title: WordPress フルスタック統合 -tags: - - New Relic integrations - - WordPress Full Stack integration -metaDescription: Use New Relic browser monitoring to get a dashboard with metrics from your Wordpress. -freshnessValidatedDate: '2023-06-28T00:00:00.000Z' -translationType: machine ---- - -import infrastructureWordPressIntegrationDashboard from 'images/infrastructure_screenshot-full_wordpress-dashboard.webp' - -当社の WordPress 統合は、WordPress Web アプリケーションのパフォーマンスを監視し、アプリケーションの問題を診断してコードを最適化するのに役立ちます。WordPress の統合では、PHP、Apache、MySQL の統合を利用し、トランザクション、訪問者、通話時間などの最も重要な WordPress メトリクスを含む事前構築されたダッシュボードを提供します。 - -A screenshot depicting the wordpress dashboard - -
- WordPress 統合を設定すると、WordPress メトリクスのダッシュボードが提供されます。 -
- -## インストール [#install] - - - - ### インフラストラクチャエージェントをインストールします [#infra-install] - - インフラストラクチャ エージェントは、次の 2 つの方法でインストールできます。 - - * [ガイド付きインストール](https://one.newrelic.com/nr1-core?state=4f81feab-35f7-e97e-9903-52510f8542bd)は、システムを検査し、システムに最適なアプリケーション監視エージェントとともにインフラストラクチャ エージェントをインストールする CLI ツールです。ガイド付きインストールの仕組みの詳細については、[ガイド付きインストールの概要](/docs/infrastructure/host-integrations/installation/new-relic-guided-install-overview)をご覧ください。 - * インフラストラクチャ エージェントを手動でインストールする場合は、 [Linux](/docs/infrastructure/install-infrastructure-agent/linux-installation/install-infrastructure-monitoring-agent-linux)、 [Windows](/docs/infrastructure/install-infrastructure-agent/windows-installation/install-infrastructure-monitoring-agent-windows/)、または [macOS](/docs/infrastructure/install-infrastructure-agent/macos-installation/install-infrastructure-monitoring-agent-macos/)の手動インストールのチュートリアルに従うことができます。 - - - - ### PHPエージェントのインストール - - 1. エージェントをインストールする前に、 [PHP エージェントの要件を](/docs/apm/agents/php-agent/getting-started/monitor-your-php-app/) 確認してください。 - - 2. [PHP クイックスタート インストール](https://newrelic.com/instant-observability/php)を開きます。 - - 3. **Install now** - - をクリックして PHP エージェントのインストレーションを開始します。 - - - - ### MySQL クイックスタートをインストールする - - 1. [MySQL の要件を](/docs/infrastructure/host-integrations/host-integrations-list/mysql-config//)確認してください。 - - 2. [MySQL クイックスタート インストール](https://newrelic.com/instant-observability/mysql)を開きます。 - - 3. **Install now** - - をクリックしてMySQLエージェントのインストレーションを開始します。 - - - - ### Apache クイックスタートをインストールする - - 1. [Apache の要件を](/docs/infrastructure/host-integrations/host-integrations-list/apache-monitoring-integration/)確認してください。 - - 2. [Apache クイックスタート インストール](https://newrelic.com/instant-observability/apache)を開きます。 - - 3. **Install now** - - をクリックして Apache エージェント インストレーションを開始します。 - - - - ### WordPress 用に NRI-Flex を構成する - - Flex は New Relic インフラストラクチャ エージェントにバンドルされています。フレックス構成ファイルを作成するには、次の手順に従います。 - - 1. このパスに `read-wordpress-files-config.yml` という名前のファイルを作成します。 - - ```shell - /etc/newrelic-infra/integrations.d - ``` - - 2. 次の詳細を使用して `read-wordpress-files-config.yml` を更新します。 - - * `INSERT_EVENT_TYPE`。 `event_type` は、NRQL を使用してクエリできる New Relic データベース テーブルです。 `event_type` の例は次のようになります。 `WPDirectories` - * `INSERT_WORDPRESS_PATH`。ここで、WordPress アプリケーションのディレクトリを入力する必要があります (例: `/srv/www/wordpress/*`)。 - - 3. この構成ファイルを使用します。 - - ```yml - integrations: - - name: nri-flex - interval: 180s - config: - name: linuxDirectorySize - apis: - - event_type: INSERT_EVENT_TYPE - commands: - - run: du INSERT_WORDPRESS_PATH - split: horizontal - set_header: [dirSizeKB, dirName] - regex_match: true - split_by: (\d+)\s+ - ``` - - - - ### デバッグログを公開するように WordPress を設定する - - 1. WordPress アプリケーションを開いてから、 `wp-config.php` ファイルを開きます。 - - 2. 以下にリストされている値を使用してファイルを更新します。 - - ``` - // Enable WP_DEBUG mode - define( 'WP_DEBUG', true ); - - // Enable Debug logging to the /wp-content/debug.log file - define( 'WP_DEBUG_LOG', true ); - ``` - - アプリケーションを起動すると、 `wp-content` ディレクトリに `debug.log` ファイルが表示されます。 - - - - ### WordPress デバッグログを New Relic に転送する - - [ログ転送を](/docs/logs/forward-logs/forward-your-logs-using-infrastructure-agent/) 使用して、WordPress ログを New Relic に転送できます。 - - Linux マシンでは、 `logging.yml` という名前のログ ファイルが次のパスに存在する必要があります。 - - ```shell - /etc/newrelic-infra/logging.d/ - ``` - - ログ ファイルを作成した後、次のスクリプトを `logging.yml` ファイルに追加します。 - - ```yml - logs: - - name: wordpress-debug.log - file: /src/www/wordpress/wp-content/debug.log - attributes: - logtype: wordpress_debug - ``` - - - - ### インフラストラクチャエージェントを再起動します - - データの読み取りを開始する前に、 [インフラストラクチャ エージェントのドキュメント](/docs/infrastructure/install-infrastructure-agent/manage-your-agent/start-stop-restart-infrastructure-agent/) の手順に従ってインフラストラクチャ エージェントを再起動します。 - - ```shell - sudo systemctl restart newrelic-infra.service - ``` - - 数分以内に、アプリケーションはメトリクスを [one.newrelic.com](https://one.newrelic.com)に送信します。 - - - -## データを検索する [#find-data] - -`WordPress Full Stack` という名前の事前に構築されたダッシュボード テンプレートを選択して、WordPress アプリケーションのメトリクスを監視できます。事前に構築されたダッシュボード テンプレートを使用するには、次の手順に従います。 - -1. [one.newrelic.com](https://one.newrelic.com)から、 - - **+ Add data** - - ページに移動します。 - -2. **Dashboards** - - をクリックします。 - -3. 検索バーに`WordPress Full Stack`と入力します。 - -4. WordPress ダッシュボードが表示されるはずです。それをクリックしてインストールします。 - -WordPress ダッシュボードはカスタム ダッシュボードとみなされ、**Dashboards** UIに表示されます。 ダッシュボードの使用と編集に関するドキュメントについては、[ダッシュボードのドキュメントを](/docs/query-your-data/explore-query-data/dashboards/introduction-dashboards)参照してください。 - -次のペイント (INP) までのインタラクションの遅延を確認する NRQL クエリの例を次に示します。 - -```sql -SELECT percentage(count(*), -WHERE interactionToNextPaint < 200) -AS 'Good (<100ms)', percentage(count(*), -WHERE interactionToNextPaint >= 200 and interactionToNextPaint < 500) -AS 'Needs improvement (>=100 <300ms)', percentage(count(*), -WHERE interactionToNextPaint >= 500) -AS 'Poor (> 300ms)' -FROM PageViewTiming -WHERE interactionToNextPaint IS NOT NULL -TIMESERIES AUTO -``` - -## 次は何ですか? [#whats-next] - -データのクエリとカスタム ダッシュボードの作成について詳しくは、次のドキュメントをご覧ください。 - -* [クエリビルダーの概要](/docs/query-your-data/explore-query-data/query-builder/introduction-query-builder) -* [カスタム ダッシュボードの概要](/docs/query-your-data/explore-query-data/dashboards/introduction-dashboards) -* [ダッシュボードの管理](/docs/query-your-data/explore-query-data/dashboards/manage-your-dashboard) \ No newline at end of file diff --git a/src/i18n/content/jp/docs/more-integrations/terraform/terraform-intro.mdx b/src/i18n/content/jp/docs/more-integrations/terraform/terraform-intro.mdx deleted file mode 100644 index f15c284d0b9..00000000000 --- a/src/i18n/content/jp/docs/more-integrations/terraform/terraform-intro.mdx +++ /dev/null @@ -1,482 +0,0 @@ ---- -title: New Relic と Terraform を使い始める -metaDescription: 'Learn how to provision New Relic resources using [Terraform](https://www.terraform.io/).' -freshnessValidatedDate: never -translationType: machine ---- - -[Terraform は](https://www.terraform.io/)、HashiCorp によって構築された、人気のインフラストラクチャ・アズ・コード ソフトウェア ツールです。 これを使用して、New Relic やアラートを含むあらゆる種類のインフラストラクチャとサービスをプロビジョニングします。 - -このガイドでは、Terraform を使用して New Relic を設定する方法を学習します。 具体的には、アラートポリシー、4 つのアラート条件、および通知チャネルをプロビジョニングします。 4 つのアラート条件は[ 、Google のサイト信頼性エンジニアリング ブック](https://landing.google.com/sre/sre-book/toc/index.html) で紹介されている 4[ つのゴールデン シグナル](https://landing.google.com/sre/sre-book/chapters/monitoring-distributed-systems/#xref_monitoring_golden-signals) に基づいています。 - -* **Latency:** - - アプリケーションがリクエストを処理するのにかかる時間。 - -* **Traffic:** - - システムが受信するリクエストの量。 - -* **Errors:** - - 失敗したリクエストの割合。 - -* **Saturation:** - - アプリケーションの要求を満たすためのリソースへのストレス。 - -