Information about the goals and organization of the AI Incident Database can be found on the [production website](https://incidentdatabase.ai/). This page concentrates on onboarding for the following types of contributions to the database,
@@ -321,6 +330,12 @@ The dry run is disabled through an environment variable as follows:
TRANSLATE_DRY_RUN=false
```
+In addition to the Dry Run mode, you can also limit the number of reports to translate by setting the following environment variable. This variable sets the date from which the reports will be translated (using the `date_submitted` report field):
+
+```
+TRANSLATE_SUBMISSION_DATE_START=2024-01-01
+```
+
### Geocoding
If the feature you are working on depends on Google's Geocoding API, please add the following environment variable with the appropriate value to your .env file.
@@ -398,7 +413,7 @@ As soon as a user is signed in, the system assigns a `subscriber` role by defaul
|-------------------------------|----------------------------------------------------------------------------------------------------------------------------------------|
| `subscriber` | This is the default role assigned to all users. It allows the user to subscribe to new incidents, specific incidents, entities, and anything else that is subscribeable. |
| `submitter` | This role allows the user to submit new incidents under their user account. |
-| `incident_editor` | This role allows the user to: - Edit and clone incidents - See the live incident data. The live data is the data that is currently stored in the database. Keep in mind that incident pages are generated on each build, so if a user edits an incident, the change will be only visible if the live data options is activated until the next build finishes. - Add, edit, approve and delete incident variants - View and submit incident candidates - Restore previous versions of incidents and reports. |
+| `incident_editor` | This role allows the user to: - Edit and clone incidents - See the live incident data. The live data is the data that is currently stored in the database. Keep in mind that incident pages are generated on each build, so if a user edits an incident, the change will be only visible if the live data options is activated until the next build finishes. - Add, edit, approve and delete incident variants - View and submit incident candidates - Restore previous versions of incidents and reports. - Approve and reject new submissions. Which involves converting a submission into an incident or report (create incident or report and linked notifications), or deleting the submission |
| `taxonomy_editor` | This role allows the user to edit all taxonomies. |
| `taxonomy_editor_{taxonomy_name}` | This role allows the user to edit a specific taxonomy. ie: `taxonomy_editor_csetv1` role allows the user to edit the `CSETv1` taxonomy. |
| `admin` | This role has full access to the site, including the ability to edit users' roles. |
@@ -466,6 +481,54 @@ CLOUDFLARE_R2_SECRET_ACCESS_KEY=[The Cloudflare R2 secret access key]
CLOUDFLARE_R2_BUCKET_NAME=[The Cloudflare R2 bucket name (e.g.: 'aiid-public')]
GATSBY_CLOUDFLARE_R2_PUBLIC_BUCKET_URL=[The Cloudflare R2 public bucket URL (e.g.: https://pub-daddb16dc28841779b83690f75eb5c58.r2.dev)]
```
+
+### New Netlify Setup
+
+This guide walks you through the steps to set up a Netlify site for your project by importing an existing project from GitHub.
+
+### Prerequisites
+
+- Ensure you have a GitHub account and your project is already pushed to a repository.
+- Make sure you have a Netlify account. If not, sign up at [Netlify](https://www.netlify.com/).
+
+### Steps to Set Up
+
+#### 1. Add New Site
+
+- Go to your Netlify dashboard.
+- Click on **Add New Site**.
+
+#### 2. Import Existing Project
+
+- Choose **Import Existing Project**.
+
+#### 3. Deploy with GitHub
+
+- Select **Deploy with GitHub** to connect your GitHub account.
+
+#### 4. Select Repository
+
+- Choose the repository where your project is located.
+
+#### 5. Configure Deployment
+
+- Under **Branch to Deploy**, select `master`. This setting doesn't matter for now.
+- Leave all other settings as default.
+- Click on **Deploy Site**.
+
+#### 6. Site Configuration
+
+##### Build and Deploy
+
+- Navigate to **Site Configuration** > **Build & Deploy**.
+- Under **Build Settings** > **Build Status**, find **Stopped Builds**.
+- Click **Save**.
+
+##### Site Details
+
+- Go to **Site Configuration** > **Site Details**.
+- Copy the `NETLIFY_SITE_ID`. This will be useful when setting up the GitHub environment.
+
### Github Actions
Two workflows take care of deploying the Realm app to both `production` and `staging` environments, defined in `realm-production.yml` and `realm-staging.yml`. Each workflow looks for environment variables defined in a GitHub Environment named `production` and `staging`.
@@ -475,9 +538,71 @@ GATSBY_REALM_APP_ID=
REALM_API_PRIVATE_KEY=
REALM_API_PUBLIC_KEY=
```
-
To get your Public and Private API Key, follow these [instructions](https://www.mongodb.com/docs/atlas/configure-api-access/#std-label-create-org-api-key).
+### Deployment Workflows on GitHub Actions
+
+We have integrated our testing and deployment processes with GitHub Actions. There are three primary workflows for deployment: Deploy Previews, Staging, and Production. The goal of these workflows is to continuously test and integrate changes in pull requests across environments.
+
+#### 1) Deploy Previews Workflow
+
+- **File:** [/.github/workflows/preview.yml](/.github/workflows/preview.yml)
+- **Trigger:** This workflow is activated for pushes to pull requests that target the `staging` branch.
+- **Process:** Executes both the integration tests and deploys the application to Netlify.
+- **Post-Deployment:** Upon a successful deployment, the workflow automatically posts a comment on the pull request. This comment includes a link to the Netlify preview of the changes and a link to the Netlify deploy log.
+- **Environment:** This workflow uses the `staging` GitHub environment.
+
+#### 2) Staging Workflow (WIP)
+
+- **Trigger:** Runs only on pushes to the `staging` branch.
+- **Process:** Executes both the integration tests and deploys to Netlify.
+- **Deployment Criteria:** If the tests fail, no deployment will be carried out.
+- **Environment:** This workflow uses the `staging` GitHub environment.
+
+#### 3) Production Workflow (WIP)
+
+- **Trigger:** Runs only on pushes to the `master` branch.
+- **Process:** Executes both the integration tests and deploys to Netlify.
+- **Deployment Criteria:** If the tests fail, no deployment will be carried out.
+- **Environment:** This workflow uses the `production` GitHub environment.
+
+### GitHub Environment Configuration
+
+All three workflows share a common set of environment variables, which need to be defined for each environment. (Currently, we have only two environments: `staging` and `production`.) These variables are categorized into secrets and standard variables, and are accessed via GitHub actions as such.
+
+#### Secrets
+
+- `ALGOLIA_ADMIN_KEY`
+- `CLOUDFLARE_R2_ACCESS_KEY_ID`
+- `CLOUDFLARE_R2_ACCOUNT_ID`
+- `CLOUDFLARE_R2_BUCKET_NAME`
+- `CLOUDFLARE_R2_SECRET_ACCESS_KEY`
+- `CYPRESS_RECORD_KEY`
+- `E2E_ADMIN_PASSWORD`
+- `E2E_ADMIN_USERNAME`
+- `GOOGLE_TRANSLATE_API_KEY`
+- `MONGODB_CONNECTION_STRING`
+- `MONGODB_MIGRATIONS_CONNECTION_STRING`
+- `MONGODB_REPLICA_SET`
+- `MONGODB_TRANSLATIONS_CONNECTION_STRING`
+- `NETLIFY_AUTH_TOKEN`
+- `PRISMIC_ACCESS_TOKEN`
+- `REALM_API_PRIVATE_KEY`
+- `REALM_GRAPHQL_API_KEY`
+- `REALM_API_PUBLIC_KEY`
+- `GATSBY_ROLLBAR_TOKEN`
+
+#### Variables
+
+- `CYPRESS_PROJECT_ID`
+- `GATSBY_ALGOLIA_APP_ID`
+- `GATSBY_ALGOLIA_SEARCH_KEY`
+- `GATSBY_AVAILABLE_LANGUAGES`
+- `GATSBY_CLOUDFLARE_R2_PUBLIC_BUCKET_URL`
+- `GATSBY_PRISMIC_REPO_NAME`
+- `GATSBY_REALM_APP_ID`
+- `NETLIFY_SITE_ID`
+
### Testing
For integration testing, we use Cypress. You can run the desktop app continuously as part of your development environment or run it on demand in headless mode.
@@ -755,7 +880,7 @@ appId = [Atlas Service App ID, eg: "62cc98647e6a26c53d5b4b53"]
To get your Public and Private API Key, follow these [instructions](https://www.mongodb.com/docs/atlas/configure-api-access/#std-label-create-org-api-key).
To get the group ID and the app ID, the easiest way is to navigate to your Atlas Service App dashboard and copy from the URL.
-The URL format is https://realm.mongodb.com/groups/[groupId]/apps/[appId]/dashboard
+The URL format is https://services.cloud.mongodb.com/groups/[groupId]/apps/[appId]/dashboard
Email notifications to New Incidents (subscription type **New Incident**), Incident updates (subscription type **Incident**) and Submission Promoted (subscription type **Submission Promoted**) are sent when the next build finishes. This is because we have to wait until the new Incident page is generated and accessible.
When a new Incident is created or updates, a pending notification item is saved into the `notifications` DB collection with `processed=false` field.
diff --git a/site/gatsby-site/blog/deepfakes-child-safety/index.es.mdx b/site/gatsby-site/blog/deepfakes-child-safety/index.es.mdx
index 9ed57828b0..6527b949f6 100644
--- a/site/gatsby-site/blog/deepfakes-child-safety/index.es.mdx
+++ b/site/gatsby-site/blog/deepfakes-child-safety/index.es.mdx
@@ -1,7 +1,7 @@
---
title: 'Deepfakes y seguridad infantil: encuesta y análisis de incidentes y respuestas de 2023'
metaTitle: 'Deepfakes y seguridad infantil: encuesta y análisis de incidentes y respuestas de 2023'
-metaDescription: ""
+metaDescription: "Preocupaciones crecientes y desafíos legales en relación a la creación y distribución de materiales de abuso sexual infantil generados por IA en 2023."
date: '2024-01-09'
image: './images/image_doj.jpg'
author: 'Daniel Atherton'
@@ -11,9 +11,9 @@ aiTranslated: true
**AVISO LEGAL:** Esta publicación no es un consejo o comentario legal y no debe interpretarse como tal.
-En 2023 se produjo un aumento de los materiales de abuso sexual infantil (CSAM) generados por IA, junto con procesamientos de los infractores, una variedad de intentos legislativos para combatir los deepfakes de IA dirigidos a menores y la [orden ejecutiva sobre inteligencia artificial de la administración Biden](https://www.whitehouse.gov/briefing-room/presidential-actions/2023/10/30/executive-order-on-the-safe-secure-and-trustworthy-development-and-use-of-artificial-intelligence/).
+En 2023 se produjo un aumento de los materiales de abuso sexual infantil (MASI) generados por IA, junto con procesamientos de los infractores, una variedad de intentos legislativos para combatir los deepfakes de IA dirigidos a menores y la [orden ejecutiva sobre inteligencia artificial de la administración Biden](https://www.whitehouse.gov/briefing-room/presidential-actions/2023/10/30/executive-order-on-the-safe-secure-and-trustworthy-development-and-use-of-artificial-intelligence/).
-Los deepfakes se pueden clasificar en términos generales en dos categorías principales, cada una con su propio subconjunto relacionado con CSAM. La primera categoría incluye deepfakes de individuos reales, donde el daño predominante asociado con CSAM surge de la generación de pornografía deepfake con niños reales. La segunda categoría abarca los deepfakes en los que los sujetos son completamente virtuales pero convincentemente realistas. En esta categoría, las preocupaciones sobre CSAM están relacionadas principalmente con la creación de medios audiovisuales sintéticos inapropiados que representan niños virtuales. En conjunto, estas dos categorías taxonómicas demuestran las diversas formas preocupantes en que se puede emplear la tecnología deepfake, especialmente en la generación y proliferación de CSAM.
+Los deepfakes se pueden clasificar en términos generales en dos categorías principales, cada una con su propio subconjunto relacionado con MASI. La primera categoría incluye deepfakes de individuos reales, donde el daño predominante asociado con MASI surge de la generación de pornografía deepfake con niños reales. La segunda categoría abarca los deepfakes en los que los sujetos son completamente virtuales pero convincentemente realistas. En esta categoría, las preocupaciones sobre MASI están relacionadas principalmente con la creación de medios audiovisuales sintéticos inapropiados que representan niños virtuales. En conjunto, estas dos categorías taxonómicas demuestran las diversas formas preocupantes en que se puede emplear la tecnología deepfake, especialmente en la generación y proliferación de MASI.
Este artículo proporciona una instantánea de parte del trabajo de la base de datos de incidentes de IA en el seguimiento de estos incidentes emergentes, junto con un estudio de algunas de las respuestas legislativas incipientes.
@@ -37,9 +37,9 @@ Recientemente, [un incidente](https://incidentdatabase.ai/cite/576/) salió a la
*The Wall Street Journal* también [informado recientemente](https://www.wsj.com/tech/facebook-and-instagram-steer-predators-to-children-new-mexico-attorney-general-alleges-in-demand-b76a5b04?mod=Searchresults_pos1&page=1) sobre el Fiscal General de Nuevo México que presentó una demanda contra Meta, alegando que los algoritmos de Facebook e Instagram dirigieron a los depredadores y al contenido pornográfico a cuentas de prueba de temas menores. La investigación involucró imágenes de niños ficticios generadas por IA, lo que resultó en que las cuentas recibieran mensajes explícitos y proposiciones sexuales. La demanda afirma que las plataformas de Meta se han convertido en un mercado para depredadores y critica su falta de protección a los usuarios menores de edad, citando varios casos penales de explotación a través de estas plataformas. En este caso, fueron los investigadores quienes generaron las imágenes de los menores ficticios, adaptando las nuevas tecnologías a antiguas técnicas en este ámbito específico de la aplicación de la ley.
-Un [estudio reciente](https://stacks.stanford.edu/file/druid:kh752sm9123/ml_training_data_csam_report-2023-12-21.pdf) realizado por David Thiel del Stanford Internet Observatory detalla la presencia de CSAM en los datos de entrenamiento de Modelos generativos de aprendizaje automático, centrándose en el conjunto de datos LAION-5B utilizado para modelos como Difusión estable. A través de varios métodos, incluidos los clasificadores PhotoDNA y ML, Thiel identificó numerosos casos nuevos y conocidos de CSAM en el conjunto de datos. Los hallazgos son oportunos ya que muestran la necesidad de prácticas de capacitación de modelos y curación de datos más rigurosas para evitar la perpetuación de contenido dañino, en línea con las preocupaciones planteadas por los incidentes en las plataformas de redes sociales y enfatizando la importancia de un mayor desarrollo responsable de la IA en este sentido. frente.
+Un [estudio reciente](https://stacks.stanford.edu/file/druid:kh752sm9123/ml_training_data_csam_report-2023-12-21.pdf) realizado por David Thiel del Stanford Internet Observatory detalla la presencia de MASI en los datos de entrenamiento de Modelos generativos de aprendizaje automático, centrándose en el conjunto de datos LAION-5B utilizado para modelos como Difusión estable. A través de varios métodos, incluidos los clasificadores PhotoDNA y ML, Thiel identificó numerosos casos nuevos y conocidos de MASI en el conjunto de datos. Los hallazgos son oportunos ya que muestran la necesidad de prácticas de capacitación de modelos y curación de datos más rigurosas para evitar la perpetuación de contenido dañino, en línea con las preocupaciones planteadas por los incidentes en las plataformas de redes sociales y enfatizando la importancia de un mayor desarrollo responsable de la IA en este sentido. frente.
-Actualmente, los esfuerzos legales para abordar los deepfakes de CSAM han sido reactivos y poco sistemáticos. Sin embargo, la orden ejecutiva del presidente Biden sobre la IA tiene como objetivo establecer normas estrictas para prevenir el uso indebido de la IA, centrándose en la seguridad nacional y la seguridad individual, lo que implica autenticar el contenido digital y etiquetar los medios sintéticos, especialmente para proteger a los niños de los daños provocados por la IA. Los desarrolladores deben compartir los resultados de las pruebas de seguridad de la IA antes de su uso público, centrándose en problemas como la creación de CSAM. La orden dirige el desarrollo de estándares para la autenticación de contenido y la detección de IA, y aborda el CSAM generado por IA y las imágenes sexualizadas no consensuales. Antes de la orden ejecutiva, [U.S. Los fiscales generales instaron al Congreso](https://www.scag.gov/media/pvehppkm/54-state-ags-urge-study-of-ai-and-harmful-impacts-on-children.pdf) a investigar el papel de la IA. en la explotación infantil, enfatizando la necesidad de una legislación integral sobre privacidad de datos.
+Actualmente, los esfuerzos legales para abordar los deepfakes de MASI han sido reactivos y poco sistemáticos. Sin embargo, la orden ejecutiva del presidente Biden sobre la IA tiene como objetivo establecer normas estrictas para prevenir el uso indebido de la IA, centrándose en la seguridad nacional y la seguridad individual, lo que implica autenticar el contenido digital y etiquetar los medios sintéticos, especialmente para proteger a los niños de los daños provocados por la IA. Los desarrolladores deben compartir los resultados de las pruebas de seguridad de la IA antes de su uso público, centrándose en problemas como la creación de MASI. La orden dirige el desarrollo de estándares para la autenticación de contenido y la detección de IA, y aborda el MASI generado por IA y las imágenes sexualizadas no consensuales. Antes de la orden ejecutiva, [U.S. Los fiscales generales instaron al Congreso](https://www.scag.gov/media/pvehppkm/54-state-ags-urge-study-of-ai-and-harmful-impacts-on-children.pdf) a investigar el papel de la IA. en la explotación infantil, enfatizando la necesidad de una legislación integral sobre privacidad de datos.
Hasta el momento, [no existe ningún proyecto de ley federal general](https://www.nbcnews.com/news/us-news/little-recourse-teens-girls-victimized-ai-deepfake-nudes-rcna126399), pero se han realizado esfuerzos. (por ejemplo, [Ley de Responsabilidad H.R.3230 DEEP FAKES](https://www.congress.gov/bill/116th-congress/house-bill/3230)). A continuación se muestran cuatro ejemplos de legislación a nivel estatal:
@@ -51,4 +51,4 @@ Hasta el momento, [no existe ningún proyecto de ley federal general](https://ww
* [Virginia, Código 18.2-386.2](https://law.lis.virginia.gov/vacode/title18.2/chapter8/section18.2-386.2/): convierte en un delito menor de Clase 1 compartir o vender desnudos maliciosamente o imágenes sexualmente explícitas de alguien sin su consentimiento, especialmente si se hacen para acosar, coaccionar o intimidar. Esto incluye imágenes que han sido alteradas digitalmente para representar a una persona. Los proveedores de servicios de Internet no se hacen responsables del contenido compartido por otros. Se pueden emprender acciones legales donde se produjo el hecho ilícito o donde se manipuló la imagen. También pueden aplicarse otros cargos legales.
-En la base de datos de incidentes de IA (AIID), hemos estado catalogando e investigando con preocupación estos incidentes recientes de CSAM. Como toda tecnología, la IA generativa plantea riesgos y oportunidades, y los riesgos para los niños en este caso son graves. Si desea unirse a nosotros en nuestra misión de documentar incidentes de IA con el objetivo de aprender de los errores del pasado para mitigar riesgos futuros, puede conectarse con nosotros a través de nuestra página de [contacto](https://incidentdatabase.ai/contact/) . Agradecemos los envíos que informen sobre todos y cada uno de los incidentes de IA utilizando nuestra página [envío](https://incidentdatabase.ai/apps/submit/); sin embargo, tenga en cuenta que, si bien rastreamos y analizamos activamente las tendencias e incidentes de CSAM, el AIID no es el destino directo para informar sobre CSAM real. Dirija la denuncia de CSAM al Departamento de Justicia [Sección de Obscenidad y Explotación Infantil](https://www.justice.gov/criminal/criminal-ceos/report-violations).
\ No newline at end of file
+En la base de datos de incidentes de IA (AIID), hemos estado catalogando e investigando con preocupación estos incidentes recientes de MASI. Como toda tecnología, la IA generativa plantea riesgos y oportunidades, y los riesgos para los niños en este caso son graves. Si desea unirse a nosotros en nuestra misión de documentar incidentes de IA con el objetivo de aprender de los errores del pasado para mitigar riesgos futuros, puede conectarse con nosotros a través de nuestra página de [contacto](https://incidentdatabase.ai/contact/) . Agradecemos los envíos que informen sobre todos y cada uno de los incidentes de IA utilizando nuestra página [envío](https://incidentdatabase.ai/apps/submit/); sin embargo, tenga en cuenta que, si bien rastreamos y analizamos activamente las tendencias e incidentes de MASI, el AIID no es el destino directo para informar sobre MASI real. Dirija la denuncia de MASI al Departamento de Justicia [Sección de Obscenidad y Explotación Infantil](https://www.justice.gov/criminal/criminal-ceos/report-violations).
\ No newline at end of file
diff --git a/site/gatsby-site/blog/deepfakes-child-safety/index.fr.mdx b/site/gatsby-site/blog/deepfakes-child-safety/index.fr.mdx
index 702ee8317f..fbd542a4ff 100644
--- a/site/gatsby-site/blog/deepfakes-child-safety/index.fr.mdx
+++ b/site/gatsby-site/blog/deepfakes-child-safety/index.fr.mdx
@@ -1,7 +1,7 @@
---
title: 'Deepfakes et sécurité des enfants : une enquête et une analyse des incidents et des réponses de 2023'
metaTitle: 'Deepfakes et sécurité des enfants : une enquête et une analyse des incidents et des réponses de 2023'
-metaDescription: ""
+metaDescription: "Préoccupations croissantes et défis juridiques concernant la création et la distribution de matériaux d'abus sexuels sur enfants générés par IA en 2023."
date: '2024-01-09'
image: './images/image_doj.jpg'
author: 'Daniel Atherton'
diff --git a/site/gatsby-site/blog/deepfakes-child-safety/index.mdx b/site/gatsby-site/blog/deepfakes-child-safety/index.mdx
index e8cad11d2b..3226d2f4f5 100644
--- a/site/gatsby-site/blog/deepfakes-child-safety/index.mdx
+++ b/site/gatsby-site/blog/deepfakes-child-safety/index.mdx
@@ -1,7 +1,7 @@
---
title: 'Deepfakes and Child Safety: A Survey and Analysis of 2023 Incidents and Responses'
metaTitle: 'Deepfakes and Child Safety: A Survey and Analysis of 2023 Incidents and Responses'
-metaDescription: ""
+metaDescription: "Rising concerns and legal challenges regarding the creation and distribution of AI-generated child sexual abuse materials in 2023."
date: '2024-01-09'
image: './images/image_doj.jpg'
author: 'Daniel Atherton'
@@ -10,7 +10,7 @@ slug: '/blog/deepfakes-and-child-safety'
**DISCLAIMER:** This post is not legal advice or commentary and should not be construed as such.
-2023 saw an increase in AI-generated child sex abuse materials (CSAM), along with prosecutions of offenders, a variety of legislative attempts to combat AI deepfakes targeting minors, and the Biden administration's [executive order on artificial intelligence](https://www.whitehouse.gov/briefing-room/presidential-actions/2023/10/30/executive-order-on-the-safe-secure-and-trustworthy-development-and-use-of-artificial-intelligence/).
+2023 saw an increase in AI-generated child sexual abuse materials (CSAM), along with prosecutions of offenders, a variety of legislative attempts to combat AI deepfakes targeting minors, and the Biden administration's [executive order on artificial intelligence](https://www.whitehouse.gov/briefing-room/presidential-actions/2023/10/30/executive-order-on-the-safe-secure-and-trustworthy-development-and-use-of-artificial-intelligence/).
Deepfakes can be broadly classified into two main categories, each with its own subset related to CSAM. The first category includes deepfakes of actual individuals, where the predominant harm associated with CSAM arises from the generation of deepfake pornography featuring real children. The second category encompasses deepfakes where the subjects are entirely virtual yet convincingly realistic. In this category, CSAM concerns are primarily linked to the creation of inappropriate synthetic audiovisual media depicting virtual children. Collectively, these two taxonomic categories demonstrate the various troubling ways deepfake technology can be employed, especially in the generation and proliferation of CSAM.
diff --git a/site/gatsby-site/content/about/index.ja.mdx b/site/gatsby-site/content/about/index.ja.mdx
new file mode 100644
index 0000000000..f64e457c47
--- /dev/null
+++ b/site/gatsby-site/content/about/index.ja.mdx
@@ -0,0 +1,173 @@
+---
+title: "約"
+metaTitle: "データベースの開発者とその目的に関する詳細"
+metaDescription: "AIIDを開発している人々と組織は誰であり、なぜそれを開発しているのか?"
+slug: "/about"
+aiTranslated: true
+---
+
+import Leaderboards from '../../src/components/landing/Leaderboards';
+import Sponsors from '../../src/components/landing/Sponsors';
+
+## なぜ「AIインシデント」?
+
+現在、インテリジェントシステムは実世界に展開される際に予期しない危険な障害に対して脆弱です。これは、それ以前の運輸部門(例えば、[FAA](https://www.faa.gov/data_research/accident_incident/)や[FARS](https://www.nhtsa.gov/research-data/fatality-analysis-reporting-system-fars))、そして最近では[コンピューターシステム](https://cve.mitre.org/cve/)のように、現実世界での経験に基づいた問題のリポジトリが必要とされています。これにより、将来の研究者や開発者が繰り返し起こる悪い結果を緩和または回避することができます。
+
+## インシデントとは何ですか?
+
+最初の1000以上のインシデント報告は意図的に幅広いものでした。現在の例には次のものがあります。
+
+- *自律型車両*が[歩行者を ation](/cite/4)しました。
+- *トレーディングアルゴリズム*が "[フラッシュクラッシュ](/cite/28)" を引き起こし、数十億ドルが関係者間で移動しました。
+- *顔認識システム*が[無実の人を逮捕](/cite/74)しました。
+
+あなたは、[これまでに収集されたインシデントを探索](/apps/discover)し、[完全なリスト](/summaries/incidents)を表示し、さらにインシデントレポートを[提出](/apps/submit)するよう招待されています。研究者は、[AIインシデントの作業定義](/research/1-criteria)を確認してください。
+
+## 現在のおよび将来のユーザー
+
+このデータベースは常に進化し続けるデータ製品であり、アプリケーションの集合です。
+
+- **現在のユーザー**には、システムアーキテクト、産業製品開発者、広報マネージャー、[研究者](/research)、および公共政策研究者が含まれます。これらのユーザーは、最近展開されたインテリジェントシステムが実世界で予想外の結果を生み出した方法を[Discover](/apps/discover)アプリケーションを使用して積極的に発見するよう招待されています。これにより、彼らは開発中に類似した失敗を回避することができます。
+- **将来の利用**は、[オープンソース](https://github.com/responsible-ai-collaborative/aiid)コミュニティからのコード貢献により[進化します](/research/2-roadmap)。これには、追加のデータベース[サマリー](/about_apps/)や[タクソノミー](/research/2-roadmap)が含まれます。
+
+## インシデントを報告するタイミング
+
+イベントがインシデントと見なされるかどうかが不明な場合は、[提出して](/apps/submit)ください!このプロジェクトは、広範なコミュニティによって提出された候補インシデントの探索を通じて、「AIインシデント」という[共有定義](/research/1-criteria)に収束することを目指しています。
+
+## 取締役会
+
+インシデントデータベースは、コード、研究、およびより広範な影響を提供する人々や組織によって協力的に管理されています。プロジェクトのガバナンスに参加したい場合は、[お問い合わせ](/contact)して、AIインシデントデータベースへの貢献内容をお知らせください。
+
+**投票メンバー**
+
+- **[Patrick Hall](https://business.gwu.edu/johnston-patrick-hall):** Patrickは最近、AIとデータ分析に特化したワシントンDCに拠点を置く法律事務所であるbnh.aiの主任科学者でした。Patrickはジョージワシントン大学ビジネススクールの助教授でもあります。bnh.aiを共同設立する前、Patrickは機械学習ソフトウェア企業であるH2O.aiで責任あるAIの取り組みを率いており、その成果は世界で最初の説明可能で公正な機械学習の商用ソリューションの1つにつながりました。Patrickは説明可能かつ責任ある機械学習に関する人気のある電子書籍の主要著者の1人です。Patrickはイリノイ大学で計算化学を学び、ノースカロライナ州立大学の高度な解析研究所を卒業しました。
+**貢献内容:** PatrickはAIインシデントデータベースへのインシデントレポートの[主要な](https://incidentdatabase.ai/summaries/leaderboard)投稿者であり、取締役会の戦略的リーダーシップを提供しています。
+
+- **[Heather Frase](https://cset.georgetown.edu/staff/heather-frase/):** Heather Frase博士はジョージタウン大学の[セキュリティと新興技術センター](https://cset.georgetown.edu/)(CSET)のシニアフェローであり、AIアセスメントに取り組んでいます。また、MetaのOpen Loopプロジェクトの無給アドバイザーとして、国立標準技術研究所のAIリスク管理フレームワークの実装に関する専門知識を提供しています。CSETに加入する前、Heatherは8年間、情報、防衛、および連邦契約にデータ分析、計算モデリング、機械学習(ML)、人工知能(AI)のサポートを提供しました。さらに、Heatherは14年間、Institute for Defense Analyses(IDA)で過ごし、Director、Operational Test and Evaluation(DOT&E)を支援しました。IDAでは、彼女は科学、技術、統計の専門知識を活用して、主要な国防システムの運用テストのためのデータメトリックスおよび収集計画を開発し、テストデータを分析し、運用効率と適合性の評価を行う分析研究チームを率いました。彼女はカリフォルニア工科大学で材料科学の博士号、マイアミ大学オックスフォード校で物理学の学士号、言語のディプロマを取得しています。
+**貢献内容:** Heatherは[CSETタクソノミー](https://incidentdatabase.ai/taxonomy/cset)の監督のほか、AIインシデントの研究を行っています。
+
+- **[Kristian J. Hammond](https://www.mccormick.northwestern.edu/research-faculty/directory/profiles/hammond-kristian.html):** Kris Hammondはノースウェスタン大学のBill and Cathy Osborn Computer Science教授であり、Salesforceに買収された人工知能企業Narrative Scienceの共同創業者です。また、彼はノースウェスタン大学のCS + Xイニシアチブの学部リーダーであり、法律、医学、教育、ビジネスなどの分野をどのように変革するかを探求しています。彼はノースウェスタン大学のMaster of Science in Artificial Intelligence(MSAI)の学部長でもあります。最近、Dr. HammondはUnderwriter’s Laboratoriesによって資金提供された研究拠点であるCenter for Advancing Safety in Machine Intelligence(CASMI)を設立しました。CASMIは、AIシステムの設計と評価を人間の生活と安全に与える影響の観点から実行することを目的としています。
+**貢献内容:** Krisは、インシデントのケーススタディに焦点を当てた共同プロジェクトを開発しています。
+
+**名誉取締役会**
+
+名誉取締役会メンバーは、責任あるAIコラボレーションに対する彼らの奉仕において特に優れています。彼らは組織内でのガバナンスの役職を持ちません。
+
+- **[Sean McGregor](https://seanbmcgregor.com/):** Sean McGregorはAIインシデントデータベースプロジェクトの創設者であり、最近、[Digital Safety Research Institute](https://ul.org/research/digital-safety)の創設ディレクターとして加わりました。Responsible AI Collaborativeを始める前に、SeanはニューラルアクセラレータスタートアップSyntiantの機械学習アーキテクトの職を辞め、インテリジェントシステムの保証に全力を注ぐことができました。Dr. McGregorの業績には、エネルギー効率的推論のためのニューラルアクセラレータ、スピーチとヘリオフィジックスのための深層学習、および山火事の抑制政策のための強化学習が含まれます。有給の仕事の外で、Seanは「AI for Good」に関するトピックで主要な学術AI会議でワークショップシリーズを主催し、AIインシデント記録をAIテストプログラムに結び付けることで、AIの利点を安全に実現しようとしています。
+
+- **[Helen Toner](https://cset.georgetown.edu/staff/helen-toner/):** Helen Tonerはジョージタウン大学のセキュリティと新興技術センター(CSET)の戦略ディレクターです。彼女は以前、Open Philanthropyのシニアリサーチアナリストとして働いており、AIポリシーと戦略についての政策立案者と助成機関にアドバイスしていました。Open Philanthropyでの勤務とCSETへの参加の間、Helenはオックスフォード大学AIガバナンスセンターの研究フェローとして北京に住んでいました。Helenは、AIと機械学習が中国とアメリカ合衆国の国家安全保障に与える影響に関して、Foreign Affairsなどの出版物に寄稿し、米中経済安全保障調査委員会に証言しています。彼女はOpenAIの取締役会のメンバーでもあります。Helenは、ジョージタウン大学でセキュリティスタディーズの修士号、マイアミ大学で化学工学の学士号、言語のディプロマを取得しています。
+
+## 共同者
+
+**責任あるAIコラボレーシブ:** AIインシデントデータベースの背後にある組織に奉仕する人々。
+
+- [Scott Allen Cambo](https://www.scottallencambo.com/)
+- [Janet Boutilier Schwartz](https://www.linkedin.com/in/janet-boutilier-schwartz/)
+
+**デジタルセーフティリサーチインスティテュート(DSRI):** AIIDプログラムに大きな支援を提供する[DSRI](https://ul.org/research/digital-safety)と関連する人々。
+
+- [Kevin Paeth](https://www.linkedin.com/in/kevinpaeth/) はDSRIのリードです。
+- [César Varela](https://github.com/cesarvarela) はフルスタックエンジニアです。
+- [Luna McNulty](https://lmcnulty.me/) はUXエンジニアです。
+- [Pablo Costa](https://www.linkedin.com/in/pablo-costa/) はフルスタックエンジニアです。
+- [Clara Youdale Pinelli](https://www.linkedin.com/in/clarayoudale/) はフロントエンドエンジニアです。
+- [Sean McGregor](https://seanbmcgregor.com/) はDSRIのディレクターです。
+
+**インシデントエディタ:** インシデントの提出を解決し、それらを維持する人々。
+
+- [Daniel Atherton](https://www.linkedin.com/in/daniel-atherton-167819251/)
+- [Sean McGregor](https://seanbmcgregor.com/)
+- [Khoa Lam](https://www.linkedin.com/in/khoalklam/)
+- [Kate Perkins](https://www.linkedin.com/in/kateeperkins/)
+- [Janet Boutilier Schwartz](https://www.linkedin.com/in/janet-boutilier-schwartz/)
+
+さらに、[Zachary Arnold](https://cset.georgetown.edu/staff/zachary-arnold/) は[インシデント基準](/research/1-criteria)に重要な貢献をしました。
+
+**タクソノミーエディタ:** データベースに[タクソノミー](https://incidentdatabase.ai/taxonomies)を提供した組織または個人。
+
+- [セキュリティと新興技術センター](https://cset.georgetown.edu/)(CSET)
+- [Nikiforos Pittaras](https://npit.github.io/)(GMF)
+
+**パートナーシップAIスタッフ:**
+[Jingying Yang](https://www.linkedin.com/in/jingyingyang/) と [Dr. Christine Custis](https://www.su.edu/symposium/business-symposium-speakers/christine-custis/) はAIIDの初期段階で大きな貢献をしました。
+
+**オープンソース貢献者:** AIインシデントデータベースに複数のプルリクエスト、グラフィック、サイトのコピー、またはバグレポートを提供した人々。
+
+- [Neama Dadkhahnikoo](https://www.linkedin.com/in/neama/):NeamaはResponsible AI Collaborativeのボランティアエグゼクティブディレクターおよびボードオブザーバーを務めました。
+- [Kit Harris](https://www.linkedin.com/in/kitharris/):Kitは理事会のオブザーバーとして務め、助成金アドバイザーとして戦略的アドバイスを提供しました。
+- [Alex Muscă](https://github.com/alexmcode)
+- [Chloe Kam](http://kamchy.com) AIIDロゴを開発しました
+- [JT McHorse](https://github.com/jt-mchorse)
+- Seth Reid
+
+**インシデント投稿者:** データベースに多数のインシデントを貢献した人々。
+
+- [Roman Lutz(Max Planck Institute for Intelligent Systems、以前はMicrosoft)](/apps/discover?display=details&lang=en&page=1&submitters=Roman%20Lutz)
+- [Patrick Hall(Burt and Hall LLP)](/apps/discover?display=details&lang=en&page=1&submitters=Patrick%20Hall%20%28BNH.ai%29)
+- [Catherine Olsson(Google)](/apps/discover?display=details&lang=en&page=1&submitters=Catherine%20Olsson)
+- [Chris Nicholson(Skymind)](/apps/discover?display=details&lang=en&page=1&submitters=Chris%20Nicholson)
+- [Jeffrey Bigham(CMU)](/apps/discover?display=details&lang=en&page=1&submitters=Jeffrey%20Bigham)
+- [Lara Martin(Flourish)](/apps/discover?display=details&lang=en&page=1&submitters=Lara%20Martin)
+- [Matt Mahmoudi(ITU)](/apps/discover?display=details&lang=en&page=1&submitters=Matt%20Mahmoudi)
+- [Freyja Daly(ITU)](/apps/discover?display=details&lang=en&page=1&submitters=Freyja%20Daly)
+- [Jonas Öberg(GNU)](/apps/discover?display=details&lang=en&page=1&submitters=Jonas%20%C3%96berg)
+- [Sai Pathuri(ETH)](/apps/discover?display=details&lang=en&page=1&submitters=Sai%20Pathuri)
+- [Raúl Ortiz(UC Berkeley)](/apps/discover?display=details&lang=en&page=1&submitters=Ra%C3%BAl%20Ortiz)
+- [Thomas Zeinzinger(Robolab)](/apps/discover?display=details&lang=en&page=1&submitters=Thomas%20Zeinzinger)
+- [Jian Chang(DeepMind)](/apps/discover?display=details&lang=en&page=1&submitters=Jian%20Chang)
+- [Marina Riabiz(ITU)](/apps/discover?display=details&lang=en&page=1&submitters=Marina%20Riabiz)
+- [Nicholas Luciano(ITU)](/apps/discover?display=details&lang=en&page=1&submitters=Nicholas%20Luciano)
+
+**貢献的な団体:** データベースへの[インシデントの投稿](/apps/submit)、[パートナーシップ](/partners)、および[タクソノミーの作成](/research/2-roadmap)を通じてAIIDに大きな支援を提供した組織。
+
+- [セキュリティと新興技術センター(CSET)](https://cset.georgetown.edu/)
+- [Meta AI(前Facebook)](https://ai.facebook.com/)
+- [Underwriter’s Laboratories](https://ul.org/)
+- [Institute for Defense Analyses(IDA)](https://www.ida.org/)
+- [イリノイ大学](https://illinois.edu/)
+- [Google](https://www.google.com/)
+- [Max Planck Institute for Intelligent Systems](https://www.is.mpg.de/)
+- [DeepMind](https://deepmind.com/)
+- [ITU](https://www.itu.int/)
+
+**貢献的なデザイナーと開発者:** ウェブサイト、ツール、およびインシデントのデザイン、開発、テストを支援した人々。
+
+- [Faisal Nawaz](https://www.linkedin.com/in/faisnawaz/)
+- [Sina Pourmahdian](https://www.linkedin.com/in/sina-pourmahdian-09a1a47/)
+- [Gregor Cima](https://www.linkedin.com/in/gregor-cima/)
+- [Brian Lewis](https://www.linkedin.com/in/lewisbrian/)
+
+**その他の貢献者:** AIインシデントデータベースに寄与したが、他のグループに属さない人々。
+
+- [David Danks(CMU)](/apps/discover?display=details&lang=en&page=1&submitters=David%20Danks)
+- [Tom Dietterich(Oregon State)](/apps/discover?display=details&lang=en&page=1&submitters=Tom%20Dietterich)
+- [Alexandre Lacoste(Element AI)](/apps/discover?display=details&lang=en&page=1&submitters=Alexandre%20Lacoste)
+- [Catherine Olsson(Google)](/apps/discover?display=details&lang=en&page=1&submitters=Catherine%20Olsson)
+- [Patrick Hall(Burt and Hall LLP)](/apps/discover?display=details&lang=en&page=1&submitters=Patrick%20Hall%20%28BNH.ai%29)
+- [Kris Hammond(ノースウェスタン大学)](/apps/discover?display=details&lang=en&page=1&submitters=Kris%20Hammond)
+- [Oscar Reimer(ITU)](/apps/discover?display=details&lang=en&page=1&submitters=Oscar%20Reimer)
+- [Ian Roth](/apps/discover?display=details&lang=en&page=1&submitters=Ian%20Roth)
+- [Hadi Sharifi](/apps/discover?display=details&lang=en&page=1&submitters=Hadi%20Sharifi)
+- [Daniel Walker](/apps/discover?display=details&lang=en&page=1&submitters=Daniel%20Walker)
+
+**その他の貢献者:** AIIDに貢献したが、他のグループに属さない人々。
+
+- [Jillian Anderson](/apps/discover?display=details&lang=en&page=1&submitters=Jillian%20Anderson)
+- [Joe Chasinga](/apps/discover?display=details&lang=en&page=1&submitters=Joe%20Chasinga)
+- [Brice Dondoua](/apps/discover?display=details&lang=en&page=1&submitters=Brice%20Dondoua)
+- [Taylor Edmiston](/apps/discover?display=details&lang=en&page=1&submitters=Taylor%20Edmiston)
+- [Sam Greydanus](/apps/discover?display=details&lang=en&page=1&submitters=Sam%20Greydanus)
+- [Kyle Hanrahan](/apps/discover?display=details&lang=en&page=1&submitters=Kyle%20Hanrahan)
+- [Kimi Kobayashi](/apps/discover?display=details&lang=en&page=1&submitters=Kimi%20Kobayashi)
+- [Jonathon Meza](/apps/discover?display=details&lang=en&page=1&submitters=Jonathon%20Meza)
+- [Dane Myers](/apps/discover?display=details&lang=en&page=1&submitters=Dane%20Myers)
+- [Aaron Patterson](/apps/discover?display=details&lang=en&page=1&submitters=Aaron%20Patterson)
+- [Ryan Regier](/apps/discover?display=details&lang=en&page=1&submitters=Ryan%20Regier)
+- [Harrison Ruess](/apps/discover?display=details&lang=en&page=1&submitters=Harrison%20Ruess)
+- [Brandon Terrell](/apps/discover?display=details&lang=en&page=1&submitters=Brandon%20Terrell)
+- [Tanner Upthegrove](/apps/discover?display=details&lang=en&page=1&submitters=Tanner%20Upthegrove)
+- [Randy Wang](/apps/discover?display=details&lang=en&page=1&submitters=Randy%20Wang)
+- [Connor Warren](/apps/discover?display=details&lang=en&page=1&submitters=Connor%20Warren)
+- [Thomas Welsh](/apps/discover?display=details&lang=en&page=1&submitters=Thomas%20Welsh)
+- [Corey White](/apps/discover?display=details&lang=en&page=1&submitters=Corey%20White)
+- [Isaac Winkler](/apps/discover?display=details&lang=en&page=1&submitters=Isaac%20Winkler)
diff --git a/site/gatsby-site/content/research/1-criteria/index.es.mdx b/site/gatsby-site/content/research/1-criteria/index.es.mdx
index 2f16acebc0..56fa69095f 100644
--- a/site/gatsby-site/content/research/1-criteria/index.es.mdx
+++ b/site/gatsby-site/content/research/1-criteria/index.es.mdx
@@ -6,8 +6,6 @@ slug: "/research/1-criteria"
aiTranslated: true
---
-## Definición de un "incidente de IA"
-
La industria de los viajes aéreos comerciales debe gran parte de su creciente seguridad al análisis y archivo sistemáticos de accidentes e incidentes pasados dentro de una base de datos compartida. En aviación, un accidente es un caso en el que se produce un daño sustancial o la pérdida de vidas. Los incidentes son casos en los que el riesgo de accidente aumenta sustancialmente. Por ejemplo, cuando un pequeño incendio se extingue rápidamente en una cabina, es un "incidente", pero si el fuego quema a los miembros de la tripulación en el curso de la extinción, es un "accidente". La [base de datos de aviación de la FAA](https://www.faa.gov/data_research/accident_incident/) indexa datos de registro de vuelo e investigaciones posteriores de expertos en exámenes integrales de factores tecnológicos y humanos. En parte debido a este autoexamen continuo, viajar en avión es una de las formas más seguras de viajar. Décadas de mejoras iterativas en los sistemas de seguridad y la capacitación han reducido las muertes [81 veces](https://theblogbyjavier.com/2020/01/02/aviation-safety-evolution-2019-update/) desde 1970 cuando se normalizó para millas de pasajeros.
Donde la industria de la aviación tiene definiciones claras, los informáticos y los filósofos han debatido durante mucho tiempo las definiciones fundamentales de la inteligencia artificial. En ausencia de líneas claras que diferencien los algoritmos, la inteligencia y los daños que pueden causar directa o indirectamente, esta base de datos adopta un criterio adaptativo para ingerir "incidentes" donde los informes se aceptan o rechazan sobre la base de un [conjunto de reglas cada vez mayor](/es/editors-guide).
diff --git a/site/gatsby-site/content/research/1-criteria/index.fr.mdx b/site/gatsby-site/content/research/1-criteria/index.fr.mdx
index efb6b48967..472f179bb1 100644
--- a/site/gatsby-site/content/research/1-criteria/index.fr.mdx
+++ b/site/gatsby-site/content/research/1-criteria/index.fr.mdx
@@ -6,8 +6,6 @@ slug: "/research/1-criteria"
aiTranslated: true
---
-# Définir un "Incident IA"
-
L'industrie du transport aérien commercial doit une grande partie de sa sécurité croissante à l'analyse et à l'archivage systématiques des accidents et incidents passés dans une base de données partagée. Dans l'aviation, un accident est un cas où des dommages importants ou des pertes de vie se produisent. Les incidents sont des cas où le risque d'accident augmente considérablement. Par exemple, lorsqu'un petit incendie est rapidement éteint dans un poste de pilotage, il s'agit d'un "incident", mais si le feu brûle des membres d'équipage en cours d'extinction, il s'agit d'un "accident". La [base de données de l'aviation de la FAA](https://www.faa.gov/data_research/accident_incident/) indexe les données des journaux de vol et les enquêtes d'experts ultérieures dans des examens complets des facteurs technologiques et humains. En partie à cause de cet examen de soi continu, le transport aérien est l'un des modes de transport les plus sûrs. Des décennies d'améliorations itératives des systèmes de sécurité et de la formation ont réduit le nombre de décès [81 fois](https://theblogbyjavier.com/2020/01/02/aviation-safety-evolution-2019-update/) depuis 1970 lorsqu'il est normalisé pour les milles passagers.
Là où l'industrie aéronautique a des définitions claires, les informaticiens et les philosophes débattent depuis longtemps des définitions fondamentales de l'intelligence artificielle. En l'absence de lignes claires différenciant les algorithmes, l'intelligence et les dommages qu'ils peuvent causer directement ou indirectement, cette base de données adopte un critère adaptatif pour ingérer les "incidents" où les rapports sont acceptés ou rejetés sur la base d'un [ensemble de règles croissant](/fr/editors-guide).
diff --git a/site/gatsby-site/content/research/1-criteria/index.ja.mdx b/site/gatsby-site/content/research/1-criteria/index.ja.mdx
new file mode 100644
index 0000000000..fa762e1026
--- /dev/null
+++ b/site/gatsby-site/content/research/1-criteria/index.ja.mdx
@@ -0,0 +1,11 @@
+---
+title: "「AIインシデント」の定義"
+metaTitle: "「AIインシデント」の定義"
+metaDescription: "AIインシデントデータベースにインシデントレポートが受け入れられるかどうかの理由は何か?"
+slug: "/research/1-criteria"
+aiTranslated: true
+---
+
+商業航空旅行業界は、過去の事故やインシデントを体系的に分析し、共有データベースにアーカイブすることで安全性を向上させています。航空では、事故は実質的な損傷や生命の喪失が発生するケースです。インシデントは事故のリスクが実質的に増加するケースです。たとえば、コックピットで小さな火災が素早く消火されると「インシデント」ですが、その消火の過程で火災が乗員に被害を与える場合は「事故」となります。FAA(航空宇宙局)の[航空データベース](https://www.faa.gov/data_research/accident_incident/)は、飛行記録データとその後の専門家による調査を索引化し、技術的および人間の要因の包括的な調査につなげています。この継続的な自己検証の一環として、航空旅行は最も安全な旅行手段の一つです。安全システムとトレーニングの繰り返しの改善により、1970年以来の乗客マイルに対する死亡者数は[81倍減少](https://theblogbyjavier.com/2020/01/02/aviation-safety-evolution-2019-update/)しています。
+
+航空産業が明確な定義を持っているのに対し、コンピュータサイエンティストと哲学者は長らく人工知能の基本的な定義について議論してきました。明確な線引きがない中で、アルゴリズム、知能、およびそれらが直接または間接的に引き起こす可能性のある害について、このデータベースは「インシデント」を取り込むための適応的な基準を採用しており、報告が[編集者ガイド](/editors-guide)で定義された規則セットに基づいて受け入れられるか拒否されるかが判断されます。
diff --git a/site/gatsby-site/content/research/2-roadmap/index.ja.mdx b/site/gatsby-site/content/research/2-roadmap/index.ja.mdx
new file mode 100644
index 0000000000..ae904a125a
--- /dev/null
+++ b/site/gatsby-site/content/research/2-roadmap/index.ja.mdx
@@ -0,0 +1,33 @@
+---
+title: "データベースのロードマップ"
+metaTitle: "ロードマップと将来の開発"
+metaDescription: "AIIDの発展に伴う変更についての予測"
+slug: "/research/2-roadmap"
+aiTranslated: true
+---
+
+## 開発中
+
+**インシデントレポートの翻訳:** 現在、インシデントデータベースは英語圏向けに収集および提供されていますが、知的システムは言語、文化、場所を横断して展開されています。このプロジェクトは、すべての機械翻訳可能な言語のサポートに向けて進行中であり、インシデントレポートをどの言語からでも取得し、70億人以上の潜在ユーザーに提供できるようにしています。
+
+**ベストプラクティスリソース:** AIインシデントデータベースの動機の1つは、インシデントがデプロイ前にプロダクトやエンジニアリングチームと共有できるようにすることです。現在、データベースは問題(つまり、インシデント)のみを表示していますが、問題を防止または緩和するためのリソースを選択的に表示できるように進化しています。
+
+**ポストモーテムレポート:** ホステッドサービスでは、サービスの停止後に「ポストモーテム」を公開することが一般的です。ここで、企業は何が起こったか、誰が影響を受けたか、どれくらいの期間影響を受けたか、そして将来的にそのような停止を防ぐために企業が行う取り組みについて説明します。AIインシデントデータベースは、AIインシデントのポストモーテムに特にサポートを提供することを検討しています。
+
+**インシデントモニタリング:** より多くの知的システムが実世界で展開されるにつれて、インシデントの監視、収集、分類がますます難しくなります。AIインシデントデータベースが最新の知的システムに対応し続けるためには、AIインシデントを監視し、簡単に取り込むためのスクレイパーが必要です。現在、学生チームがこのプロジェクトのための基本的なAPIを開発しています。
+
+## 可能性のある将来のプロジェクト
+
+**技術的な障害のタクソノミー:** AIIDには、経験した被害とそれに関連する技術的要素をリンクする厳密な技術的なタクソノミーが欠けています。システムがどのように構築されるかに関する知識を持つ機械学習エンジニアのチームがこのギャップを埋めることを望んでいます。
+
+**インシデントデータの収集:** 多くのインシデントタイプは、企業によって分析され、内部で再発を避けるために使用されるインシデントデータを生成します。研究アソシエイトには、インシデントデータの自発的な開示を促進し、そのデータをインシデントレコードと関連付ける役割があります。将来的には、この種の開示が特定の管轄区域では義務付けられる可能性があり、AIIDはそのサポートが必要です。
+
+**あなたのプロジェクト:** AIインシデントデータベースは、責任あるAIコラボレーション(RAIC)によって管理されています。これはAIインシデントデータベースの影響テーゼに合致するプロジェクトに協力するためのオープンな招待と考えてください。
+
+## 提供された成果
+
+**初期のインシデント収集:** 初期データセットは2019年に[Roman Yampolskiy](http://cecs.louisville.edu/ry/)、[Catherine Olsson](https://www.linkedin.com/in/catherineolsson/)、および[Sam Yoon](https://www.linkedin.com/in/samyoonnz/)からのインシデントリストを結合して収集されました。これらのインシデントは合計1,000以上のインシデントレポートに関連しています。
+
+**インシデントディスカバリーアプリケーション:** 初期データセット収集の後、[Sean McGregor](https://seanbmcgregor.com/)が[Discover](/apps/discover)アプリケーションを開発し、初期のインシデントレポート収集で組み立てられた1,000以上のレポートの索引付けとクリーニングをサポートしました。
+
+**タクソノミー:** すべての市場セグメントおよび政府の機能に対して知的システムが開発されています。データ製品の[研究品質](/research)を向上させるには、インシデントをインシデントのタイプ、規模、関与した技術、影響を受けた当事者に応じて正規化および分類するシステムが必要です。これらおよび他の分類は、多利害関係者システムで議論の的となります。すべての分類について完全な合意が必要ではなく、研究データベースの研究有用性を向上させるために、中央の分類機関なしにタクソノミーを適用することが可能です。各「[分類のスコープ](/research/4-taxonomies)」は、タクソノミーを開発し、インシデント全体にタクソノミーを適用する責任を持つエディタによって管理されます。詳細については[お問い合わせください](/contact)。
diff --git a/site/gatsby-site/content/research/3-history/index.ja.mdx b/site/gatsby-site/content/research/3-history/index.ja.mdx
new file mode 100644
index 0000000000..1e1951072b
--- /dev/null
+++ b/site/gatsby-site/content/research/3-history/index.ja.mdx
@@ -0,0 +1,17 @@
+---
+title: "初期収集方法論"
+metaTitle: "初期収集方法論"
+metaDescription: "AIインシデントデータベースの初期のインシデントレポートがどのように収集されたか?"
+slug: "/research/3-history"
+aiTranslated: true
+---
+
+アメリカの航空産業は法律により、インシデントや事故を連邦航空局に報告することが義務付けられています。知的システムに対する強制的な報告義務は存在しないため、AIIDは一般的または研究のプレスに取り上げられるほど有名になったインシデントに基づいて構築されています。その結果、データベースは人々によって知られているすべてのインシデントではなく、「公共のインシデント」を代表するものと考えるべきです。
+
+現在のデータベースは、研究アシスタントのサム・ユンによって以下の方法で集められた初期のインシデントレポートによって支配されています。
+
+- [YampolskiとOlssonによって集められた初期のリンク](/research/2-roadmap)。
+- リンクはGoogle検索の一連の結果で関連する情報を見つけるためのキーワードを示していました。
+- Google検索結果のトップ3ページに潜在的に関連するリンクは開かれ、ソースによって説明されているイベントについての質の高い情報があるかどうかが確認されました。関連する場合、それらはデータセットに追加されました。
+- 検索プロセス中に識別された他の関連するように見えるインシデントもデータセットに含まれました。
+- 特定の種類の結果は含まれませんでした。それらは仮説的であるか、学術的であるか、および/または実際の害を引き起こさないためです。
diff --git a/site/gatsby-site/content/research/4-related-work/index.ja.mdx b/site/gatsby-site/content/research/4-related-work/index.ja.mdx
new file mode 100644
index 0000000000..de95ca7b48
--- /dev/null
+++ b/site/gatsby-site/content/research/4-related-work/index.ja.mdx
@@ -0,0 +1,90 @@
+---
+title: "関連する研究"
+metaTitle: "関連する研究"
+metaDescription: "関連する研究"
+slug: "/research/4-related-work"
+aiTranslated: true
+---
+
+公式なAIインシデント研究は比較的新しいものですが、何人かの人々がインシデントと見なされる可能性のある事例を収集しています。これには、
+
+* [素晴らしい機械学習の解釈性: AIインシデントトラッカー](https://github.com/jphall663/awesome-machine-learning-interpretability/blob/master/README.md#ai-incident-tracker)
+* [Charlie PownallのAIおよびアルゴリズムインシデントと論争](https://charliepownall.com/ai-algorithimic-incident-controversy-database/)
+* [有益なおよび有害なAIのマップ](https://map.ai-global.org/)
+
+ここに追加できるインシデントリソースがあれば、[お問い合わせ](/contact)してください。
+
+以下の出版物は[Google Scholarによってデータベース自体を参照している](https://scholar.google.com/scholar?oi=bibs&hl=en&cites=3482645389524246185)とされていますが、個々のインシデントだけでなく、お手数ですが、お問い合わせいただければ幸いです。[お問い合わせ](/contact)
+
+## 責任あるAI協力的研究
+
+広範な安全性と公平性の共同体に奉仕する必要がある場合、Collabは研究を制作およびスポンサーします。これまでの作業には以下が含まれます。
+
+* AIインシデントデータベースの公開発表時にリリースされたオリジナルな研究出版物。この作業へのすべての引用はこのページに追加されます。
+[McGregor, Sean. "Preventing repeated real-world AI failures by cataloging incidents: The AI incident database." AAAI Conference on Artificial Intelligenceの論文集. Vol. 35. No. 17. 2021.](https://ojs.aaai.org/index.php/AAAI/article/download/17817/17624)
+* [2022 NeurIPS Workshop on Human-Centered AI](https://nips.cc/virtual/2022/workshop/50008)で提示されたインシデントの定義と基準の主要な更新。
+[McGregor, Sean, Kevin Paeth, and Khoa Lam. "Indexing AI Risks with Incidents, Issues, and Variants." arXiv preprint arXiv:2211.10384 (2022).](https://arxiv.org/pdf/2211.10384)
+* オープンソースのインシデントレポートを分析する際のインシデントの原因の不確実性を減少させるアプローチ。[SafeAI](https://safeai.webs.upv.es/)で発表。
+[Pittaras, Nikiforos, and Sean McGregor. "A taxonomic system for failure cause analysis of open source AI incidents." arXiv preprint arXiv:2211.07280 (2022).](https://arxiv.org/pdf/2211.07280)
+
+## 2023年(2月24日まで)
+
+* [McGregor, Sean, and Jesse Hostetler. "データ中心のガバナンス." arXiv プリプリント arXiv:2302.07872 (2023).](https://arxiv.org/pdf/2302.07872)
+* [NIST. リスクマネジメントプレイブック. 2023](https://pages.nist.gov/AIRMF/)
+
+## 2022年
+
+* [Macrae, Carl. "自律型および知能型システムの失敗からの学び:事故、安全性、および社会技術的なリスクの分析." リスク分析 42.9 (2022): 1999-2025.](https://onlinelibrary.wiley.com/doi/pdfdirect/10.1111/risa.13850)
+* [Felländer, Anna, et al. "倫理的AIのためのデータ駆動型リスク評価手法の達成." Digital Society 1.2 (2022): 13.](https://link.springer.com/article/10.1007/s44206-022-00016-0)
+* [Apruzzese, Giovanni, et al. ""実際の攻撃者は勾配を計算しない":敵対的なML研究と実践のギャップを埋める." arXiv プリプリント arXiv:2212.14315 (2022).](https://arxiv.org/pdf/2212.14315)
+* [Petersen, Eike, et al. "医学のための責任あるおよび規制適合機械学習:課題と解決策の調査." IEEE Access 10 (2022): 58375-58418.](https://ieeexplore.ieee.org/iel7/6287639/9668973/09783196.pdf)
+* [Schuett, Jonas. "AIからのリスクに対する三つの防御ライン." arXiv プリプリント arXiv:2212.08364 (2022).](https://arxiv.org/pdf/2212.08364)
+* [Schiff, Daniel S. "色付きのメガネで政策ウィンドウを見る:米国のAI政策の議題設定." レビュー・オブ・ポリシー・リサーチ.](https://onlinelibrary.wiley.com/doi/abs/10.1111/ropr.12535)
+* [Neretin, Oleksii, and Vyacheslav Kharchenko. "Big Dataツールを使用したAIシステムの脆弱性収集と分析のプロセスを記述するモデル." 2022年第12回信頼性システム、サービス、および技術国際会議(DESSERT). IEEE、2022.](https://ieeexplore.ieee.org/abstract/document/10018811/)
+* [Durso, Francis, et al. "人工知能学習システムにおける障害の分析(FAILS)." 2022 IEEE 29th Annual Software Technology Conference (STC). IEEE、2022.](https://ieeexplore.ieee.org/abstract/document/9951011/)
+* [Kassab, Mohamad, Joanna DeFranco, and Phillip Laplante. "AIインフューズドシステムのバグの調査:分析と提案された分類." 2022 IEEE International Symposium on Software Reliability Engineering Workshops (ISSREW). IEEE、2022.](https://ieeexplore.ieee.org/abstract/document/9985178/)
+* [Braga, Juliao, et al. "アルゴリズムとデータのガバナンスに関する論文の開発プロジェクト." (2022).](https://osf.io/xcpsd/download)
+* [Secchi, Carlo, and Alessandro Gili. "持続可能なインフラのためのデジタル化:前途." 持続可能なインフラのためのデジタル化(2022):1-326.](https://www.torrossa.com/it/resources/an/5394879)
+* [Groza, Adrian, et al. "Elaborarea cadrului strategic nat, ional în domeniul inteligent, ei artificiale."](https://www.adr.gov.ro/wp-content/uploads/2022/03/Analiza-reglementarilor-pentru-domeniul-inteligentei-artificiale.pdf)
+* [Braga, Juliao, et al. "アルゴリズムとデータガバナンスに関する論文の開発プロジェクト." (2022).](https://osf.io/sr7kt/download)([元のポルトガル語](https://osf.io/xcpsd/download)).
+* [NIST. リスクマネジメントプレイブック. 2022](https://pages.nist.gov/AIRMF/)
+* [Shneiderman, Ben. Human-Centered AI. Oxford University Press, 2022.](https://www.amazon.com/Human-Centered-AI-Ben-Shneiderman/dp/0192845292)
+* [Schwartz, Reva, et al. "人工知能における偏見の特定および管理のための標準に向けて." (2022).](https://tsapps.nist.gov/publication/get_pdf.cfm?pub_id=934464)
+* [McGrath, Quintin et al. "プロ倫理的AIソリューションを設計するためのエンタープライズリスク管理フレームワーク." University of South Florida. (2022)](https://www.usf.edu/business/documents/desrist/paper_65.pdf).
+* [Nor, Ahmad Kamal Mohd, et al. "説明可能なベイジアンディープラーニングを使用した異常検知と故障予測:実世界のガスタービンの異常の方法論と事例研究." (2022).](https://www.mdpi.com/2227-7390/10/4/554/pdf)
+* [Xie, Xuan, Kristian Kersting, and Daniel Neider. "ディープニューラルネットワークの神経記号的検証." arXiv プリプリント arXiv:2203.00938 (2022).](https://arxiv.org/pdf/2203.00938)
+* [Hundt, Andrew, et al. "ロボットが悪意あるステレオタイプを実行する." 2022 ACM Conference on Fairness, Accountability, and Transparency. 2022.](https://dl.acm.org/doi/fullHtml/10.1145/3531146.3533138)
+* [Tidjon, Lionel Nganyewou, and Foutse Khomh. "機械学習ベースのシステムにおける脅威評価." arXiv プリプリント arXiv:2207.00091 (2022).](https://arxiv.org/pdf/2207.00091)
+* [Naja, Iman, et al. "ナレッジグラフを使用したAIの説明責任情報の実用的な収集、統合、および監査の解除." IEEE Access 10 (2022): 74383-74411.](https://ieeexplore.ieee.org/iel7/6287639/9668973/09815594.pdf)
+* [Cinà, Antonio Emanuele, et al. "ワイルドパターンリローデッド:機械学習セキュリティに対するトレーニングデータの汚染の調査." arXiv プリプリント arXiv:2205.01992 (2022).](https://arxiv.org/pdf/2205.01992)
+* [Schröder, Tim, and Michael Schulz. "機械学習モデルの監視:課題と方法のカテゴリ化." データサイエンスとマネジメント(2022).](https://www.sciencedirect.com/science/article/pii/S2666764922000303)
+* [Corea, Francesco, et al. "AIに対する原則ベースのアプローチ:欧州連合およびイタリアの事例." AI & SOCIETY (2022): 1-15.](https://link.springer.com/article/10.1007/s00146-022-01453-8)
+* [Carmichael, Zachariah, and Walter J. Scheirer. "アンフーリング摂動ベースの事後説明." arXiv プリプリント arXiv:2205.14772 (2022).](https://arxiv.org/pdf/2205.14772)
+* [Wei, Mengyi, and Zhixuan Zhou. "現実世界のAI倫理問題:AIインシデントデータベースからのエビデンス." arXiv プリプリント arXiv:2206.07635 (2022).](https://arxiv.org/pdf/2206.07635)
+* [Petersen, Eike, et al. "医学のための責任あるおよび規制適合機械学習:課題と解決策の調査." IEEE Access (2022).](https://ieeexplore.ieee.org/iel7/6287639/9668973/09783196.pdf)
+* [Karunagaran, Surya, Ana Lucic, and Christine Custis. "XAI Toolsheet: XAIツールのためのドキュメンテーションフレームワークに向けて."](https://a-lucic.github.io/talks/xai_pai_toolsheets.pdf)
+* [Paudel, Shreyasha, and Aatiz Ghimire. "ネパールにおけるAI倫理調査."](https://www.naamii.org.np/wp-content/uploads/2021/11/AI-Ethics-Survey-Report.pdf)
+* [Ferguson, Ryan. "ニューラルネットワークを使用したリスクプロセスの変革."](https://www.firm.fm/wp-content/uploads/2022/05/Papers-Round-Table-AI-April-2022.pdf)
+* [Fujitsu Corporation. "AI倫理影響評価ケースブック," 2022](https://www.fujitsu.com/global/documents/about/research/technology/aiethics/fujitsu-AIethics-case_en.pdf)
+* [Shneiderman, Ben and Du, Mengnan. "Human-Centered AI: Tools" 2022](https://hcai.site/tools/)
+* [Salih, Salih. "機械学習の解釈可能性を理解する." Medium. 2022](https://towardsdatascience.com/understanding-machine-learning-interpretability-168fd7562a1a)
+* [Garner, Carrie. "変革的で信頼性のあるAIシステムを作成するには、コミュニティの協力が必要です." Software Engineering Institute. 2022](https://insights.sei.cmu.edu/blog/creating-transformative-and-trustworthy-ai-systems-requires-a-community-effort/)
+* [Weissinger, Laurin, AI, Complexity, and Regulation (February 14, 2022). The Oxford Handbook of AI Governance](https://academic.oup.com/edited-volume/41989)
+
+## 2021
+
+* [Arnold, Z., Toner, H., CSET Policy. "AI Accidents: An Emerging Threat." (2021).](https://cset.georgetown.edu/wp-content/uploads/CSET-AI-Accidents-An-Emerging-Threat.pdf)
+* [Aliman, Nadisha-Marie, Leon Kester, and Roman Yampolskiy. "トランスディシプリナリーAIオブザーバトリー—回顧的分析と将来志向の対照." Philosophies 6.1 (2021): 6.](https://www.mdpi.com/2409-9287/6/1/6/pdf)
+* [Falco, Gregory, and Leilani H. Gilpin. "自律システムの検証および検証(V&V)のためのストレステストフレームワーク." 2021 IEEE International Conference on Autonomous Systems (ICAS). IEEE, 2021.](https://www.researchgate.net/profile/Gregory-Falco/publication/352930787_A_Stress_Testing_Framework_For_Autonomous_System_Verification_And_Validation_VV/links/60e911fcb8c0d5588ce64ec5/A-Stress-Testing-Framework-For-Autonomous-System-Verification-And-Validation-V-V.pdf)
+* [Petersen, Eike, et al. "医学のための責任あるおよび規制適合機械学習:技術的課題と解決策の調査." arXiv プリプリント arXiv:2107.09546 (2021).](https://arxiv.org/pdf/2107.09546)
+* [John-Mathews, Jean-Marie. AI倫理の実践、課題、および制約. Diss. Université Paris-Saclay, 2021.](https://tel.archives-ouvertes.fr/tel-03527232/document)
+* [Macrae, Carl. "自律および知的システムの失敗からの学び:事故、安全性、および社会技術的リスクの源." Safety and Sociotechnical Sources of Risk (June 4, 2021) (2021).](https://nottingham-repository.worktribe.com/OutputFile/7164920)
+* [Hong, Matthew K., et al. "自然言語の失敗に備えたAIプレイブック." Proceedings of the 2021 CHI Conference on Human Factors in Computing Systems. 2021.](https://www.adamfourney.com/papers/hong_chi2021.pdf)
+* [Ruohonen, Jukka. "ヨーロッパ連合における製品安全規制のレビュー." arXiv プリプリント arXiv:2102.03679 (2021).](https://arxiv.org/pdf/2102.03679)
+* [Kalin, Josh, David Noever, および Matthew Ciolino. "マシンラーニングモデルへの敵対的リスクを評価するための修正されたドレイク方程式." arXiv プリプリント arXiv:2103.02718 (2021).](https://arxiv.org/pdf/2103.02718)
+* [Aliman, Nadisha Marie, および Leon Kester. "科学的および経験的な敵対的AI攻撃に対するエピステミックな防御." CEUR Workshop Proceedings. Vol. 2916. CEUR WS, 2021.](https://dspace.library.uu.nl/bitstream/handle/1874/413353/paper_1.pdf?sequence=1)
+* [John-Mathews, Jean-Marie. L’Éthique de l’Intelligence Artificielle en Pratique. Enjeux et Limites. Diss. université Paris-Saclay, 2021.](https://www.theses.fr/2021UPASI015.pdf)
+* [Smith, Catherine. "知的自由の自動化:人工知能、偏見、および情報の風景." IFLA Journal (2021): 03400352211057145](https://journals.sagepub.com/doi/abs/10.1177/03400352211057145)
+
+
+もしここに追加すべき学術的な研究があれば、[お問い合わせ](/contact) からご連絡ください。
diff --git a/site/gatsby-site/content/research/5-response/index.ja.mdx b/site/gatsby-site/content/research/5-response/index.ja.mdx
new file mode 100644
index 0000000000..fbe4e21ede
--- /dev/null
+++ b/site/gatsby-site/content/research/5-response/index.ja.mdx
@@ -0,0 +1,67 @@
+---
+title: "「AIインシデントレスポンス」の定義"
+metaTitle: "「AIインシデントレスポンス」の定義"
+metaDescription: "AIインシデントレスポンスとは何か?"
+slug: "/research/5-response"
+aiTranslated: true
+---
+
+**AIインシデントレスポンス** は、AIインシデントデータベース(AIID)の**[インシデント](/research/1-criteria)**に対する**公的な対応**を指し、該当のインシデントにおいて、AIまたはAIシステムの開発または導入に**責任を負っているとされるエンティティ**(企業、組織、個人)からのものです。
+
+AIインシデントレスポンスには通常、以下の点に関する合理的な情報が含まれます:
+
+1. 何が起こったか
+2. インシデントが発生した理由
+3. エンティティが行ったまたは今後行うであろう対応に関する
+
+
-
- include(tag.split(':')))}
- onChange={(tagInputArray) => {
- //
- // Example tagInputArray:
- //
- // ["GMF:Known AI Technology:Transformer", "Language Model"]
- // | |
- // , | Not fully-qualified, entered by direct text entry
- // | when `trimTaxonomy` is enabled. Needs to be resolved to:
- // | "GMF:Known AI Technology:Language Model"
- // |
- // Fully-qualified, entered from menu
- //
- if (trimTaxonomy) {
- // If `trimTaxonomy` is enabled, then
- // "GMF:Known AI Technology:Transformer"
- // displays in the menu as just "Transformer".
- // Users would therefore expect that typing "Transformer"
- // will mean the same thing as clicking "Transformer" in the menu.
- // So we have to convert it to its fully-qualified version.
- const selectedTags = [];
-
- for (const tagInput of tagInputArray) {
- let selectedTag;
-
- if (tagInput.includes(':')) {
- // If there's a colon, it's already fully-qualified,
- selectedTag = tagInput;
- } else {
- // If there's no colon, then it's not fully-qualified,
- // so we find the full tag which abbreviates
- // to the unqualified one.
- selectedTag = tags.find((t) => abbreviatedTag(t) == tagInput);
- }
- if (selectedTag) {
- selectedTags.push(selectedTag);
+}) => {
+ const [realValue, setRealValue] = useState(idValue);
+
+ useEffect(() => {
+ setFieldValue(id, realValue);
+ }, [realValue]);
+
+ return (
+
+
+ include(tag.split(':')))}
+ onChange={(tagInputArray) => {
+ //
+ // Example tagInputArray:
+ //
+ // ["GMF:Known AI Technology:Transformer", "Language Model"]
+ // | |
+ // , | Not fully-qualified, entered by direct text entry
+ // | when `trimTaxonomy` is enabled. Needs to be resolved to:
+ // | "GMF:Known AI Technology:Language Model"
+ // |
+ // Fully-qualified, entered from menu
+ //
+ if (trimTaxonomy) {
+ // If `trimTaxonomy` is enabled, then
+ // "GMF:Known AI Technology:Transformer"
+ // displays in the menu as just "Transformer".
+ // Users would therefore expect that typing "Transformer"
+ // will mean the same thing as clicking "Transformer" in the menu.
+ // So we have to convert it to its fully-qualified version.
+ const selectedTags = [];
+
+ for (const tagInput of tagInputArray) {
+ let selectedTag;
+
+ if (tagInput.includes(':')) {
+ // If there's a colon, it's already fully-qualified,
+ selectedTag = tagInput;
+ } else {
+ // If there's no colon, then it's not fully-qualified,
+ // so we find the full tag which abbreviates
+ // to the unqualified one.
+ selectedTag = tags.find((t) => abbreviatedTag(t) == tagInput);
+ }
+ if (selectedTag) {
+ selectedTags.push(selectedTag);
+ }
}
+ setRealValue(selectedTags);
+ } else {
+ // If `trimTaxonomy` is disabled,
+ // then we can leave the input as it is.
+ setRealValue(tagInputArray);
}
- setFieldValue(id, selectedTags);
- } else {
- // If `trimTaxonomy` is disabled,
- // then we can leave the input as it is.
- setFieldValue(id, tagInputArray);
- }
- }}
- labelKey={trimTaxonomy ? abbreviatedTag : (a) => a}
- placeHolder={placeHolder}
- disabled={!userIsOwner}
- allowNew={false}
- />
-
+ {(risks || []).map((risk) => (
+
+ ))}
+
+ {generatedRisks
+ // If `tagsIdentifier(risk)` is in `manualRiskIdentifiers`,
+ // then the tags of `risks` exactly match
+ // those of some manually-annotated risk.
+ // We don't want to show a generated risk with the same tags.
+ .filter((risk) => !manualRiskIdentifiers.includes(tagsIdentifier(risk)))
+ .map((risk) => (
+
+ ))}
+
+ {generatedRisksLoading && }
+