Skip to content

Commit

Permalink
Merge remote-tracking branch 'upstream/staging' into feature-realm-de…
Browse files Browse the repository at this point in the history
…ploy
  • Loading branch information
cesarvarela committed Jan 25, 2024
2 parents 599f154 + c012694 commit e9b6f90
Show file tree
Hide file tree
Showing 31 changed files with 328 additions and 46 deletions.
19 changes: 11 additions & 8 deletions .github/workflows/deploy.yml
Original file line number Diff line number Diff line change
Expand Up @@ -3,19 +3,19 @@ on:
workflow_call:
inputs:
environment:
description: 'The Github environment to load secrets from'
description: The Github environment to load secrets from
type: string
required: true
context:
description: "The Netlify context use when building"
netlify-context:
description: The Netlify context use when building
type: string
required: true
alias:
netlify-alias:
description: The Netlify alias to deploy to (empty deploys to production)
type: string
required: true
sha:
description: "The commit SHA to deploy"
description: The commit SHA to deploy
type: string
required: true

Expand Down Expand Up @@ -61,7 +61,7 @@ jobs:
run: npm install netlify-cli -g

- name: Build using Netlify
run: netlify build --context ${{ inputs.context }} --offline
run: netlify build --context ${{ inputs.netlify-context }} --offline
env:
NETLIFY_SITE_ID: ${{ vars.NETLIFY_SITE_ID }}
NETLIFY_AUTH_TOKEN: ${{ secrets.NETLIFY_AUTH_TOKEN }}
Expand Down Expand Up @@ -92,16 +92,19 @@ jobs:
CLOUDFLARE_R2_ACCESS_KEY_ID: ${{ secrets.CLOUDFLARE_R2_ACCESS_KEY_ID }}
CLOUDFLARE_R2_SECRET_ACCESS_KEY: ${{ secrets.CLOUDFLARE_R2_SECRET_ACCESS_KEY }}
REALM_GRAPHQL_API_KEY: ${{ secrets.REALM_GRAPHQL_API_KEY }}
GATSBY_COMMIT_SHA: ${{ inputs.sha }}

- name: Upload to netlify
id: deploy-netlify
working-directory: site/gatsby-site
run: |
set -e
if [[ -z "${{ inputs.alias }}" ]]; then
# If no alias is specified, deploy to production
if [[ -z "${{ inputs.netlify-alias }}" ]]; then
OUTPUT=$(bash -c "netlify deploy --json --prod" | tr '\n' ' ')
# Otherwise, deploy to the specified alias
else
OUTPUT=$(bash -c "netlify deploy --json --alias=${{ inputs.alias }}" | tr '\n' ' ')
OUTPUT=$(bash -c "netlify deploy --json --alias=${{ inputs.netlify-alias }}" | tr '\n' ' ')
fi
set +e
NETLIFY_OUTPUT=$(echo "$OUTPUT")
Expand Down
6 changes: 4 additions & 2 deletions .github/workflows/preview.yml
Original file line number Diff line number Diff line change
Expand Up @@ -5,6 +5,7 @@ on:
branches:
- staging
types: [opened, synchronize, reopened]

jobs:
permissions-check:
runs-on: ubuntu-latest
Expand Down Expand Up @@ -33,6 +34,7 @@ jobs:
with:
sha: ${{ github.event.pull_request.head.sha }}
environment: staging
netlify-context: deploy-preview

call-test:
if: ${{ !failure() }}
Expand All @@ -53,5 +55,5 @@ jobs:
with:
sha: ${{ github.event.pull_request.head.sha }}
environment: staging
context: deploy-preview
alias: pr-${{ github.event.pull_request.number }}
netlify-context: deploy-preview
netlify-alias: pr-${{ github.event.pull_request.number }}
6 changes: 4 additions & 2 deletions .github/workflows/staging.yml
Original file line number Diff line number Diff line change
Expand Up @@ -4,6 +4,7 @@ on:
push:
branches:
- staging

jobs:

call-realm:
Expand All @@ -19,6 +20,7 @@ jobs:
with:
sha: ${{ github.sha }}
environment: staging
netlify-context: production

call-test:
uses: ./.github/workflows/test.yml
Expand All @@ -37,5 +39,5 @@ jobs:
with:
environment: staging
sha: ${{ github.sha }}
context: production
alias:
netlify-context: production
netlify-alias:
7 changes: 6 additions & 1 deletion .github/workflows/test-build.yml
Original file line number Diff line number Diff line change
Expand Up @@ -10,6 +10,10 @@ on:
description: 'The SHA of the commit to build'
type: string
required: true
netlify-context:
description: The Netlify context use when building
type: string
required: true

jobs:
test:
Expand Down Expand Up @@ -51,7 +55,7 @@ jobs:
run: npm install netlify-cli -g

- name: Build using Netlify
run: netlify build --context deploy-preview --offline
run: netlify build --context ${{ inputs.netlify-context }} --offline
working-directory: site/gatsby-site
env:
INSTRUMENT: true
Expand Down Expand Up @@ -84,6 +88,7 @@ jobs:
CLOUDFLARE_R2_ACCESS_KEY_ID: ${{ secrets.CLOUDFLARE_R2_ACCESS_KEY_ID }}
CLOUDFLARE_R2_SECRET_ACCESS_KEY: ${{ secrets.CLOUDFLARE_R2_SECRET_ACCESS_KEY }}
REALM_GRAPHQL_API_KEY: ${{ secrets.REALM_GRAPHQL_API_KEY }}
GATSBY_COMMIT_SHA: ${{ inputs.sha }}

- name: Cache build
uses: actions/cache/save@v3
Expand Down
10 changes: 8 additions & 2 deletions README.md
Original file line number Diff line number Diff line change
Expand Up @@ -6,12 +6,18 @@
<img src="./site/gatsby-site/static/logos/White_AIID.svg" height="100">
</a>
</p>

<h1 align="center">
Artificial Intelligence Incident Database
</h1>

[![Netlify Status](https://api.netlify.com/api/v1/badges/9eb0dda2-916c-46f9-a0bd-9ddab3879c6e/deploy-status)](https://app.netlify.com/sites/aiid/deploys)
[![Slack Link](https://img.shields.io/badge/Join%20the%20RAIC%20Slack!-purple?logo=slack)](https://forms.gle/v7UHJvEkYSJQ7jHj7)
<p align="center">
<a href="https://app.netlify.com/sites/aiid/deploys"><img src="https://api.netlify.com/api/v1/badges/9eb0dda2-916c-46f9-a0bd-9ddab3879c6e/deploy-status"></a>
&nbsp;
<a href="https://codecov.io/gh/responsible-ai-collaborative/aiid"><img src="https://codecov.io/gh/responsible-ai-collaborative/aiid/graph/badge.svg?token=SKMVE2G1GU"></a>
&nbsp;
<a href="https://forms.gle/v7UHJvEkYSJQ7jHj7"><img src="https://img.shields.io/badge/Join%20the%20RAIC%20Slack!-purple?logo=slack&"></a>
</p>

Information about the goals and organization of the AI Incident Database can be found on the [production website](https://incidentdatabase.ai/). This page concentrates on onboarding for the following types of contributions to the database,

Expand Down
10 changes: 5 additions & 5 deletions site/gatsby-site/blog/deepfakes-child-safety/index.es.mdx
Original file line number Diff line number Diff line change
Expand Up @@ -11,9 +11,9 @@ aiTranslated: true

**AVISO LEGAL:** Esta publicación no es un consejo o comentario legal y no debe interpretarse como tal.

En 2023 se produjo un aumento de los materiales de abuso sexual infantil (CSAM) generados por IA, junto con procesamientos de los infractores, una variedad de intentos legislativos para combatir los deepfakes de IA dirigidos a menores y la [orden ejecutiva sobre inteligencia artificial de la administración Biden](https://www.whitehouse.gov/briefing-room/presidential-actions/2023/10/30/executive-order-on-the-safe-secure-and-trustworthy-development-and-use-of-artificial-intelligence/).
En 2023 se produjo un aumento de los materiales de abuso sexual infantil (MASI) generados por IA, junto con procesamientos de los infractores, una variedad de intentos legislativos para combatir los deepfakes de IA dirigidos a menores y la [orden ejecutiva sobre inteligencia artificial de la administración Biden](https://www.whitehouse.gov/briefing-room/presidential-actions/2023/10/30/executive-order-on-the-safe-secure-and-trustworthy-development-and-use-of-artificial-intelligence/).

Los deepfakes se pueden clasificar en términos generales en dos categorías principales, cada una con su propio subconjunto relacionado con CSAM. La primera categoría incluye deepfakes de individuos reales, donde el daño predominante asociado con CSAM surge de la generación de pornografía deepfake con niños reales. La segunda categoría abarca los deepfakes en los que los sujetos son completamente virtuales pero convincentemente realistas. En esta categoría, las preocupaciones sobre CSAM están relacionadas principalmente con la creación de medios audiovisuales sintéticos inapropiados que representan niños virtuales. En conjunto, estas dos categorías taxonómicas demuestran las diversas formas preocupantes en que se puede emplear la tecnología deepfake, especialmente en la generación y proliferación de CSAM.
Los deepfakes se pueden clasificar en términos generales en dos categorías principales, cada una con su propio subconjunto relacionado con MASI. La primera categoría incluye deepfakes de individuos reales, donde el daño predominante asociado con MASI surge de la generación de pornografía deepfake con niños reales. La segunda categoría abarca los deepfakes en los que los sujetos son completamente virtuales pero convincentemente realistas. En esta categoría, las preocupaciones sobre MASI están relacionadas principalmente con la creación de medios audiovisuales sintéticos inapropiados que representan niños virtuales. En conjunto, estas dos categorías taxonómicas demuestran las diversas formas preocupantes en que se puede emplear la tecnología deepfake, especialmente en la generación y proliferación de MASI.

Este artículo proporciona una instantánea de parte del trabajo de la base de datos de incidentes de IA en el seguimiento de estos incidentes emergentes, junto con un estudio de algunas de las respuestas legislativas incipientes.

Expand All @@ -37,9 +37,9 @@ Recientemente, [un incidente](https://incidentdatabase.ai/cite/576/) salió a la

*The Wall Street Journal* también [informado recientemente](https://www.wsj.com/tech/facebook-and-instagram-steer-predators-to-children-new-mexico-attorney-general-alleges-in-demand-b76a5b04?mod=Searchresults_pos1&page=1) sobre el Fiscal General de Nuevo México que presentó una demanda contra Meta, alegando que los algoritmos de Facebook e Instagram dirigieron a los depredadores y al contenido pornográfico a cuentas de prueba de temas menores. La investigación involucró imágenes de niños ficticios generadas por IA, lo que resultó en que las cuentas recibieran mensajes explícitos y proposiciones sexuales. La demanda afirma que las plataformas de Meta se han convertido en un mercado para depredadores y critica su falta de protección a los usuarios menores de edad, citando varios casos penales de explotación a través de estas plataformas. En este caso, fueron los investigadores quienes generaron las imágenes de los menores ficticios, adaptando las nuevas tecnologías a antiguas técnicas en este ámbito específico de la aplicación de la ley.

Un [estudio reciente](https://stacks.stanford.edu/file/druid:kh752sm9123/ml_training_data_csam_report-2023-12-21.pdf) realizado por David Thiel del Stanford Internet Observatory detalla la presencia de CSAM en los datos de entrenamiento de Modelos generativos de aprendizaje automático, centrándose en el conjunto de datos LAION-5B utilizado para modelos como Difusión estable. A través de varios métodos, incluidos los clasificadores PhotoDNA y ML, Thiel identificó numerosos casos nuevos y conocidos de CSAM en el conjunto de datos. Los hallazgos son oportunos ya que muestran la necesidad de prácticas de capacitación de modelos y curación de datos más rigurosas para evitar la perpetuación de contenido dañino, en línea con las preocupaciones planteadas por los incidentes en las plataformas de redes sociales y enfatizando la importancia de un mayor desarrollo responsable de la IA en este sentido. frente.
Un [estudio reciente](https://stacks.stanford.edu/file/druid:kh752sm9123/ml_training_data_csam_report-2023-12-21.pdf) realizado por David Thiel del Stanford Internet Observatory detalla la presencia de MASI en los datos de entrenamiento de Modelos generativos de aprendizaje automático, centrándose en el conjunto de datos LAION-5B utilizado para modelos como Difusión estable. A través de varios métodos, incluidos los clasificadores PhotoDNA y ML, Thiel identificó numerosos casos nuevos y conocidos de MASI en el conjunto de datos. Los hallazgos son oportunos ya que muestran la necesidad de prácticas de capacitación de modelos y curación de datos más rigurosas para evitar la perpetuación de contenido dañino, en línea con las preocupaciones planteadas por los incidentes en las plataformas de redes sociales y enfatizando la importancia de un mayor desarrollo responsable de la IA en este sentido. frente.

Actualmente, los esfuerzos legales para abordar los deepfakes de CSAM han sido reactivos y poco sistemáticos. Sin embargo, la orden ejecutiva del presidente Biden sobre la IA tiene como objetivo establecer normas estrictas para prevenir el uso indebido de la IA, centrándose en la seguridad nacional y la seguridad individual, lo que implica autenticar el contenido digital y etiquetar los medios sintéticos, especialmente para proteger a los niños de los daños provocados por la IA. Los desarrolladores deben compartir los resultados de las pruebas de seguridad de la IA antes de su uso público, centrándose en problemas como la creación de CSAM. La orden dirige el desarrollo de estándares para la autenticación de contenido y la detección de IA, y aborda el CSAM generado por IA y las imágenes sexualizadas no consensuales. Antes de la orden ejecutiva, [U.S. Los fiscales generales instaron al Congreso](https://www.scag.gov/media/pvehppkm/54-state-ags-urge-study-of-ai-and-harmful-impacts-on-children.pdf) a investigar el papel de la IA. en la explotación infantil, enfatizando la necesidad de una legislación integral sobre privacidad de datos.
Actualmente, los esfuerzos legales para abordar los deepfakes de MASI han sido reactivos y poco sistemáticos. Sin embargo, la orden ejecutiva del presidente Biden sobre la IA tiene como objetivo establecer normas estrictas para prevenir el uso indebido de la IA, centrándose en la seguridad nacional y la seguridad individual, lo que implica autenticar el contenido digital y etiquetar los medios sintéticos, especialmente para proteger a los niños de los daños provocados por la IA. Los desarrolladores deben compartir los resultados de las pruebas de seguridad de la IA antes de su uso público, centrándose en problemas como la creación de MASI. La orden dirige el desarrollo de estándares para la autenticación de contenido y la detección de IA, y aborda el MASI generado por IA y las imágenes sexualizadas no consensuales. Antes de la orden ejecutiva, [U.S. Los fiscales generales instaron al Congreso](https://www.scag.gov/media/pvehppkm/54-state-ags-urge-study-of-ai-and-harmful-impacts-on-children.pdf) a investigar el papel de la IA. en la explotación infantil, enfatizando la necesidad de una legislación integral sobre privacidad de datos.

Hasta el momento, [no existe ningún proyecto de ley federal general](https://www.nbcnews.com/news/us-news/little-recourse-teens-girls-victimized-ai-deepfake-nudes-rcna126399), pero se han realizado esfuerzos. (por ejemplo, [Ley de Responsabilidad H.R.3230 DEEP FAKES](https://www.congress.gov/bill/116th-congress/house-bill/3230)). A continuación se muestran cuatro ejemplos de legislación a nivel estatal:

Expand All @@ -51,4 +51,4 @@ Hasta el momento, [no existe ningún proyecto de ley federal general](https://ww

* [Virginia, Código 18.2-386.2](https://law.lis.virginia.gov/vacode/title18.2/chapter8/section18.2-386.2/): convierte en un delito menor de Clase 1 compartir o vender desnudos maliciosamente o imágenes sexualmente explícitas de alguien sin su consentimiento, especialmente si se hacen para acosar, coaccionar o intimidar. Esto incluye imágenes que han sido alteradas digitalmente para representar a una persona. Los proveedores de servicios de Internet no se hacen responsables del contenido compartido por otros. Se pueden emprender acciones legales donde se produjo el hecho ilícito o donde se manipuló la imagen. También pueden aplicarse otros cargos legales.

En la base de datos de incidentes de IA (AIID), hemos estado catalogando e investigando con preocupación estos incidentes recientes de CSAM. Como toda tecnología, la IA generativa plantea riesgos y oportunidades, y los riesgos para los niños en este caso son graves. Si desea unirse a nosotros en nuestra misión de documentar incidentes de IA con el objetivo de aprender de los errores del pasado para mitigar riesgos futuros, puede conectarse con nosotros a través de nuestra página de [contacto](https://incidentdatabase.ai/contact/) . Agradecemos los envíos que informen sobre todos y cada uno de los incidentes de IA utilizando nuestra página [envío](https://incidentdatabase.ai/apps/submit/); sin embargo, tenga en cuenta que, si bien rastreamos y analizamos activamente las tendencias e incidentes de CSAM, el AIID no es el destino directo para informar sobre CSAM real. Dirija la denuncia de CSAM al Departamento de Justicia [Sección de Obscenidad y Explotación Infantil](https://www.justice.gov/criminal/criminal-ceos/report-violations).
En la base de datos de incidentes de IA (AIID), hemos estado catalogando e investigando con preocupación estos incidentes recientes de MASI. Como toda tecnología, la IA generativa plantea riesgos y oportunidades, y los riesgos para los niños en este caso son graves. Si desea unirse a nosotros en nuestra misión de documentar incidentes de IA con el objetivo de aprender de los errores del pasado para mitigar riesgos futuros, puede conectarse con nosotros a través de nuestra página de [contacto](https://incidentdatabase.ai/contact/) . Agradecemos los envíos que informen sobre todos y cada uno de los incidentes de IA utilizando nuestra página [envío](https://incidentdatabase.ai/apps/submit/); sin embargo, tenga en cuenta que, si bien rastreamos y analizamos activamente las tendencias e incidentes de MASI, el AIID no es el destino directo para informar sobre MASI real. Dirija la denuncia de MASI al Departamento de Justicia [Sección de Obscenidad y Explotación Infantil](https://www.justice.gov/criminal/criminal-ceos/report-violations).
2 changes: 1 addition & 1 deletion site/gatsby-site/blog/deepfakes-child-safety/index.mdx
Original file line number Diff line number Diff line change
Expand Up @@ -10,7 +10,7 @@ slug: '/blog/deepfakes-and-child-safety'

**DISCLAIMER:** This post is not legal advice or commentary and should not be construed as such.

2023 saw an increase in AI-generated child sex abuse materials (CSAM), along with prosecutions of offenders, a variety of legislative attempts to combat AI deepfakes targeting minors, and the Biden administration's [executive order on artificial intelligence](https://www.whitehouse.gov/briefing-room/presidential-actions/2023/10/30/executive-order-on-the-safe-secure-and-trustworthy-development-and-use-of-artificial-intelligence/).
2023 saw an increase in AI-generated child sexual abuse materials (CSAM), along with prosecutions of offenders, a variety of legislative attempts to combat AI deepfakes targeting minors, and the Biden administration's [executive order on artificial intelligence](https://www.whitehouse.gov/briefing-room/presidential-actions/2023/10/30/executive-order-on-the-safe-secure-and-trustworthy-development-and-use-of-artificial-intelligence/).

Deepfakes can be broadly classified into two main categories, each with its own subset related to CSAM. The first category includes deepfakes of actual individuals, where the predominant harm associated with CSAM arises from the generation of deepfake pornography featuring real children. The second category encompasses deepfakes where the subjects are entirely virtual yet convincingly realistic. In this category, CSAM concerns are primarily linked to the creation of inappropriate synthetic audiovisual media depicting virtual children. Collectively, these two taxonomic categories demonstrate the various troubling ways deepfake technology can be employed, especially in the generation and proliferation of CSAM.

Expand Down
6 changes: 3 additions & 3 deletions site/gatsby-site/cypress/e2e/incidentVariants.cy.js
Original file line number Diff line number Diff line change
Expand Up @@ -66,20 +66,20 @@ describe('Variants pages', () => {
cy.disableSmoothScroll();
});

it('Should display Variant list', async () => {
it('Should display Variant list', () => {
cy.visit(url);

cy.contains('h1', 'Variants').should('exist').scrollIntoView();

getVariants(async (variants) => {
getVariants((variants) => {
cy.get('[data-cy=variant-card]').should('have.length', variants.length);

for (let index = 0; index < variants.length; index++) {
const variant = variants[index];

cy.get('[data-cy=variant-card]')
.eq(index)
.within(async () => {
.within(() => {
cy.get('[data-cy=variant-status-badge]').contains(
getVariantStatusText(getVariantStatus(variant))
);
Expand Down
Loading

0 comments on commit e9b6f90

Please sign in to comment.