Eventbrite

Centro de Ayuda

Cómo Eventbrite personaliza y modera contenido

Última actualización: 17 de febrero de 2024. La misión de Eventbrite es conectar a las personas a través de experiencias en vivo. Nuestro compromiso es crear un mercado en el que los creadores y los clientes puedan tener experiencias seguras e inclusivas. En este artículo, explicamos la forma en que mantenemos la seguridad de nuestro mercado online, incluido cómo personalizamos y moderamos contenido en nuestra plataforma.

En este artículo

  • Cómo personalizamos contenido
  • Cómo moderamos contenido
  • Cómo detectamos infracciones de contenido
  • Cómo revisamos contenido

Cómo personalizamos contenido

Para que puedas descubrir las experiencias más relevantes en el mercado de Eventbrite, usamos los datos que tenemos sobre vos para seleccionar los eventos que te mostramos. Por ejemplo, para personalizar tu experiencia cuando mirás páginas de eventos y publicidades, consideramos qué contenido viste, en dónde hiciste clic o pusiste me gusta, lo que seguiste o buscaste y la información que proporcionaste al contestar nuestras encuestas, crear una cuenta o comprar entradas para un evento. Podés ver más acerca de cómo usamos y protegemos tus datos en nuestra Política de privacidad

Cómo moderamos contenido

La moderación de contenido es el proceso por el que una plataforma verifica el contenido y toma medidas cuando se encuentra contenido ilegal, inapropiado o dañino. Nuestras Pautas de la comunidad detallan cómo mantenemos la seguridad de nuestra comunidad. También sirven para delimitar qué tipos de contenido incentivamos y qué tipos de contenido amenazan la integridad de nuestra plataforma y no están permitidos. Para prevenir el uso indebido de la plataforma, utilizamos múltiples herramientas y procesos que incluyen la detección proactiva con tecnología de aprendizaje automático y sistemas basados en reglas, la detección reactiva a partir de reportes de nuestra comunidad, y verificaciones hechas por personas.

Cómo detectamos infracciones de contenido

Detección proactiva

Una gran parte de las infracciones de contenido se detecta de forma proactiva mediante dos vías principales: (1) sistemas basados en reglas (es decir, normas creadas para identificar contenido que cumple ciertos criterios) y (2) tecnología de aprendizaje automático (es decir, un proceso estadístico en el que entrenamos a un modelo para que reconozca patrones en función de ejemplos anteriores y para que haga predicciones sobre datos nuevos). 

Los sistemas basados en reglas son eficaces cuando hay unos pocos criterios simples que indican un riesgo elevado. La tecnología de aprendizaje automático considera varias señales, por lo que es más eficaz cuando hay patrones complejos que indican un riesgo elevado. Ambas estrategias de detección están validadas por análisis offline y se monitorean para identificar oportunidades de mejora continua.

Detección reactiva

Además de los métodos proactivos mencionados, también son importantes los reportes sobre contenido dañino que envía nuestra comunidad a través de la página de Contacto o con el enlace de Reportar este evento que aparece al pie de cada evento. Aunque aspiramos a eliminar todo el contenido dañino de forma proactiva antes de que alguien lo vea, esta línea de comunicación abierta con nuestra comunidad es una parte crucial de nuestro programa de moderación de contenido. 

Cómo revisamos contenido

Aunque la automatización es fundamental para poder escalar nuestro programa de moderación de contenido, sigue habiendo áreas donde la revisión humana es, y posiblemente siempre sea, necesaria. Por ejemplo, determinar si una persona es objeto de acoso o bullying podría tener varios matices y depender del contexto. 

Cuando nuestro equipo revisa contenido, esto es lo que ocurre:

  • Revisión: Nuestro equipo revisa el contenido y decide si infringe nuestras políticas o es ilegal. Según los detalles del caso, nuestro equipo podría revisar solo el contenido reportado o toda la cuenta. 

  • Información (si es necesario): Cuando el equipo no puede determinar si el contenido infringe nuestras políticas, podría solicitar información adicional de las partes relevantes (por ejemplo, el titular de la cuenta o la persona que reportó el contenido).

  • Acción: Si se determina que el contenido infringe nuestras políticas, el equipo tomará las medidas correspondientes, como ocultar el contenido de los resultados de búsqueda, eliminarlo de las páginas de eventos, quitar las páginas de eventos del mercado o suspender de forma temporal o permanente el acceso a la cuenta.

  • Comunicación: Luego de la resolución, el equipo informará a las partes relevantes las medidas que se tomaron y el motivo. Los usuarios afectados pueden contestar a esta comunicación para apelar la decisión. 

Nuestra prioridad es eliminar el contenido dañino rápidamente y sin afectar a nuestra comunidad. A través de esta combinación de medidas proactivas y reactivas de detección, sumado a la revisión humana cuando es necesario, podemos detectar y tomar acciones sobre el contenido rápidamente.

A medida que evoluciona el mundo a nuestro alrededor, también deben evolucionar las formas de moderar contenido. Actualizamos nuestro programa constantemente para anticiparnos o responder a nuevas conductas, tendencias y amenazas percibidas contra la integridad del mercado de Eventbrite.

¿Aún tienes preguntas?