Eventbrite

Centro di Assistenza

Personalizzazione e moderazione dei contenuti da parte di Eventbrite

Ultimo aggiornamento: 17 febbraio 2024. La mission di Eventbrite è unire le persone attraverso le esperienze dal vivo. Siamo fortemente impegnati per la creazione di un marketplace a cui creatori e consumatori possano affidarsi per esperienze sicure e inclusive. In questo articolo, condividiamo ulteriori informazioni sulle nostre prassi per rendere sicuro il nostro marketplace online, indicando anche come personalizziamo e moderiamo i contenuti sulla nostra piattaforma.

In questo articolo

  • Come personalizziamo i contenuti
  • Come moderiamo i contenuti
  • Come rileviamo le violazioni relative ai contenuti
  • Come controlliamo i contenuti

Come personalizziamo i contenuti

Per aiutarti a scoprire le esperienze che possono interessarti sul marketplace Eventbrite, utilizziamo i tuoi dati per dare la priorità agli eventi che mettiamo in evidenza per te. Alcuni dei segnali che utilizziamo per personalizzare la tua esperienza di visualizzazione delle pagine evento e degli annunci includono i contenuti che hai visualizzato, su cui hai cliccato, messo "Mi piace", che hai seguito o cercato e le informazioni da te fornite in risposta a uno dei nostri sondaggi o quando ti registri o acquisti i biglietti per un evento. Puoi trovare maggiori informazioni su come utilizziamo e proteggiamo i tuoi dati nella nostra Informativa sulla privacy

Come moderiamo i contenuti

La moderazione dei contenuti è il processo tramite il quale una piattaforma esamina e interviene su contenuti illegali, inappropriati o dannosi. Le nostre Linee guida per la community comunicano in maniera trasparente come tuteliamo la nostra community. Inoltre sono in un certo senso i guardrail del tipo di contenuti che incoraggiamo e di quelli che invece minacciano l'integrità della nostra piattaforma e sono pertanto vietati. Per contrastare l'abuso della piattaforma, ci affidiamo a una combinazione di strumenti e processi, tra cui rilevamento proattivo tramite apprendimento automatico e sistemi basati su regole, rilevamento reattivo tramite segnalazioni della nostra community e analisi umane.

Come rileviamo le violazioni relative ai contenuti

Rilevamento proattivo

Rileviamo una quota notevole di violazioni in materia di contenuti in maniera proattiva con due metodi principali: (1) sistemi basati sulle regole (ad es. regole create appositamente per individuare contenuti che rispondono a criteri specifici) e (2) tecnologia di apprendimento automatico (cioè un processo statistico per cui addestriamo un modello a riconoscere determinati tipi di schemi sulla base di esempi precedenti, e che poi è in grado di fare previsioni su nuovi dati). 

I sistemi basati sulle regole sono efficaci quando esistono pochi e semplici criteri che indicano un rischio elevato. La tecnologia di apprendimento automatico sfrutta molteplici segnali ed è pertanto più efficace in presenza di schemi complessi che indicano un rischio elevato. Entrambe le strategie di rilevamento sono comprovate da analisi offline e monitorate per opportunità di miglioramento continuo.

Rilevamento reattivo

Oltre ai metodi proattivi sopra descritti, la nostra community svolge un ruolo importante nella segnalazione di contenuti che ritiene dannosi, contattandoci o utilizzando il link Segnala questo evento che si trova a piè di pagina per ciascun evento. Sebbene sia nostra intenzione rimuovere i contenuti dannosi in modo proattivo prima che chiunque possa notarli, questa linea di comunicazione aperta con la nostra community è un elemento essenziale del nostro programma per la moderazione dei contenuti. 

Come controlliamo i contenuti

Sebbene l'automazione sia critica per la nostra capacità di ampliare il nostro programma di moderazione dei contenuti, esistono ancora aree per cui il controllo umano è, e potrebbe rimanere, necessario. Ad esempio, valutare se una persona è vittima di bullismo richiede la comprensione di sfaccettature e contesti. 

Quando è il nostro team a controllare i contenuti, ecco cosa accade:

  • Controllo: il nostro team controlla i contenuti e decide se violano le nostre politiche o sono illegali. In base ai dettagli del caso, il nostro team potrebbe controllare solo i contenuti segnalati o l'account nel suo complesso. 

  • Raccolta di informazioni (se necessaria): qualora il team non sia in grado di stabilire se i contenuti violano le nostre politiche, potrebbe cercare ulteriori informazioni dalle parti interessate (ad es. il titolare dell'account o la persona che ha segnalato i contenuti).

  • Misure: se si ritiene che i contenuti violino le nostre politiche, il team adotterà misure adeguate, incluso il delisting dei contenuti dai risultati di ricerca, la rimozione dei contenuti dalle pagine evento, la depubblicazione delle pagine evento dal marketplace e/o la sospensione o la chiusura dell'acceso all'account.

  • Comunicazione: una volta risolto, il team informerà le parti interessate di eventuali misure adottate e della loro motivazione. Gli utenti interessati possono rispondere a questa comunicazione per fare ricorso contro la decisione. 

La nostra priorità è rimuovere rapidamente i contenuti dannosi creando meno disagi possibile alla nostra community. Utilizzando una combinazione di rilevamenti proattivi e reattivi, e stratificandoli con un controllo umano dei contenuti segnalati ove giustificato, possiamo rilevare rapidamente e agire adeguatamente sui contenuti.

Con l'evoluzione del mondo intorno a noi devono cambiare anche i nostri metodi di moderazione dei contenuti. Aggiorniamo costantemente il nostro programma in previsione di o in risposta a nuovi comportamenti, tendenze e minacce percepite all'integrità del marketplace Eventbrite.

Hai ancora domande?