Eventbrite

Centro de Ajuda

Como o Eventbrite personaliza e modera os conteúdos

Última atualização: 17 de fevereiro de 2024. A missão do Eventbrite é juntar pessoas de todo o mundo através de experiências ao vivo. Estamos profundamente empenhados em criar um mercado em que os criadores e os consumidores confiam para facilitar experiências seguras e inclusivas. Neste artigo, partilhamos mais informações sobre como mantemos o nosso mercado online em segurança, incluindo como personalizamos e moderamos os conteúdos na nossa plataforma.

Neste artigo

  • Como personalizamos conteúdos
  • Como moderamos os conteúdos
  • Como detetamos violações de conteúdos
  • Como revemos os conteúdos

Como personalizamos conteúdos

Para o ajudar a descobrir as experiências mais relevantes no mercado do Eventbrite, utilizamos os dados de que dispomos sobre si para atribuir prioridades aos eventos que lhe mostramos. Alguns dos sinais que utilizamos para personalizar a sua experiência ao visualizar as páginas dos eventos e anúncios incluem conteúdos que viu, em que clicou, de que gostou, que seguiu ou pesquisou e informações que fornece quando responde a um dos nossos inquéritos ou se regista ou compra bilhetes para um evento. Pode ficar a saber mais sobre como utilizamos e protegemos os seus dados na nossa Política de Privacidade

Como moderamos os conteúdos

A moderação de conteúdos é o processo através do qual uma plataforma revê e toma medidas em relação a conteúdos que sejam ilegais, inapropriados ou prejudiciais. As Diretrizes da Comunidade fornecem transparência quanto à forma como mantemos a nossa comunidade em segurança. Também servem como proteções em relação aos tipos de conteúdos que são incentivados e aos tipos de conteúdos que ameaçam a integridade da nossa plataforma e não são permitidos. Para combater o abuso da plataforma, dependemos de uma combinação de ferramentas e processos, incluindo a deteção proativa através de tecnologia de aprendizagem automática e sistemas baseados em regras, deteção reativa através de denúncias da nossa comunidade e revisões humanas.

Como detetamos violações de conteúdos

Deteção proativa

Detetamos uma porção significativa de violações de conteúdos de forma proativa através de dois métodos principais: (1) sistemas baseados em regras (ou seja, regras detalhadas para identificar os conteúdos que cumprem determinados critérios), e (2) tecnologia de aprendizagem automática (ou seja, um processo estatístico no qual treinamos um modelo para reconhecer determinados tipos de padrões com base nos exemplos anteriores e fazer previsões sobre os novos dados). 

Os sistemas à base de regras são eficazes quando há alguns critérios simples a indicar risco elevado. A tecnologia de aprendizagem automática aproveita diversos sinais e é, portanto, mais eficaz quando existem padrões complexos a indicar risco elevado. Ambas as estratégias de deteção são validadas por análise offline e monitorizadas quanto a oportunidades de melhoria contínua.

Deteção reativa

Para além dos métodos proativos descritos acima, a nossa comunidade desempenha uma função importante ao denunciar conteúdos que, na respetiva opinião, são prejudiciais, quer ao Contactar-nos, quer ao utilizar a ligação Denunciar este evento que existe no rodapé de cada evento. Embora aspiremos a remover proativamente os conteúdos prejudiciais antes de alguém os ver, esta linha aberta de comunicação com a nossa comunidade é uma parte crucial do nosso programa de moderação de conteúdos. 

Como revemos os conteúdos

Embora a automatização seja fundamental para a nossa capacidade de ampliar o nosso programa de moderação de conteúdos, continuam a existir áreas onde a revisão humana é, e poderá ser sempre, necessária. Por exemplo, discernir se um indivíduo que é alvo de bullying depende do contexto e de nuances. 

Quando a nossa equipa revê o conteúdo, eis o que acontece:

  • Rever: a nossa equipa revê o conteúdo e toma uma decisão sobre se o conteúdo viola as nossas políticas ou é ilegal. Dependendo dos detalhes do caso, a nossa equipa pode rever apenas o conteúdo denunciado ou a conta de forma mais holística. 

  • Obter informações (se necessário): se a equipa não conseguir determinar se o conteúdo viola as nossas políticas, ela poderá pedir mais informações a partes relevantes (p. ex., ao titular da conta ou à pessoa que denunciou o conteúdo).

  • Ação: se se determinar que o conteúdo viola as nossas políticas, a equipa irá tomar as medidas apropriadas, incluindo retirar a publicação do conteúdo dos resultados de pesquisa, remover o conteúdo das páginas de eventos, eliminar a publicação das páginas de eventos do mercado, e/ou suspender ou rescindir o acesso à conta.

  • Comunicar: uma vez resolvido, a equipa irá informar as partes relevantes de quaisquer medidas tomadas e dos motivos. Os utilizadores afetados podem responder a esta comunicação para interpor um recurso à decisão. 

A nossa prioridade é remover o conteúdo prejudicial rapidamente e com a menor perturbação para a nossa comunidade. Ao utilizar uma combinação de deteção proativa e reativa, e intercalando-a com uma revisão humana do conteúdo encaminhado, quando se justifique, podemos rapidamente detetar e tomar medidas apropriadas quanto ao conteúdo.

À medida que o mundo à nossa volta evolui, também as formas pelas quais moderamos os conteúdos têm de evoluir. Estamos constantemente a atualizar o nosso programa ao antecipar ou a responder a novos comportamentos, tendências e ameaças percebidas à integridade do mercado do Eventbrite.

Ainda tem questões? Entre em contato com o suporte.