top of page

4. Tecnologia

4.1 Busca

 

O algoritmo de busca do YouTube foca-se essencialmente em dois fatores: a relevância para a pesquisa e a qualidade do vídeo.

 

No que toca à relevância os metadados desempenham um papel essencial. Metadados são “dados sobre outros dados”, que no caso, organizam os vídeos em categorias e subcategorias de modo a facilitar o manuseamento dos dados. No caso do YouTube, os metadados titulo, descrição, etiquetas e thumbnail (imagem de reconhecimento do vídeo). Estes dados têm maior importância imediatamente a seguir ao upload do vídeo, quando o YouTube não tem dados suficientes para avaliar a qualidade. [9]

 

A qualidade, dada a sua subjetividade é mais difícil de determinar. A popularidade (número e visualizações) continua a ser o principal fator, mas o tempo de visualização (ou quantidade do vídeo que é visualizada) parece cada vez ganhar mais importância. Outro fator é o rácio like/dislike. [9]

 

4.2 Streaming

 

O HTML5 faz streaming de vídeo através MPEG-DASH, um adaptative bit-rate (ABR) baseado em HTTP, que permite otimizar a bit rate e a qualidade da rede. O ABR funciona verificando a largura de banda do utilizador e a capacidade do CPU em tempo real e ajustando a qualidade do vídeo de acordo com estas características. Requer um codificador que codifica uma única fonte a múltiplas bitrates. O utilizador pode escolher entre as bitrates disponíveis. Isto permite reduzir substancialmente o buffering e fazer com que os vídeos iniciem mais depressa, mesmo para ligações de menor velocidade. [3]

 

 

4.3 Formatos e codecs

No início, o YouTube oferecia vídeos com apenas um nível de qualidade: 320x240 pixéis utilizando uma variante do H.263 (Sorenson Spark codec) no qual era utilizado mono MP3 áudio. Em novembro de 2008 chega a alta definição 720p HD, e dá-se a alteração do aspecto 4:3 para um widescreen 16:9. Com esta alteração, o YouTube começou a utilizar o H.264/MPEG-4 AVC como o formato de compressão de vídeo pré-definido. Atualmente já existe suporte para vídeos de 60 frames por segundo e para qualidade até ao 8k com uma resolução de 7680x4320 pixéis. [3]

O formato de codificação por defeito é o VP9 com áudio stereo Opus, contidos num ficheiro WebM. No entanto, se esta combinação não estiver disponível (e.g. ligação fraca), o vídeo é então codificado no formato H.264/MPEG-4 AVC com áudio stereo AAC. Anteriormente o VP9/WebM estava reservado para vídeos de maior popularidade, sendo que por defeito era usado no formato H.264/MPEG-4 AVC. A bitrate do áudio estava dependente da resolução do vídeo, ao contrario do que acontece hoje, em que os streams de áudio e vídeo se realizam em separado. [10]

Enquanto o vídeo 4K aumenta a qualidade de imagem ao fazer os pixéis mais pequenos individualmente, o codec do VP9 fá-los maiores para reduzir o bitrate o tamanho do ficheiro. Embora pareça uma contradição, o mecanismo de codificação “pega” nos pixéis maiores e faz deles um output de maior resolução. O vídeo, constituído por frames, é codificado ou comprimido para criar um bitstream comprimido. Primeiro cada frame individual é “partido” em blocos de pixéis. Os blocos são depois analisados para evitar redundâncias temporais e as ligações entre os frames são analisadas para aproveitar áreas em que não há alterações. Estes são codificados através de vetores de movimento que preveem a qualidade de um dado bloco no próximo frame. A informação residual é codificada usando uma compressão binária eficiente. [10]

Comparando o VP9 como o H.264, pode afirmar-se que para a mesma bitrate o VP9 oferece melhor qualidade, no entanto a sua codificação é mais lenta que o H.264. [10]

O Opus é um novo formato de compressão com perda de dados para áudio, livre de royalties, destinado para fala e áudio geral em um formato único, mantendo baixa latência suficiente para comunicação interativa de tempo real e de baixa complexidade suficiente para processadores ARM3. Veio substituir Vorbis e Speex para novas aplicações, e foi classificado como tendo qualidade mais alta que qualquer outro formato de áudio padrão em qualquer bitrate, incluindo MP3AAC, e HE-AAC. utiliza a transformada discreta de cosseno modificada para converter informação sonora do domínio do tempo para o domínio da frequência. Os dados resultantes são divididos em ruído e componentes residuais, sendo depois quantizados e codificados de forma entrópica usando um algoritmo de quantização vetorial. [11]

 

4.4 Armazenamento

 

Cada vídeo carregado para o YouTube é guardado em pelo menos um dos 14 centros de dados da Google espalhados pelo mundo. Estes edifícios enormes contêm milhares de servidores – os poderosos computadores que tratam dos milhares de milhões de pesquisas diárias efetuadas no Google e também do armazenamento dos vídeos do YouTube. Torres de refrigeração gigantes mantêm a temperatura interior a 27ºC, para garantir que o equipamento funciona corretamente. As informações são guardadas em pelo menos dois servidores para segurança adicional. [12] 

 

Os centros de dados podem também enviar informação entre eles. Quando um vídeo é carregado, é guardado no centro de dados mais próximo. Mas quando alguém o quiser reproduzir, esse vídeo é enviado para o centro de dados mais próximo dessa pessoa. Em caso de incêndio ou outra catástrofe, os dados também são enviados para outro centro para que estejam sempre acessíveis. [12]

Anteriormente o YouTube requeria a instalação do plug-in do Adobe Flash Player. Atualmente este plug-in não é necessário. Desde 2015, que o YouTube tem como método de reprodução o HTML5 nos web browsers que o suportem. [3] 

Percurso de um vídeo no YouTube [12]

Como o YouTube processa os vídeos

bottom of page