Escolha seu idioma

Escolha seu idioma

O site foi traduzido para Portuguese, Brazil com a ajuda de humanos e IA

Despedimento

Raspe o Manual

Virtualização de objetos do mundo real em espetáculos ao vivo

00:00

00:00

00:00

E se você pudesse escanear um objeto em seu ambiente e trazê-lo para um espetáculo ao vivo? Neste episódio "Como fazemos isso" do podcast "Scrap the Manual podcast", respondemos a uma pergunta feita pelo público por um de vocês! Sintonize para aprender mais sobre as diferenças entre a digitalização 3D e a fotogrametria, as preocupações de moderação de conteúdo e o que poderia ser necessário para tornar esta idéia real.

Você pode ler a discussão abaixo, ou ouvir o episódio em sua plataforma de podcast preferida.

Transcrição

Episódio #4

Angélica: Olá a todos! Bem-vindos ao Scrap The Manual, um podcast em que promovemos momentos "aha" através de discussões sobre tecnologia, criatividade, experimentação e como todos eles trabalham juntos para enfrentar desafios culturais e comerciais. Meu nome é Angélica.

Rushali: E meu nome é Rushali. Somos ambos tecnólogos criativos com Labs.Monks, que é um grupo de inovação dentro da Media.Monks com o objetivo de dirigir e impulsionar soluções globais focadas na evolução tecnológica e de design.

Angélica: Hoje, temos um novo segmento chamado "Como Fazemos Isto?" onde damos uma olhada no cotidiano de nosso público nos Labs e abrimos a oportunidade para que nossos ouvintes apresentem idéias ou projetos. E descobrimos como podemos torná-lo real. Começaremos explorando a idéia em si, os componentes que a tornam única e como ela poderia ser mais desenvolvida, seguida por uma verificação de viabilidade. E se não for atualmente viável, como podemos obtê-la lá?

O que nos leva à idéia de hoje apresentada por Maria Biryukova, que trabalha conosco em nosso departamento de Experiência. Então Maria, que idéia você tem para nós hoje?

Maria: Então, eu estava recentemente brincando com este aplicativo que permite a você escanear em 3D qualquer objeto em seu ambiente. E eu pensei: e se eu pudesse escanear qualquer coisa que eu tenha ao meu redor - digamos que este mic-upload ao vivo e vê-lo ganhar vida no palco XR durante o show ao vivo?

Angélica: Fantástico, obrigada Maria por ter apresentado esta idéia. Este é um desafio criativo realmente incrível e há muitos elementos realmente bons aqui. O que eu mais gosto nesta idéia, e é algo que me apaixona pessoalmente, é a mistura do mundo físico com o mundo digital, porque é aí que muita magia acontece.

Foi aí que, quando AR saiu pela primeira vez, as pessoas pensaram: "Uau, o que é essa coisa que está aparecendo bem na minha frente?" Ou em VR, quando trouxeram estas varreduras do mundo real para as versões iniciais dos fones de ouvido de papelão do Google, isso foi como: "Uau! Eu não posso acreditar que isto está aqui"

Então este está tocando na fisicalidade de um objeto real que existe no mundo real... alguém sendo capaz de digitalizá-lo e depois trazê-lo para uma cena virtual. Portanto, há esta transcendência de onde estão essas linhas, que já estão bastante embaçadas para começar. E esta idéia continua a embaçá-las, mas eu penso de uma boa maneira, e de uma maneira que os convidados e aqueles que fazem parte da experiência podem ter um papel onde eles estão além de ser um observador passivo, em ser um participante ativo nelas.

Vemos isso um pouco com WAVE, onde eles têm um espaço virtual e as pessoas são capazes de ir a este concerto virtual e essencialmente pagar como 5 dólares para ter um coraçãozinho atirado à cabeça de Justin Bieber. Amorosamente, é claro, mas você entendeu o ponto. Onde este, ele dá mais um passo adiante ao dizer: "Certo, e se houver algo no meu ambiente?

Então talvez haja um objeto que talvez pertença ao espetáculo de uma determinada maneira. Digamos que é como um ursinho de pelúcia. E todas as pessoas que têm ursinhos de pelúcia ao redor do mundo podem escanear seu urso de pelúcia e colocá-lo neste ambiente. Então eles pensam: "Oh, esse é o meu ursinho de pelúcia" Semelhante a quando as pessoas estão no jumbotron durante eventos esportivos e pensam: "Ei, essa é a minha cara lá em cima" E então eles ficam loucos com isso. Assim, isso permite uma interação mais de duas maneiras, o que é realmente agradável aqui.

Rushali: Sim. Essa é a parte que me parece interessante. À medida que crescemos neste mundo onde o conteúdo gerado pelo usuário é extremamente útil e começamos a entrar no mundo do metaverso, escanear e obter objetos 3D que pessoalmente pertencem a você - ou uma coisa de cerâmica, ou um pote que você mesmo fez - e poder trazê-lo para o mundo virtual vai ser uma das coisas mais importantes. Porque neste momento, na Instagram, no TikTok, ou em qualquer outra plataforma social, estamos principalmente gerando conteúdo 2D, ou gerando conteúdo textual, ou gerando áudio, mas não exploramos a geração extremamente rápida de conteúdo 3D e trocamos a maneira como fazemos com fotos e vídeos na Instagram. Portanto, discutimos o "por quê" É claramente um tópico interessante, e é claramente uma idéia interessante. Vamos entrar no "o quê"

Angélica: Sim. Então, pelo que estamos ouvindo sobre esta idéia, temos a digitalização do objeto, que se conectará à digitalização 3D e à fotogrametria, a qual podemos entrar um pouco nas diferenças entre os dois tipos diferentes de tecnologias. E então, quando o escaneamento é realmente adicionado ao ambiente, ele é limpo? É algo onde age como seu próprio modelo 3D sem nenhum artefato do ambiente em que foi originalmente digitalizado? E uma parte disso é também a composição. Portanto, certificando-se de que o objeto não pareça um grande raio de sol quando o evento estiver muito mal-humorado e escuro. Ele precisa caber dentro da cena em que se encontra.

E estamos ouvindo moderação de conteúdo, em termos de garantir que quando convidados de qualquer tipo se tornam um pouco mais imaturos do que a ocasião exige, que filtre essas situações para garantir que o objeto que precisa ser escaneado no ambiente seja o correto.

Rushali: Absolutamente. O que foi interessante enquanto você caminhava por todos os diferentes componentes foi a forma como esta idéia se une: é tão instantânea e em tempo real que precisamos quebrar como fazer isto dinamicamente.

Angélica: Sim. E eu acho que essa é sem dúvida a parte mais desafiadora, além do aspecto de moderação de conteúdo. Vamos usar a fotogrametria como exemplo. A fotogrametria é o processo de tirar várias fotos de um objeto de tantos lados quanto você puder. Um exemplo disso é com a API de Captura de Objetos da Apple. Você apenas tira um monte de fotos. Ela faz sua coisa, processa-a, pensa sobre ela. E depois de um certo tempo (às vezes é rápido, às vezes não é... depende da alta qualidade que precisa ser), ele produzirá um modelo em 3D que ele montou com base nessas fotos.

Rushali: Sim. Então o que eu queria acrescentar sobre fotogrametria, que você descreveu muito bem, foi que, nos últimos cinco anos, a fotogrametria progrediu de algo muito básico para algo escandalosamente belo muito rapidamente. E que uma das grandes razões para isso é como a capacidade de detecção de profundidade entrou e se tornou super acessível.

Imagine alguém de pé em uma mesa giratória e tirando fotos de cada ângulo e nós estamos girando a mesa giratória muito lentamente e você acaba tendo cerca de 48.000 fotos para costurar e depois criar este objeto 3D. Mas uma grande peça em falta neste quebra-cabeça é a idéia de profundidade. Como se o braço desta pessoa estivesse mais longe ou mais perto? E quando a informação de profundidade chega, de repente ela se torna muito mais evoluída para ter um objeto 3D com essa informação de profundidade. Assim, o fato de os iPhones terem uma câmera de detecção de profundidade, mais próxima do ano passado e do ano anterior, aumentou realmente as capacidades.

Angélica: Sim, esse é um bom ponto. Há um aplicativo que vinha fazendo este processo intensivo de tempo e personalizado há muito tempo. Mas quando a Apple lançou o Object Capture API, eles disseram: "Ei, na verdade, vamos reformular todo o nosso aplicativo usando este API" E eles até dizem que é uma experiência melhor para os usuários de iPhone por causa da combinação da API de Captura de Objetos e aproveitando as câmeras super aprimoradas que agora estão saindo de apenas um telefone.

Usuários de Android, você não está fora de perigo aqui. Alguns telefones Samsung, como o Samsung 20 e superior, têm um recurso incorporado no software do telefone onde você pode fazer o mesmo processo que eu estava mencionando antes sobre um ursinho de pelúcia.

um teste online onde alguém tem um ursinho de pelúcia à esquerda de uma sala, eles o escaneam e depois são capazes de fazer uma nuvem de pontos da área ao redor dele. Assim, eles poderiam dizer: "Certo, esta é a sala. Aqui é onde estão as paredes. Aqui é onde está o chão" E então colam aquele objeto particular que acabaram de escanear no outro canto da sala e o fixam ou o salvam. Então, se eles deixarem o aplicativo, voltarem, podem carregá-lo, e aquele objeto virtual ainda está no mesmo lugar por causa da nuvem de pontos que escaneia sua sala, sua sala física, e eles o colocam de volta onde estava. Portanto, é como se você tivesse uma contraparte física e uma contraparte digital. É mais do que apenas iPhones que estão tendo essas câmeras aprimoradas. Essa experiência se torna possível porque as câmeras Samsung também estão ficando cada vez melhores com o tempo.

O processo que eu estava apenas explicando sobre o ursinho de pelúcia, a nuvem de pontos, e colocá-lo em um ambiente... é um grande exemplo de escaneamento 3D, onde você pode se mover em torno do objeto, mas não é necessariamente tirar um monte de fotos e costurá-las juntas para criar um modelo 3D. A parte de escaneamento 3D é um pouco mais dinâmica. Mas é bastante sensível à luz. Assim, por exemplo, se você estiver em uma área muito ensolarada, será mais difícil obter um modelo 3D de maior qualidade a partir disso. Portanto, tendo em mente que o ambiente é realmente fundamental ali. A fotogrametria também, mas a digitalização em 3D é especialmente sensível a isto.

Rushali: Portanto, crianças, sem sobre-exposição, gentilmente

Angélica:...de fotos. Sim. [risos]

Entretanto, esse processo de escaneamento pode levar algum tempo e pode variar em termos de fidelidade. E então também esse modelo 3D pode ser bastante robusto. Pode ser um arquivo de tamanho bastante grande. Então é então que estamos entrando na conversa de ter isto carregado para a nuvem e descarregado parte daquele armazenamento lá. Não é um problema para o telefone do usuário, mas ele vai para outro lugar e então o programa pode realmente canalizar isso para a experiência, após a parte da moderação de conteúdo, é claro.

Rushali: Você trouxe à tona um grande ponto aqui também, porque um grande, grande, grande pedaço disto também é internet rápida no final do dia porque os arquivos 3D são arquivos pesados. São arquivos que têm muitas informações sobre as texturas.

Quanto mais polígonos houver, mais pesados serão os arquivos. Toda essa parte gráfica dramática entra em jogo e você vai ficar preso se não tiver uma internet extremamente rápida. E eu *piscar, piscar* acho que a 5G está envolvida nesta situação.

Angélica: Sim, com certeza. 5G é definitivamente um ponto de disputa nos Estados Unidos neste momento, porque eles estão se convertendo para esse processo, que está afetando a aviação e a FAA e outras coisas do gênero. Então é como se, sim, as possibilidades com 5G fossem enormes, mas ainda há algumas coisas a serem resolvidas.

Rushali: Então é esse o terreno da digitalização 3D e da fotogrametria. E temos agora mesmo aplicações que, em tempo quase real, podem dar a você um escaneamento 3D de um objeto em sua aplicação. Mas a próxima parte é a integração desta característica particular com um show ao vivo ou um ecossistema virtual ou colocá-lo em um metaverso. Como você acha que isso vai ser?

Angélica: Isto envolverá alguns componentes diferentes. Um: ser o armazenamento na nuvem, ou um servidor de algum tipo que possa armazenar, não apenas a varredura de uma pessoa, mas a varredura de várias pessoas. E eu poderia facilmente ver uma situação de sobrecarga onde, se você disser a um público de Beliebers: "Ei, eu quero que você escaneie algo"

Eles dizem: "Está bem!" E você tem 20.000 varreduras que agora você tem que peneirar dinamicamente e ter aquelas carregadas na nuvem para depois poder colocar na experiência. Posso antecipar uma grande sobrecarga ali.

Rushali: Você está absolutamente no ponto. Você está em um concerto: 20.000 a 50.000 pessoas estão na platéia. E todas elas estão escaneando algo que já escanearam ou que estarão escaneando ao vivo. É melhor ter lá um monte de servidores para processar todos esses dados que estão sendo lançados no seu caminho. Imagine fazer esta atividade, escaneando um objeto e puxando-o para cima em um show ao vivo. Posso imaginar 100% que alguém vai digitalizar algo inapropriado. E como isto é em tempo real, vai ser transmitido em um programa ao vivo. O que traz em cena a idéia de curadoria e a idéia de moderação.

Angélica: Porque os adultos também podem ser crianças.

Rushali: Sim, absolutamente. Se não há moderação... acontece que agora há um grande [produto adulto] no meio do seu show. E o que você vai fazer em relação a isso?

Angélica: Sim, exatamente. Certo, então falamos sobre como existem muitas plataformas diferentes por aí que permitem a digitalização 3D ou o aspecto fotogramétrico da digitalização de um objeto e a criação de uma versão virtual do mesmo, juntamente com algumas outras considerações também.

Agora entramos em...como no mundo fazemos isso? É aqui que exploramos formas de dar vida à idéia, tecnologia em que podemos mergulhar um pouco mais fundo e depois apenas algumas coisas para considerar avançar. Uma coisa que surge imediatamente (temos falado muito sobre escaneamento) é como eles fazem o escaneamento? Há muitas aplicações que são open source que permitem um aplicativo personalizado para permitir o aspecto de captura de objetos. Falamos da Apple, mas também há um pouco que foi implementado dentro do ARCore, e isto é trazido à vida com as câmeras LiDAR. É algo que exigiria muito trabalho personalizado para ser capaz de fazê-lo a partir do zero. Teríamos que contar com algumas APIs de código aberto para, pelo menos, conseguirmos a infra-estrutura, de modo que pudéssemos economizar muito tempo e garantir que o aplicativo criado seja feito em um curto período de tempo. Porque é isso que tende a acontecer com muitas dessas idéias legais é que as pessoas dizem: "Eu quero essa idéia realmente incrível, mas em cerca de três meses, ou eu quero essa idéia incrível ontem"

Rushali: Eu quero ressaltar que muitas destas tecnologias surgiram nos últimos anos. Se você tivesse que fazer esta idéia apenas cinco anos atrás, provavelmente não teria acesso a APIs de captura de objetos, que são extremamente avançadas neste momento porque podem aproveitar a capacidade das câmeras e a detecção de profundidade. Portanto, fazer isso nos dias de hoje é na verdade muito mais possível, surpreendentemente.

E se eu tivesse que pensar em como fazer isso, a primeira metade é basicamente replicar um aplicativo como o Qlone. E o que está fazendo é usar uma das APIs de captura de objetos, mas também alavancar certas bibliotecas de detecção de profundidade e criar aquele objeto 3D.

A outra parte deste sistema seria então: agora que eu tenho este objeto, preciso colocá-lo em um ambiente. E isso é o maior desconhecido. Estamos criando nosso próprio ambiente ou isto está sendo integrado em uma plataforma como Roblox ou Decentraland? Como qual é o ecossistema em que estamos vivendo? Isso precisa ser definido.

Angélica: Certo, porque cada uma dessas plataformas tem suas próprias possibilidades para permitir até mesmo esta forma de adquirir esses modelos 3D de forma dinâmica e viva. A resposta fácil, e eu digo "fácil" com o grão mais leve de sal, é fazê-lo de forma personalizada porque há mais que se pode controlar dentro desse ambiente versus ter que trabalhar dentro de uma plataforma que tem seu próprio conjunto de regras.

Aprendemos isso por nós mesmos durante o protótipo Roblox para o metaverso, onde há certas coisas que queríamos incluir para as características, mas com base nas restrições da plataforma, não podíamos fazer muito mais do que isso.

Então isso seria um fator realmente fundamental para determinar: estamos usando uma plataforma pré-existente ou estamos criando um ambiente sob medida que podemos controlar muito mais desses fatores?

Rushali: Sim. E enquanto você estava falando sobre as partes do ecossistema das coisas, isso meio que me atingiu. Estamos falando de objetos de escaneamento 3D, tipo, na mosca o mais rápido possível. E eles podem não sair lindamente. Eles podem não ser precisos. As pessoas podem não ter a melhor iluminação. As pessoas podem não ter as mãos mais estáveis, porque você precisa de mãos firmes quando escaneia objetos em 3D. E outro aspecto que eu acho que traria aqui quando se trata de como fazer isto é puxar um pouco da aprendizagem da máquina para que possamos prever quais partes da varredura 3D foram escaneadas corretamente versus as escaneadas incorretamente para melhorar a qualidade da varredura 3D.

Portanto, na minha cabeça, este é um processo de múltiplas etapas: descobrir como capturar objetos e obter essas informações através das APIs disponíveis pela ARCore ou ARKit (qualquer uma delas), trazer o objeto e executá-lo através de um algoritmo de aprendizagem da máquina para ver se é da melhor qualidade, e depois trazê-lo para o ecossistema. Não para complicá-lo, mas sinto que este é o tipo de coisa onde a aprendizagem de máquina pode ser usada.

Angélica: Sim, definitivamente. E uma coisa que seria interessante considerar é que o aspecto dinâmico de escanear algo e depois trazê-lo ao vivo é a parte chave em tudo isso. Mas também tem as maiores complicações e é o mais dependente da tecnologia, porque há pouco tempo para fazer muitos processos diferentes.

Uma coisa que eu recomendaria é: tem que ser em tempo real? Poderia ser algo que tenha sido feito talvez com algumas horas de antecedência? Digamos que há um evento Coachella realmente incrível onde temos uma combinação de um avatar digital influente de algum tipo compartilhando o palco com o ator ao vivo. E para os membros VIP, se eles escanearem um objeto antes do espetáculo, eles serão capazes de ter esses objetos realmente renderizados na cena.

Assim, isso faz algumas coisas diferentes. Uma: diminui a quantidade de poder de processamento que é necessária porque só está disponível para um grupo menor de pessoas. Assim, ele se torna mais manejável. Dois: permite mais tempo para processar esses modelos com maior qualidade. E três: moderação de conteúdo. Certificar-se de que o que foi digitalizado é algo que realmente se encaixa dentro do programa.

E há um pouco mais de um pouco de ida e volta. Porque é uma experiência VIP, pode-se dizer: "Ei, então a varredura não saiu tão bem" Eu concordo com você, Rushali, que ter a implementação da aprendizagem da máquina ajudaria a auxiliar este processo. Portanto, talvez ter um pouco de tempo antes da experiência real em si aliviaria alguns dos processos mais pesados e o uso mais pesado que podem causar algumas preocupações ao fazê-lo ao vivo.

Rushali: E para acrescentar a isso, eu diria que esta experiência (se tivéssemos que fazer isso hoje em 2022) provavelmente seria algo que estaria na linha disto: você pega a entrada no início de um show ao vivo, e usa a saída no final dele. Então você tem essas duas horas para fazer todo o processo de moderação, para fazer todo o processo de passar por um controle de qualidade. Todas estas etapas que precisam acontecer no meio.

Além disso, há uma grande quantidade de transferências de dados acontecendo também. Você também está fazendo as coisas ao mesmo tempo e isto é uma coisa complicada de se fazer em tempo real a partir de hoje. Você precisa fazer isso com soluções criativas, com respeito à forma como você o faz. E não com relação às tecnologias que você usa, porque as tecnologias atualmente têm certas restrições.

Angélica: Sim, e a tecnologia muda. É por isso que a idéia é fundamental porque talvez não seja perfeitamente viável hoje, mas poderia ser perfeitamente viável dentro dos próximos anos. Ou ainda mais cedo, não sabemos o que está acontecendo atrás da cortina de muitas das empresas da FAANG. Novas soluções podem estar saindo a qualquer dia agora que permitem que alguns desses pontos de dor dentro do processo sejam aliviados muito mais.

Portanto, falamos sobre o aspecto dinâmico do processo. Falamos sobre a varredura em si, mas há algumas coisas a serem levadas em conta tanto para quem escaneia um objeto. Quais são algumas coisas que ajudariam na obtenção de uma varredura limpa?

Há o básico, que é evitar a iluminação direta. Portanto, não faça a iluminação do teatro porque isso vai apagar a imagem. Ser uniformemente iluminado é uma coisa realmente importante aqui, certificando-se de evitar objetos brilhantes. Embora eles sejam muito bonitos, não são muito bons em serem traduzidos em modelos confiáveis, porque a luz refletirá fora deles.

Estes são apenas alguns, e definitivamente há outros, mas estas são algumas das coisas que durante este processo fariam parte das instruções quando os usuários estão realmente escaneando isto. Após a varredura ser feita, como mencionei, há alguns artefatos que poderiam estar dentro da própria varredura. Portanto, um processo de limpeza automática seria realmente útil aqui, ou tem que ser feito manualmente. A parte manual levaria muito mais tempo, o que prejudicaria o aspecto da viabilidade do processo. E é também aí que talvez o aspecto de aprendizagem da máquina possa ajudar com isso.

E então, além de limpá-la, seria a composição, assegurando que ela pareça natural dentro do ambiente. Assim, todas essas coisas teriam que ser feitas ou como uma combinação de um processo automatizado ou um processo manual. Eu poderia ver onde os modelos finais que estão determinados a serem colocados no show, esses podem ser um processo mais manual para garantir que a iluminação se adapte à ocasião. E se seguirmos o caminho que você mencionou, que é fazê-lo logo no início do espetáculo, então temos um monte de tempo (e eu digo um monte que são realmente duas horas de otimismo) para fazer todos esses processos de tempo intensivo e garantir que seja relevante no final do espetáculo.

Moderação é algo sobre o qual também já falamos bastante aqui. Há muitas maneiras diferentes de moderação acontecer, mas é principalmente focada em imagem, texto e vídeo. Há um artigo da Universidade A&M do Texas que explora a moderação dos objetos 3D, mais para evitar que os modelos 3D NSFW (não seguros para o trabalho) apareçam quando os professores só querem que seus alunos procurem modelos para impressão 3D. Essa é realmente a origem deste papel. E eles sugeriram diferentes maneiras de se fazer o processo de aprendizagem da moderação, que eles mencionam ser a aprendizagem ampliada pelo ser humano em loop. Mas nem sempre é confiável. Este é um espaço exploratório no qual não há muitas soluções concretas. Portanto, isto seria algo que seria uma das coisas mais pesadas de se implementar, apenas olhando para todo o ecossistema do conceito do que precisaria ser implementado.

Rushali: Sim, se você tivesse que acrescentar uma forma mais sustentável. E quando eu digo sustentável, quero dizer, não com respeito ao planeta, porque este projeto não é nada sustentável, considerando que há uma grande quantidade de dados sendo transferidos. Mas voltando a tornar o processo de moderação mais sustentável, você pode sempre abri-lo para a comunidade. Assim, as pessoas que estão participando do concerto decidem o que entra. Como talvez haja um sistema de votação, ou talvez haja uma IA automatizada que possa detectar se alguém fez upload de algo inapropriado. Há diferentes abordagens dentro da moderação que você poderia adotar. Mas para o protótipo, vamos apenas dizer: sem moderação porque estamos discutindo: "Como fazemos isso?" E simplificá-lo é uma forma de se chegar a um protótipo.

Angélica: Certo, ou pode ser uma moderação manual.

Rushali: Sim, sim.

Angélica: O que ajudaria, mas você precisaria ter a equipe pronta para o processo de moderação. E poderia ser para um grupo menor de pessoas.

Portanto, poderia ser para uma audiência de, digamos, 50 pessoas. É um público muito menor para ter que peneirar as varreduras que são feitas contra uma multidão de 20.000 pessoas. Isso definitivamente precisaria ser um processo automatizado se tivesse que ser feito em um curto espaço de tempo.

Portanto, em conclusão, o que aprendemos é que esta idéia é viável...mas com algumas advertências. Cavernas relativas ao quão dinâmica a varredura precisa ser. Precisa ser realmente em tempo real ou pode ser algo que pode acontecer durante algumas horas, ou talvez até mesmo alguns dias ou algumas semanas? Isso o torna mais ou menos viável, dependendo de quais são os requisitos.

A outra é pensar na limpeza, certificando-se de que a varredura se encaixa no ambiente, tem bom aspecto, todos esses tipos de coisas. O aspecto da moderação para garantir que os objetos que são carregados sejam adequados ao que precisa ser implementado. Portanto, se dissermos: "Ei, queremos ursinhos de pelúcia na experiência", mas alguém carrega uma laranja. Provavelmente não queremos a laranja, então há um pouco de detecção de objetos lá.

Pronto, é só isso. Obrigado a todos por ouvirem o Scrap The Manual e obrigado a você, Maria, por submeter a pergunta que respondemos aqui hoje. Não deixe de conferir nossas notas de show para mais informações e referências de coisas que mencionamos aqui. E se você gostou do que ouviu, por favor, inscreva-se e compartilhe. Você pode nos encontrar em Spotify, Apple Podcasts, e onde quer que você receba seus podcasts.

Rushali: E se você quiser sugerir tópicos, idéias de segmentos, ou feedback geral, sinta-se à vontade para nos enviar um e-mail para scrapthemanual@mediamonks.com. Se você quiser fazer parceria com a Media.Monks Labs, sinta-se à vontade para nos contatar também por lá.

Angélica: Até a próxima vez..

Rushali: Obrigado!

Quer apresentar uma idéia para o próximo episódio "Como fazemos isso?"? Submeta a sua aqui.

Não consegue se fartar? Aqui estão alguns conteúdos relacionados para você!

Escolha seu idioma

Escolha seu idioma

O site foi traduzido para Portuguese, Brazil com a ajuda de humanos e IA

Despedimento