brunacruzposts
brunacruzposts
Bruna Cruz
11 posts
Cibercultura UFC 2017.2
Don't wanna be here? Send us removal request.
brunacruzposts · 7 years ago
Text
Rede social
Tumblr media
O V Live App é uma rede social criada em 2015 pela empresa sul- coreana Naver Corporation. Seu principal objetivo é aproximar os idols (cantores coreanos) de seus fãs ao redor do mundo.
Os usuários do V App possuem perfil próprio, no qual apresenta os canais em que estão inscritos e os vídeos assistidos, e podem visualizar o perfil/canal de qualquer grupo de seu interesse. Além de permitir a interação entre fãs do mundo inteiro e diretamente com os idols através da opção “chat”. 
O V Live App está disponível apenas na versão móvel para smartphones com os sistemas operacionais Android e iOS. 
0 notes
brunacruzposts · 7 years ago
Text
Fichamento VIII - Sociedade da comunicação
(HARA, T. Sociedade da comunicação: controle e captura da singularidade. Revista Aulas, n. 3, Dezembro 2006 - Março 2007. São Paulo. PDF)
Tumblr media
Fonte: http://infrainfo.net/post/o-impacto-da-tic-na-sociedade/12
Tony Hara é graduado em Comunicação Social pela Universidade Estadual de Londrina (1994), mestre em História pela Universidade Federal do Paraná (1997) e doutor em História pela Universidade Estadual de Campinas (2004). Suas especialidades são Teoria e Filosofia na História, atuando com temas como História da Cultura, Subjetividade, Filosofia na Literatura, Poesia, Literatura Moderna e Historiografia. 
Este trabalho consiste em analisar seu artigo Sociedade da comunicação: controle e captura da singularidade publicado na Revista Aulas da Universidade Estadual de Campinas (Unicamp) em 2007. O artigo de Hara trata da aula de Michel Foucault no Collège de France em 1982 sobre a estética e a ética de si na cultura moderna.Segundo Foucault, a construção de uma ética do eu hoje é quase impossível, mesmo sendo uma tarefa urgente, já que a relação de si para consigo é o primeiro e último ponto de resistência de poder político (Foucault, 2004: 306 apud Hara, 2007: 2).
Sobre as forças que impedem a constituição da ética do eu podemos citar o conceito de sociedade de controle criado por Gilles Deleuze. A sociedade de controle só se realiza em um panorama em que há um desenvolvimento extraordinário das tecnologias de comunicação. O controle e o sistema de informação estão envolvidos de tal forma que a transmissão de informações, as “palavras de ordem”, corresponde ao próprio sistema de controle. Ou seja, o sistema de comunicação afeta não só o conjunto de crenças de cada um de nós, como também compromete a nossa maneira de agir, o nosso comportamento. Trata-se de um sistema criado para moldar as subjetividades e comportamentos que está apodrecido por estar “inteiramente penetrado pelo dinheiro: não por acidente, mas por natureza” (Deleuze, 1992: 217 apud Hara, 2007: 3). 
Os senhores que tem o poderio da comunicação manipulam esse instrumento para instalar os outros em nós mesmos. Esse é o primado da comunicação: ela instala os ideais da massa em nosso corpo, que adestra o sujeito conforme essas ideais de forma ininterrupta, permanente e contínua, obrigando-nos a acessar e a participar.
A partir disso, Deleuze afirma que o homem jamais se verá livre de obrigação com relação ao poder. Daí a necessidade do trabalhador ter uma formação permanente, de vários cursos de capacitação e treinamento que o mantenham ocupado e culpado por não conseguir acompanhar todas as novidades, inovações e atualizações do sistema de trabalho. A nova lógica moduladora das empresas não é ter um time de trabalhadores, mas sim uma concorrência entre eles, que sempre estarão disputando para suprir as demandas do sistema e não tornarem-se obsoletos a ele.
Essa moldagem da subjetividade para determinados fins e interesses do capitalismo usa a comunicação para manter o indivíduo excitado, agitado, em permanente estado de prontidão e produtividade, garantindo-lhe a liberdade de ser massa, de consumir padrões de comportamentos ou subjetividades do tipo “pronta entrega”.
Essa rivalidade entre os indivíduos e seu anseio de serem diferentes em meio à multidão ocasiona o “culto à diferença”. Porém, para o filósofo Peter Sloterdijk, é uma “diferença que não faz diferença” (2002, 107 apud Hara, 2007: 5). Resumindo, a comunicação tem o poder de instalar os ideais da massa no corpo de cada indivíduo. A massa tem como meta a produção de diferença que não faz diferença alguma, a “massa colorida”.
Foucault diz que pregar o tal “respeito às diferenças” permite-nos imaginar um quadro social mais tolerante àqueles discursos que pré-anunciam uma ética de si. Porém, o emprego dessas expressões não possui significação e pensamento, falhando nos esforços de reconstituir uma ética do eu (Foucault, 2004: 306 apud Hara, 2007: 5).
E essa ausência de sentido e pensamento tem a ver com a incessante produção de diferenças que não fazem diferença alguma, porque o “ser autêntico” de um indivíduo é massa: figuras, fulgurações, expressões do ser massa.
A massa agride, através de indiferença ou difamação, qualquer tentativa de singularização que despreze os ideais igualitários e se distancie do desejo, dos hábitos e modos de agir da maioria. Sloterdijk chama isso de diferenciação vertical, que denuncia as misérias, os desejos banais, a passividade característica das elites e das massas.
Nietzsche despreza o ideal do rebanho e se volta para a criação de uma diferenciação vertical. Para ele, o impulso de “tornar-se o que se é” pode ser entendido como uma vontade de se distanciar ou se desembaraçar da moral do rebanho, da lógica da massa entranhada na consciência que cada um faz de si mesmo.
Nietzsche defende o desenvolvimento da consciência de si. O ato de comunicação instala os outros em nós mesmos, molda a nossa subjetividade, controle nosso comportamento ao permitir a multiplicação das diferenças horizontais. Mas esse exercício de pensamento nos faz pensar que o ato de comunicação também interfere, afeta, modula a relação que o sujeito estabelece consigo mesmo.  Resumindo, a ideia que fazemos de nós mesmos quando acordados, à luz da consciência, é expressão da natureza comunitária, da vida e da moral do rebanho.
Concluindo, as possibilidades de constituir uma ética do que na atualidade são bem pequenas devido ao ininterrupto fluxo de informações que nos faz sentir como se tivéssemos consciência própria, mas nos afasta do que há de mais singular em nossas atos e pensamentos.
Material de pesquisa e aprofundamento:
https://www.escavador.com/sobre/3186894/tony-renato-hara
http://www.unicamp.br/~aulas/
https://pt.wikipedia.org/wiki/Michel_Foucault
https://www.college-de-france.fr/site/college/index.htm
https://pt.wikipedia.org/wiki/Gilles_Deleuze
https://pt.wikipedia.org/wiki/Peter_Sloterdijk
https://pt.wikipedia.org/wiki/Friedrich_Nietzsche
Vídeo:
https://www.youtube.com/watch?v=HqRIcpBOLeg
0 notes
brunacruzposts · 7 years ago
Text
Fichamento VII - O culto do amador
(KEEN, A. O culto do amador. Cap. 1 PDF)
Tumblr media
Fonte: http://wweeb2.blogspot.com.br/
Andrew Keen é um escritor norte-americano que critica a Web 2.0 e seus produtos. Sua principal obra é o livro The Cult of the Amateur (O Culto do Amador), lançado nos Estados Unidos em 2007. É seu trabalho inaugural de crítica sobre a Web 2.0 e seus efeitos, compilando seus pensamentos negativos quanto à revolução tecnológica e cultural acarretadas por ela.
Neste trabalho, analisaremos a introdução e o primeiro capítulo d’O Culto do Amador.
Keen baseia sua introdução na “teoria do macaco infinito” de T.H. Huxley. Segunda essa teoria, se fornecermos a um número infinito de macacos um número infinito de máquinas de escrever, em algum lugar os macacos acabarão criando uma obra-prima. Keen usa desse método para criticar todos os visionários e usuários da internet, que compartilham suas vidas, opiniões e ponto de vista na rede.
A crítica do autor perpassa por toda a rede e critica de forma veemente o YouTube, a Wikipedia, o Google (mecanismos de busca) e os blogs em geral. Sobre os mecanismos de busca, fala que algoritmo reflete a “sabedoria” das massas, ou seja, quanto mais pessoas clicam num link resultante de uma busca, mais provavelmente esse link aparecerá em buscas subsequentes. Em outras palavras, ele só nos diz o que já sabemos. 
Sobre os blogs, o The New York Times noticia que 50% de todos os blogueiros postam com o propósito exclusivo de relatar e partilhar sobre suas vidas pessoais. Em vez de usar a Internet para buscar notícias, informação ou cultura, nós a usamos para sermos de fato a notícia, a informação, a cultura.
Keen diz também que essas novas “mídias” estão atacando e ameaçando as instituições tradicionais, como jornais e revistas, que ajudaram a promover e criar notícias, música, literatura, programas de televisão e filmes. Destaca que essas “fontes mais confiáveis de informação sobre o mundo” estão passando por dificuldades graças à proliferação de blogs e sites gratuitos. Coloca em negrito: “A mídia antiga está ameaçada de extinção.”
No capítulo 1, A grande sedução, entra de vez no cerne da Web 2.0, termo criado por Tim O’Reilly que tinha como objetivo revolucionário democratizar a grande mídia - informação, conhecimento, conteúdo, público, autor. Contudo, para Keen, essa democratização, apesar de sua elevada idealização, está destruindo a verdade, azedando o discurso cívico e depreciando o conhecimento, a experiência e o talento, ameaçando o próprio futuro de nossas instituições culturais.
A grande sedução vem da promessa que a Web 2.0 disseminou de levar mais verdade a mais pessoas - mais profundidade de informação, perspectiva global, opinião imparcial fornecida por observadores desapaixonados. Porém, isso é uma cortina de fumaça, que oferece apenas observações superficiais do mundo, em vez de uma análise profunda, opinião estridente ou um julgamento ponderado.
Além disso, o conteúdo gratuito e produzido pelo usuário, gerado e exaltado pela revolução da Web 2.0 está dizimando as fileiras de nossos “guardiões da cultura”, à medida que críticos, jornalistas, editores, músicos e cineastas profissionais e outros provedores de informação especializada estão sendo substituídos por “blogueiros amadores, críticos banais, cineastas e músicos que gravam no sótão”. Os negócios dessa nova era sugam o valor econômico da mídia e do conteúdo cultural tradicionais.
Uma realidade arrepiante nessa admirável nova época digital é o obscurecimento, a ofuscação até o desaparecimento da verdade. A verdade está sendo achatada à medida que criamos uma nova versão dela. A verdade de uma pessoa torna-se tão “verdadeira” quanto a de qualquer outra. É assim na Internet, onde há milhões de verdade personalizadas, todas parecendo igualmente válidas e igualmente valiosas.
Voltando para o lado da criação e disseminação de pontos de vista, Keen afirma que, num mundo plano, livre de editores, onde videomakers independentes, podcasters e blogueiros podem postar à vontade suas criações amadoras, onde ninguém está sendo pago para verificar suas credenciais ou avaliar o material, a mídia encontra-se vulnerável aos conteúdos não confiáveis de todos os matizes.
Os motores de busca como o Google sabem mais sobre nossos hábitos, nossos interesses, nossos desejos do que nossos amigos, entes queridos e psiquiatra juntos. É como o Grande Irmão do livro 1984 de George Orwell, que dita regras e difunde opiniões e as pessoas cegamente as seguem.
A noção de autoria também passa por mudança radical. Em um mundo no qual plateia e autor são cada vez mais indistinguíveis, e onde a autenticidade é quase impossível de ser verificada, a ideia original de autoria e propriedade intelectual tem sido seriamente comprometida. Quem é o dono de tal conteúdo ou de tal produto?
“Versão líquida” do livro: na opinião de Kevin Kelly, o ato de copiar e colar e ligar e comentar um texto é tão ou mais importante do que a escrita do livro em primeiro lugar.
A Internet tornou-se a mídia escolhida para distorcer a verdade sobre a política e os políticos. Nenhum dos blogs que tratam sobre o assunto, como o MoveOn.org ao Swiftvets.com, debate de forma séria as questões, as ambiguidades e a complexidade da política. Pelo contrário, atendem uma minoria cada vez mais partidária que usa a mídia digital “democratizada” para ofuscar a verdade e manipular a opinião pública.
No tópico O custo da democratização, Keen fala que o desfoque da fronteira entre o público e o autor, fato e ficção, invenção e realidade obscurece mais ainda a obscuridade. O culto do amador tornou cada vez mais difícil determinar a diferença entre o leitor e o escritor, o artista e o porta-voz, arte e propaganda, amadores e especialistas.
Os blogs e wikis estão dizimando as indústrias da publicidade, da música e da informação, que criaram o conteúdo original do “conteúdo” desses sites.
A Cauda Longa de Chris Anderson praticamente redefine a palavra “economia”, deslocando da escassez para a abundância. No entanto, embora possa haver máquinas de escrever infinitas, há uma escassez de talento, competência, experiência e domínio em qualquer área.
Na Web, todos nós temos opiniões, mas poucos de nós têm uma formação especial, conhecimento ou experiência prática para gerar algum tipo de perspectiva real.
Quanto mais especializado o nicho, mais estreito o mercado. Quanto mais estreito o mercado, mais curto orçamento de produção, o que compromete a qualidade da programação, reduzindo ainda mais o público e alienando os anunciantes.
Materiais para aprofundamento:
https://pt.wikipedia.org/wiki/Andrew_Keen
https://revistacult.uol.com.br/home/entrevista-andrew-keen/
http://www.ajkeen.com/
https://front.moveon.org/
http://swiftvets.com/
http://kk.org/
https://pt.wikipedia.org/wiki/Thomas_Henry_Huxley
https://www.youtube.com/?hl=pt&gl=BR
https://pt.wikipedia.org/wiki/Wikip%C3%A9dia:P%C3%A1gina_principal
https://www.google.com.br/
https://www.nytimes.com/
http://www.oreilly.com/pub/a/web2/archive/what-is-web-20.html
https://pt.wikipedia.org/wiki/George_Orwell
http://www.laparola.com.br/chris-anderson-e-o-fenomeno-da-cauda-longa
https://pt.wikipedia.org/wiki/Chris_Anderson
Matérias:
http://g1.globo.com/globo-news/milenio/platb/tag/andrew-keen/
https://www.theguardian.com/commentisfree/2015/feb/10/andrew-keen-internet-answer-social-economic-inequality
https://www.theguardian.com/books/2015/feb/01/internet-is-not-the-answer-review-andrew-keen
Vídeos:
https://www.youtube.com/watch?v=42HMe94fgyI
https://www.youtube.com/watch?v=6xSSs6_Wam8
https://www.youtube.com/watch?v=zTYKVzpyI48
https://www.youtube.com/watch?v=moLLHxxD0JM
https://www.youtube.com/watch?v=7fnb13MII88
0 notes
brunacruzposts · 7 years ago
Text
Fichamento VI - Redes sociais e jornalismo na internet
(RECUERO, R. Redes sociais na internet, difusão de informação e jornalismo: elementos para discussão. PDF)
Tumblr media
Disponível em: https://pt.slideshare.net/virgandrade/redes-sociais-e-jornalismo-online
Raquel Recuero possui doutorado em Comunicação e Informação pela Universidade Federal do Rio Grande do Sul (2006). mestrado em Comunicação e Informação pela Universidade Federal do Rio Grande do Sul (2002), graduação em Comunicação Social com habilitação em Jornalismo pela Universidade Católica de Pelotas (1998) e graduação em Direito pela Universidade Católica de Pelotas (1999). Atualmente, é professora e pesquisadora do Centro de Letras e Comunicação da Universidade Federal de Pelotas e pesquisadora do Programa de Pós-Graduação em Comunicação da Universidade Federal do Rio Grande do Sul (UFRGS), além de membro do corpo editorial de diversos periódicos.
Analisaremos neste trabalho o artigo Redes sociais na internet, difusão de informação e jornalismo: elementos para discussão, que discute algumas intersecções dos processos de difusão de informações nas redes sociais online e as práticas do jornalismo na internet.
As redes sociais têm um grande potencial de mobilização de difusão de informações, algumas das quais nem estão no mainstream jornalístico. O que chama a atenção de pesquisadores tanto pela abrangência quanto pelo contra-fluxo de informação gerado fora dos meios informativos tradicionais. São movimentos de difusão e debate de informações que acontecem no âmbito das chamadas redes sociais na internet. (p. 1-2)
O objetivo da pesquisa de Raquel é apontar pistas para a discussão a respeito das intersecções possíveis entre o estudo das redes sociais na internet, suas características e efeitos no jornalismo online, além de discutir o papel dessas redes como filtros de informação, os elementos que proporcionam esse papel e como essas redes vão impactar no jornalismo online, a partir de vários exemplos. (p. 2)
Redes sociais: Da conexão à informação
Redes sociais na internet são constituídas de representações - individualizadas e personalizadas - de atores sociais e de suas conexões (Recuero, 2009). As conexões, construídas através da interação entre os atores - são os elementos que vão criar a estrutura na qual as representações formam as redes sociais. (p. 2)
Enquanto a rede social é uma metáfora utilizada para o estudo do grupo que se apropria de um determinado sistema, o sistema em si não é uma rede social, embora possa compreender várias delas. Os sites que suportam as redes sociais são chamados de “sites de redes sociais”, que permitem uma nova geração de “espaços públicos mediados” (Boyd, 2007) - ambientes onde as pessoas podem reunir-se publicamente através da mediação da tecnologia. Esses espaços possuem quatro características básicas:
1.  persistência: o que foi dito permanece no ciberespaço; 2.  capacidade de busca: capacidade que têm de permitir busca e rastreamento dos atores sociais e de outras informações; 3.  replicabilidade: aquilo que é publicado no espaço digital pode ser replicado a qualquer momento por qualquer indivíduo; 4.  audiências invisíveis: presença de audiências que nem sempre são visíveis através da participação.
Essas características referem-se ao fato de que a internet permite que as informações sejam armazenadas, replicadas e buscadas. As redes surgidas a partir delas selecionam e repassam informações que sejam relevantes para seus grupos sociais. (p. 3-4)
No entanto, a mediação na internet proporcionou a complexificação da interconexão entre os indivíduos, que podem ser de dois tipos, segundo a autora (2007): emergentes - que caracterizam laços construídos através da conversação entre os atores - e as de filiação ou associação - caracterizadas pela manutenção da conexão realizada pelo software ou site utilizados. As primeiras passam pelo processo de aprofundamento do laço social; as segundas podem jamais ter qualquer interação exceto no momento de estabelecimento da conexão. (p. 4)
É porque a internet permite que esses grupos estejam permanentemente conectados nos sites das redes sociais, que essas informações vão espalhar-se e potencialmente criar mobilizações nesses grupos. (p. 5)
Redes sociais, difusão de informação e capital social
As informações que circulam nas redes sociais tornam-se persistentes, capazes de ser buscadas e organizadas, direcionadas a audiências invisíveis e facilmente replicáveis. A isso, soma-se o fato de que a circulação de informações também é uma circulação de valor social, que gera impactos na rede, ou seja, as informações circulam nas redes sociais de acordo com a percepção de valor gerado que os atores sociais percebem. Assim, as informações estão relacionadas com o capital social. (p. 5)
O capital social é definido com o valor que circula dentro de uma rede social. Para Bordieu (1983), está relacionado à associação a uma “rede mais ou menos durável de relações institucionalizadas de conhecimento e reconhecimento mútuo. Para outros autores, o capital social compreende recursos que são coletivos, mas que podem ser “emprestados” pelos indivíduos para obter algum tipo de vantagem. (p. 5)
Ellison, Steinfeld e Lampe (2007) mostram como o Facebook auxilia os atores a manter os laços sociais, atuando como um facilitador da construção do capital social. Wellman (2002) mostra como esse papel de indivíduo na rede mudado pela tecnologia, criando as “redes sociais pessoais” ou o “individualismo em rede”. (p. 6)
Marlow (2006), em um estudo voltado para os blogs, mostrou como os blogueiros focam determinados tipos de capital social e como os chamados blogueiros profissionais (probloggers) são capazes de apropriar mais capital social e gerar reputação, pois dedicam mais tempo a seus blogs publicando informações mais especializadas. (p. 6)
O ator pode transformar sua identidade na rede transformando sua reputação em alguma forma de capital: há tanto interesse de um grupo em receber e fazer circular as informações quanto dos atores em divulgá-las e repassá-las. (p. 7)
Redes sociais e jornalismo online: a perspectiva do Gatewatching
Relações percebidas entre as redes sociais e o jornalismo: a) redes sociais como produtoras de informações; b) redes sociais como filtros de informações; c) redes sociais como espaços de reverberação dessas informações: (p. 7)
1.  As redes sociais como circuladoras de informações são capazes de gerar mobilizações e conversações que podem ser de interesse jornalístico na medida em que essas discussões refletem anseios dos próprios grupos sociais - agendar notícias e influenciar a pauta dos veículos jornalísticos. Esses movimentos também podem refletir interesses individuais dos atores sociais que acontecem de estar em consonância com interesses sociais. (p. 8-9) 2.  As redes sociais atuam de forma a coletar e republicar as informações obtidas através de veículos informativos ou mesmo de forma a coletar e a republicar informações observadas dentro da própria rede. Ao repassar informações que foram publicadas, os atores dão credibilidade ao veículo e tomam parte dessa credibilidade para si, pelo espalhamento da informação. (p. 9) 3.  As ferramentas da rede permitem não apenas a difusão das informações, mas também o debate em cima das mesmas - o que está sendo falado sobre determinado assunto. (p. 10)
Essas características das redes sociais são relevantes no ciberespaço justamente porque a internet permite que essas informações permaneçam no ciberespaço, proporcionando que as redes não apenas difundam, mas também discutam essas informações. Esses três papéis podem ser relevantes para o jornalismo, ainda que não necessariamente tome seu papel. (p. 10)
A filtragem é focada na produção de novas informações e, de um modo especial, na discussão e na ampliação da circulação de informações já publicadas por veículos noticiosos. (p. 10)
Gatekeeping: “processo através do qual as seleções são realizadas no trabalho da mídia, especialmente decisões a respeito do quanto permitir que uma determinada história passe pelos ‘portões’ do meio para os canais de notícia” (McQuail, 1994). A função do jornalismo é focada no poder de decidir e disseminar o que é considerado relevante para a sociedade na visão dos indivíduos que fazem parte das redações. (p. 11)
Gatewatching: refere-se à observação daquilo que é publicado pelos veículos noticiosos, no sentido de identificar informações relevantes assim que publicadas; é focado em informações que estão fora do mainstream informacional. É através dele que as redes sociais na internet agem, atuando com um duplo papel informativo: como fontes, como filtros ou como espaço de reverberação das informações. (p. 11)
A autora conclui que as redes sociais podem constituir-se em focos complementares ao jornalismo, a partir do gatewatching, mas não possuem, necessariamente, um compromisso com o social. Assim, as redes sociais poderiam apontar a relevância de notícias, ampliando seu alcance, comentando-as e mesmo apontando outras fontes. (p. 13)
Material para aprofundamento:
https://www.escavador.com/sobre/725142/raquel-da-cunha-recuero
http://www.raquelrecuero.com/
Vídeos:
https://www.youtube.com/watch?v=1dEMBIqxn6g
1 note · View note
brunacruzposts · 7 years ago
Text
Fichamento V - The Shallows
(CARR, N. Tradução de RIOS, R.; THIAGO, P. The Shallows: O que a internet está fazendo para nossos cérebros. Cap 1; Cap. 3. PDF)
Tumblr media
Disponível em: https://www.youtube.com/watch?v=W6XVhTrLNSY 
Nicholas Carr é um escritor norte-americano que publica livros e artigos sobre tecnologia, negócios e cultura. Carr costuma criticar a ideia da utopia tecnológica e, em particular, as reivindicações populistas feitas  para a produção social online, usando como canal o seu blog Rough Type.
The Shallow: what the internet is doing to our brains (2010) é uma de suas principais obras e seu principal argumento é que a internet pode ter efeitos prejudiciais sobre a cognição que diminuem a capacidade de concentração e contemplação. Carr mostra como as tecnologias recém-introduzidas mudam a maneira como as pessoas pensam, atuam e vivem.
Neste trabalho, analisaremos o prólogo e os capítulos 1 e 3 do livro acima.
No prólogo, O cão de guarda e o ladrão, o autor traz à tona o alerta que McLuhan fez antes mesmo da explosão das tecnologias do computador e de suas inovações e que, por muito tempo, foi ignorada ou mal interpretada. “O meio é a mensagem”, escreve McLuhan em seu clássico livro Os meios  de comunicação. Porém, o que foi esquecido nesse enigma é que seu autor não estava apenas reconhecendo, e celebrando, o poder transformador das novas tecnologias de comunicação, mas também alertando para a ameaça que esse poder representa - e o risco de ficar alheio a essa ameaça. (p.1)
Entusiastas e céticos da rede aproveitam o espaço estimulante da internet para anunciarem seus pontos de vista através de livros, artigos, posts, vídeos e podcasts. Mas ambos esquecem, mais uma vez, o que McLuhan previu anos atrás: que a longo prazo o conteúdo de uma mídia importa menos que ela própria em influenciar o modo como pensamos e agimos. Como nossa janela para o mundo e para nós mesmos, uma mídia popular molda o que vemos e como o vemos - e, por fim, se a usarmos bastante, muda quem somos, como indivíduos e como sociedade. (p.1)
No primeiro capítulo, Hal e eu, Carr começa fazendo uma analogia com o supercomputador HAL do filme 2001: Uma odisseia no espaço, no qual os circuitos de memória da máquina estão sendo desconectados: “... minha mente está indo embora”. Assim também se sente Nicholas Carr, cuja mente está mudando e ficando mais propensa a pensar mais rápido e a manter a concentração por menos tempo.  Isso tudo como consequência de suas “surfadas” na internet, onde por algumas buscas no Google, alguns cliques rápidos em hiperlinks, e o que estava procurando é entregue em mãos quase que imediatamente. (p. 2)  
As vantagens de ter acesso imediato a um armazém de dados tão incrivelmente rico e facilmente pesquisável são muitas, e têm sido amplamente descritas e devidamente aplaudidas. No entanto, os ganhos são reais, mas têm seu preço. As novas mídias não são apenas canais de informação: elas fornecem o material do pensamento, mas também moldam o processo de pensamento. E o que a Web parece estar fazendo é enfraquecer aos poucos a capacidade de concentração e contemplação dos indivíduos. (p. 3)
Karp, Friedman e Davis assumem a decadência de suas faculdades para leitura e concentração. Para eles, considerando tudo, o benefício do uso da rede - rápido acesso às informações, ricos resultados de buscas, ferramentas de filtragem e fácil compartilhamento de opiniões com um público seleto e interessado - compensa a perda de habilidade de sentar-se imóvel e virar as páginas de um livro ou uma revista. Todos os três admitem ter sacrificado algo importante, mas não cogitam voltar ao modo como as coisas eram antes (p. 3-4)
As pessoas usam a internet das mais variadas formas. Algumas usam compulsivamente: têm contas em vários serviços online e inscrevem-se em dezenas de serviços de notícias, blogam e usam tags, mandam mensagens e tuítam. Outras não se importam muito em ficar atrás, mas ainda assim ficam online a maior parte do tempo - computador, notebook, celular. A internet tornou-se essencial para o trabalho, escola ou vida social, e até para os três. Algumas outras pessoas conectam-se poucas vezes ao dia, apenas para ver uma notícia, pesquisar algo de seu interesse ou fazer compras. Por fim, há também as pessoas que não usam a internet, por não poderem pagar ou simplesmente por não quererem usar. Entretanto, é claro que a internet tornou-se a principal mídia comunicativa e informativa para a sociedade como um todo. (p. 4)Parece que chegamos a um momento de transição entre dois modos diferentes de pensar previsto por McLuhan. O que estamos abrindo mão em troca das riquezas da rede é o que Karp chama de “nosso antigo processo de pensamento linear”, que está sendo substituída por um novo tipo de mente que quer e precisa obter e distribuir informações em curtos rebentos disjuntos e por vezes sobrepostos - quanto mais rápido, melhor. (p. 4) 
Geração X: começa com uma juventude analógica e, em seguida, após uma mudança rápida mas completa dos adereços, muda para a maturidade digital. (p. 4)
HyperCard: programa presente em todos os Macs que trazia um sistema de hipertexto que antecipou a aparência da WWW. (p 5-6)
Blogs: acabaram com a editoração tradicional. Você digita algo, acrescenta alguns links, clica no botão Publicar e seu trabalho está no ar, de imediato, para o mundo todo ver. (p. 6-7)
Carr começou a notar que a internet estava exercendo uma influência muito mais forte e ampla sobre ele do que seu velho PC. E começou a ficar preocupado com sua incapacidade de prestar atenção a qualquer coisa por mais de um minuto. Mas, depois, percebeu que seu cérebro não estava apenas à deriva. Estava com fome. Estava exigindo ser alimentado como a internet o alimentava - e quanto mais ingeria, mais ficava faminto. (p. 7)
No capítulo 3, Ferramentas para a mente, estabelece paralelos e analogias sobre o desenvolvimento e amadurecimento dos indivíduos a partir de três argumentos: os mapas, os relógios e a escrita, (p. 7)
Sobre os mapas, começamos com esboços primitivos e literais do que vemos ao redor, e avançamos até representações cada vez mais precisas e abstratas do espaço geográfico e topográfico. Progredimos do que desenho que vemos para o desenho do que conhecemos. (p. 7)
Sobre os relógios, Carr destaca como a proliferação de relógios públicos mudou a maneira como as pessoas trabalhavam, compravam, jogavam e se comportavam como membros de uma sociedade cada vez mais controlada e como essa mudança se acentuou mais ainda com a disseminação de ferramentas mais pessoais para contar o tempo, como o relógio de pulso, acarretando consequências mais íntimas. Para Lewis Mumford, a “ideia abstrata do tempo dividido” tornou-se “o ponto de referência para a ação e o pensamento”. Independente das questões práticas que inspiraram a criação dos relógios e guiaram seu uso diário, o tique metódico ajudou a surgir a mente científica e o homem da ciência. (p. 9)
Toda tecnologia é uma expressão da vontade humana. Com nossas ferramentas, buscamos ampliar nosso poder e controle sobre as circunstâncias. Nossas tecnologias podem ser divididas em quatro grupos: 1) um conjunto que abrange nossa força física, destreza ou flexibilidade - arado; 2) um conjunto que amplia o alcance e a sensibilidade de nossos sentidos - microscópio; 3) um conjunto que nos permite mudar a natureza para melhor servir nossas necessidades e desejos - pílula anticoncepcional; 4) um conjunto que inclui todas as ferramentas que usamos para estender ou apoiar nossos poderes mentais, as “tecnologias intelectuais” - mapas, relógios. (p. 9)
São nossas tecnologias intelectuais que têm o poder maior e mais duradoura sobre o quê e como pensamos. Em outras palavras, toda tecnologia intelectual incorpora uma ética intelectual, um conjunto de suposições sobre como a mente humana funciona ou deveria funcionar. (p. 10) A ética intelectual é a mensagem que um meio ou outra ferramenta transmite às mentes e a cultura de seus usuários. (p. 10)
Determinismo tecnológico (de Thorstein Veblen): o progresso tecnológico, visto como uma força autônoma fora do controle do homem, foi o principal fator a influenciar o curso da história humana. (p. 10)
Langdon Winner; “se a experiência da sociedade moderna nos mostra alguma coisa, é que as tecnologias não são meros auxiliares à atividade humana, mas sim forças poderosas agindo para reformular essa atividade e seu significado”. Embora, raramente estejamos conscientes desse fato, muitas das rotinas de nossas vidas seguem caminhos estabelecidos pelas tecnologias que entraram em uso bem antes de termos nascido. Às vezes, nossas ferramentas fazem o que mandamos; outras vezes, nós é que nos adaptamos às exigências delas. (p. 11)
Por fim, sobre a escrita, Carr destaca que o alfabeto grego marca a passagem de uma cultura oral, na qual o conhecimento era compartilhado principalmente pela fala, para uma cultura literária, em que a escrita se tornou o principal meio de expressão do pensamento. (p. 14)
Material para aprofundamento:
https://en.wikipedia.org/wiki/Nicholas_G._Carr
http://www.nicholascarr.com/
http://www.roughtype.com/
https://www.google.com.br/?gws_rd=ssl
https://pt.wikipedia.org/wiki/2001:_A_Space_Odyssey
https://pt.wikipedia.org/wiki/2001:_A_Space_Odyssey
Vídeos:
https://www.youtube.com/watch?v=W6XVhTrLNSY
https://www.youtube.com/watch?v=cKaWJ72x1rI
https://www.youtube.com/watch?v=PF1JgIWbSlQ
https://www.youtube.com/watch?v=SudWj3g5ZYk
1 note · View note
brunacruzposts · 7 years ago
Text
Ciberguia - K-Pop
Tumblr media
Fonte: http://de.kpopwiki.wikia.com/wiki/Liste_von_Kpop_Girls_und_Boybands
K-Pop é a música pop sul-coreana (K vem de korean), caracterizada pela mistura de vários ritmos - eletrônica, blues, jazz, reggae, rap, hip-hop. Seus pontos fortes são as batidas viciantes, as letras e “jargões” chiclete e as coreografias surpreendentes e muito bem sincronizadas.
O K-Pop ganha destaque internacional através do fenômeno conhecido como hallyu (korean wave, ou onda coreana), no qual os grupos começaram a quebrar recordes de visualizações no YouTube, seguidores nas redes sociais (principalmente o Twitter) e despontaram nos principais charts de música mundiais, como Billboard e iTunes.
A hallyu compreende não só o K-Pop, mas também o K-Rock (o rock coreano), que também mistura, por vezes, o rap, e os doramas (ou k-dramas), que são as novelas, ou séries, coreanas.
Alguns pontos importantes sobre o K-Pop/K-Rock são:
a diferença entre grupos e bandas: os grupos são os que cantam e dançam e, geralmente, não tocam instrumentos em suas performances ao vivo; as bandas, em sua maioria do K-Rock, tocam instrumentos e não costumam ter performances de dança. Mas também há bandas de K-Pop, como CNBlue e Day6;
os membros dos grupos, apesar de serem multi-talentosos, geralmente têm posições bem definidas, como: um líder, um rapper líder, um rapper principal, um dancer líder, um dancer principal, os vocais líderes e principais, o visual (considerado o membro mais bonito) e o maknae (o membro mais novo). Cada membro pode ocupar mais de uma dessas posições;
uma das coisas que mais chamam a atenção dos k-idols são os inusitados estilos e cores de cabelo. O exemplo maior disso é o cantor e rapper G-Dragon (BigBang), que já experimentou mais de cem cabelos diferentes ao longo de seus onze anos de carreira;
destaquemos, ainda, as coreografias. Algumas mostram-se extremamente difíceis, com passos rápidos e acrobacias, como Fire truck do grupo NCT-127; outras impressionam pela dificuldade e sincronia, como Fanfare do SF9;
ainda sobre as coreografias, os grupos costumam disponibilizar em suas páginas no YouTube os vídeos dos ensaios (dance practice), para que os fãs ao redor do mundo possam aprender e fazer covers. Como exemplo, podemos citar Blood, Sweat & Tears do BTS performado pelo grupo cover feminino de dança East2West;
por último, cada grupo e banda tem um nome para seu fandom (legião de fãs). 
K-idols nas redes sociais
Muitos k-idols utilizam as redes sociais para se aproximarem dos fãs, seja em perfis do grupo ou individuais. As mais usadas são o Twitter e o Instagram, onde os ídolos postam fotos sobre suas atividades (particulares e/ou sociais) e enviam mensagens para os fãs de todo o mundo.
O boygroup BTS é um dos mais seguidos no Twitter, com mais de 8 milhões de seguidores. Foi com esses fãs fervorosos e dedicados que o grupo ganhou, em maio deste ano, o prêmio de artista mais querido nas redes mundiais, batendo o recorde de 300 milhões de votos. As armys (fandom) brasileiras, lideraram os votos com 44% dos cliques.
Tumblr media Tumblr media
Fonte: Twitter
O líder do grupo Winner, Kang Seung Yoon, é bem assíduo no Instagram, sempre atualizando sua página. O cantor tem mais de 1 milhão de seguidores e mais de 600 fotos postadas. 
Hana, dul, hallyu
O boom do K-Pop veio com o rapper PSY quando lançou, em 2012, o single Gangnam Style. O MV (music video) foi, por quase quatro anos, o mais visto do YouTube, com quase 3 bilhões de visualizações. Recentemente, perdeu sua posição para See you again do rapper Wiz Khalifa e Charlie Puth, e Despacito de Luis Fonsi e Daddy Yankee.
Para fortalecer ainda mais o domínio do K-Pop no meio internacional, no dia 21 de maio deste ano, o grupo BTS foi o primeiro artista sul-coreano a ganhar um prêmio da Billboard - como o mais querido das redes sociais. Em setembro, os meninos ainda fizeram uma parceria com a dupla norte-americana The Chainsmockers, lançando a música  Best of me.
1 note · View note
brunacruzposts · 7 years ago
Text
Fichamento IV - Wikinomics
(TAPSCOTT, D; WILLIAMS, A. D. Wikinomics - Como a colaboração em massa pode mudar o seu negócio. Cap. 1; Pag. 17 - 47. PDF)
Tumblr media
Foto disponível em: https://www.haikudeck.com/a2-media-revision-uncategorized-presentation-35mPdGTqBr#slide9
Wikinomics é um neologismo criado por Don Tapscott e Anthony D. Williams, que deu origem ao livro Wikinomics: How mass collaboration changes everything (2006, EUA), lançado no Brasil em 2007 e em Portugal em 2008.
Para criar tal termo, os autores basearam-se na ferramenta wiki, que é “mais do que um programa que permite que várias pessoas editem, modifiquem, contribuam com sites; é uma metáfora para uma nova era de colaboração e participação”.
Neste trabalho, analisaremos o primeiro capítulo intitulado  Wikinomics - A arte e a ciência do “peering”.
“Bem-vindo ao mundo dos wikinomics, onde a colaboração em massa transformará todas as instituições em sociedades.” Creio que essa citação possa ter lhe causado certo estranhamento. Contudo, ao longo da leitura do primeiro capítulo, Don e Anthony transformam completamente as instituições privadas em verdadeiras sociedades, nas quais o público interfere nos produtos e serviços oferecidos pelas empresas.
Como isso acontece? É bem mais simples do que parece: através de um modelo de inovação e criação de valor chamado peer production, ou, simplesmente, peering. Esse modelo nada mais é do que uma descrição do que acontece quando grupos de pessoas e empresas colaboram de forma aberta para impulsionar a inovação e o crescimento em seus ramos.
Algumas dessas empresas são bem conhecidas do público, como MySpace, YouTube, Linux e, talvez o mais famoso e utilizado, Wikipedia.
A era da participação
As “armas de colaboração em massa” - como softwares de código aberto - permitem que milhares de indivíduos e pequenos produtores criem conjuntamente produtos, acessem mercados e encantem os clientes de uma maneira que apenas as grandes empresas podiam fazer no passado.
Agora, para os autores, essas grandes empresas têm que abrir suas fronteiras para continuarem no mercado antes que sejam engolidas pela onda da colaboração. Agora, especialistas carimbados têm que dividir igual espaço com “amadores” que estão tomando conta das atividades que chegam a suas mãos.
Os indivíduos agora compartilham conhecimento, capacidade computacional e vários outros recursos, criando uma vasta gama de bens e serviços gratuitos e de código aberto para que qualquer um possa acessar, usar e modificar. Assim se formam os digital commons, espaços digitais públicos no qual as pessoas contribuem a um custo muito baixo para si próprias, aumentando a atratividade da ação coletiva. O peering é uma atividade muito social, já que a pessoa só precisa de um computador, uma rede de internet, iniciativa e criatividade para integrá-lo.
A grande elite industrial não deve mais se preocupar com empresas arqui-rivais, mas, sim, com a massa hiperconectada e amorfa auto-organizada que segura com força as suas necessidades econômicas em uma mão e os seus destinos econômicos na outra. Por isso, os conservadores têm que inovar e integrar o cenário global.
A massa de colaboradores podem produzir através do peering um sistema operacional, uma enciclopédia, produtos midiáticos, até mesmo bens físicos como um carro. A partir daí, surge uma nova democracia econômica , na qual todos somos protagonistas.
Promessa e perigo
Esse mundo menor, conectado, mais aberto e independente tem o potencial de ser dinâmico, mas também mais vulnerável a terrorismos, redes criminosas e fraudes. Assim como pessoas honestas podem colaborar, criminosos e pessoas de mau caráter podem agir e atrapalhar o fluxo.
Mesmo com boas intenções, a colaboração em massa pode trazer muitos desafios. É que teme o cientista computacional Jaron Lanier sobre o fato de que as comunidades colaborativas possam sufocar as vozes autênticas em um “mar confuso e anônimo da mediocridade em massa”.
A nova promessa da colaboração
A nova promessa é que, com o peering, exploremos a capacidade, a engenhosidade e a inteligência humana com mais eficiência e eficácia do que qualquer outra forma antecedente. É esse modelo que, nos próximos anos, substituirá as hierarquias empresariais tradicionais como o mecanismo essencial para a criação da riqueza na economia. E é a evolução da internet, mais do que tudo, que impulsiona essa nova era.
O ato de simplesmente fazer parte de uma comunidade online já é uma contribuição para os espaços digitais públicos, como comprar um livro na Amazon, postar um vídeo no YouTube ou editar um verbete na Wikipedia.
Os princípios da Wikinomics
As novas arte e ciência da wikinomics se baseiam em quatro e poderosas ideias, que trataremos a seguir:
Ser aberto
A transparência - a divulgação de informações pertinentes, como um código fonte, um banco de dados ou um plano empresarial - é uma força crescente na economia em rede e, para garantir que continuem aparecendo no mercado, as empresas têm que abrir cada vez mais suas portas para os talentos globais que prosperam fora de seus muros.
     2. Peering
É a nova forma de organização horizontal que rivaliza com a empresa hierárquica com a capacidade de criar produtos e serviços baseados em informações e, até mesmo, bens físicos. O exemplo clássico é o Linux e seu código aberto.
É cada vez mais fácil para as pessoas colaborarem com novos projetos. E elas se auto-organizam cada vez mais para projetos bens e serviços, criar conhecimento ou mesmo produzir experiências dinâmicas e compartilhadas. O maior exemplo disso pode ser a Wikipedia, na qual qualquer pessoa logada pode editar ou criar um verbete sobre qualquer assunto em que se julgue seguro a defender.
     3. Compartilhamento
O poder do compartilhamento não se restringe apenas ao âmbito intelectual ou industrial. Ele se expande a outros recursos, como capacidade computacional, conteúdo e conhecimento científico. Basta disponibilizar um banco ou conjunto de dados ao público.
      4.Agir globalmente
Segundo os autores, baseados em Thomas Friedman, os próximos vinte anos da globalização ajudarão a sustentar o crescimento econômico mundial, aumentar o padrão de vida do mundo e aprofundar significativamente a interdependência global.
A nova globalização causa, e é causada, por mudanças na colaboração e na maneira como as empresas administram a capacidade de inovar e produzir coisas. Alianças globais, mercados de capital humano e comunidades de peering possibilitarão o acesso a novos mercados, ideias e tecnologias.
Por fim, uma empresa realmente global não tem fronteiras físicas ou regionais. Ela constrói ecossistemas planetários para projetas, abastecer, montar, distribuir produtos em uma escala global.
Prosperar no mundo da Wikinomics
Uma coisa que não mudou e não mudará: a organizações e sociedades vencedoras serão aquelas que utilizarão o conhecimento humano para e o transformará em aplicações novas e úteis, e cada indivíduo terá um papel a desempenhar na economia,
A nova web é a ferramenta mais robusta para suportar, facilitar, acelerar e fornecer essas rupturas criativas. Para se obter sucesso, os autores listam sete novos modelos de colaboração em massa:
Pioneiros do peering: criação de projetos
Ideágoras: mercado emergente para ideias
Prosumers: inovação criada pelo cliente
Novos alexandrinos: ciência do compartilhamento
Plataformas para participação: abertura de produtos e infra-estruturas tecnológicas
Chão de fábrica global: ecossistemas planetários para produção de bens físicos
Local de trabalho wiki: colaboração em massa
No geral, podemos utilizar a explosão do conhecimento, da colaboração e da inovação empresarial para termos uma vida bem rica e plena e estimular o crescimento econômico para todos.
Material para aprofundamento e fontes de pesquisa:
https://pt.wikipedia.org/wiki/Wikinomics
https://pt.wikipedia.org/wiki/Don_Tapscott
https://en.wikipedia.org/wiki/Anthony_D._Williams_(author)
https://ii.blog.br/tag/peering/
https://myspace.com/
https://www.youtube.com/?hl=pt&gl=BR
https://www.vivaolinux.com.br/linux/
https://www.wikipedia.org
Vídeos:
https://www.youtube.com/watch?v=AVrhLvdWQ3s
https://www.youtube.com/watch?v=jfqwHT3u1-8
1 note · View note
brunacruzposts · 7 years ago
Text
FAKE NEWS
Tudo começa há seis anos atrás, quando o então governador do Rio de Janeiro Sérgio Cabral visitava um complexo esportivo em uma comunidade e hostilizou um jovem de 16 anos. O suposto menino Sergio Sandro Sorayo cobrou melhoras significativas e mais atenção ao local e foi chamado de “otário” por Cabral.
No dia 18 de abril de 2017, o site Blasting News carregou uma notícia no qual falava que esse adolescente, agora com 22 anos, iria se tornar agente penitenciário da mesma ala em que Cabral estava preso por corrupção passiva, no Complexo Penitenciário de Bangu. Até destaca uma suposta entrevista na qual o agente diz que “tudo foi apenas uma coincidência”.
http://br.blastingnews.com/rio-de-janeiro/2017/03/menino-hostilizado-por-cabral-e-hoje-agente-penitenciario-de-sua-ala-em-bangu-001528055.html
Contudo, esse site estava mais que precipitado. As notícias falsas sobre o caso começaram a se espalhar em janeiro e, em março, jornais começaram a desmentir o fato. O Globo foi um deles, no dia 26 de março. A imagem que estava sendo veiculada era do jovem Leandro Santos de Paula, 22, e ele foi o menino hostilizado por Cabral anos antes, não esse Sandro.
O caso pôs a vida do jovem em risco já que ele mora em uma das comunidades mais perigosas do RJ, onde qualquer relação profissional com a polícia é estritamente proibida.
O Globo conversou com Leandro, que afirma que jamais pensaria em ser agente penitenciário - seu sonho é trabalhar com comunicação -, e esclareceu a história. O veículo que primeiramente botou essa “notícia” no ar foi o site de humor Joselito Muller. Seu criador, Emanuel Grilo, disse que a intenção era fazer uma sátira com o “governador que construiu seu próprio presídio”. Grilo revelou que não sabia da repercussão da história e estava disposto a assumir a responsabilidade.
Contudo, não é fácil desmentir um caso tão repercutido, e ainda há pessoas que acreditam que Leandro é o carcereiro de Cabral.
https://oglobo.globo.com/brasil/noticias-falsas-poem-vidas-em-risco-21113323
1 note · View note
brunacruzposts · 7 years ago
Text
FICHAMENTO III - O filtro invisível
(PARISER, E. O filtro bolha. Cap. 1; Pag. 1-13. PDF) 
Tumblr media
Fonte: Google Imagens
Eli Pariser é co-fundador e chefe-executivo da UpWorthy, presidente da MoveOn.org, co-fundador da Avaaz.org e autor do best-seller The Bubble Filter (O filtro bolha). É ativista político na internet e seus trabalhos mostram como o conteúdo filtrado na internet personaliza as informações que acessamos na rede.
The Bubble Filter: what the internet is hiding from you foi lançado em 2011 e explica os mecanismos de personalização de busca utilizadas nas ferramentas de busca de sites como Google, Facebook, Amazon, que filtram os os resultados de busca de acordo com as informações dos usuários, sua localização e histórico de pesquisa e navegação.
Analisaremos neste trabalho seu primeiro capítulo, A corrida pela relevância, compreendido em 13 páginas e dividido em uma introdução sob o nome do capítulo e 4 macro-tópicos.
Já começa com uma citação forte de Andrew Lewis (site MetaFilter): “Se você está pagando por alguma coisa, você não é o cliente; você é o produto à venda.” É neste enfoque que o capítulo vai se desenrolar: no quanto as suas escolhas como “cliente” vão impulsionar suas características para ser vendido. Ou seja, a partir de suas escolhas, pesquisas, buscas, as fontes que terão acesso aos seus dados tentarão te “comprar” oferecendo produtos/serviços de seu interesse.
Pariser começa com o exemplo de Nicholas Negroponte, projetista de tecnologia do MIT, que acreditava numa evolução extraordinária para a televisão, com a qual o aparelho, ou o sistema por trás dele, fosse capaz de identificar os interesses das pessoas e selecionar automaticamente a programação a partir daí. Segundo Negroponte, “os aparelhos de TV atuais permitem que controlemos o brilho, o volume e o canal. [...] Os aparelhos do futuro permitirão que escolhamos entre sexo, violência e questões políticas.”
E a ideia não se restringia apenas à TV, mas abrangia também jornais, revistas e rádio, que seriam regidos por agentes inteligentes capazes de personalizar o mundo de acordo com os interesses de seus usuários.
Foi então que Jaron Lanier, um dos criadores da realidade virtual, veio rebater essa “utopia” criada por Negroponte, defendendo que as máquinas que gerariam os conteúdos para as pessoas poderiam transformar a interação entre humanos em algo artificial e inadequada. “Um modelo de nossos interesses criado por um agente será um modelo simplificado, e nos fará enxergar uma versão simplificada do mundo através do olhos do agente.”
Na tentativa frustrada de criar esse agente inteligente, a Microsoft lançou o Bob, sistema operacional representado por um bonequinho parecido com Bill Gates, e a Apple, uma década antes do iPhone, lançou o Newton, um “assistente informático pessoal”. Os produtos fracassaram, não alcançando vendas consideráveis e sofrendo duras críticas.
Para concluir a introdução, o autor ressalta que hoje não vemos esses agente inteligentes estampados em vitrines de lojas de produtos tecnológicos ou em parte alguma. Mas isso não quer dizer que não existam. Muito pelo contrário, estão escondidos sob a superfície dos sites que visitamos, acumulando informações sobre quem somos e sobre nossos interesses.
O problema de John Irving
Jeff Bezos, criador da Amazon.com, foi um dos primeiros a perceber que usar o poder da relevância poderia render bilhões de dólares. Em 1994, ele teve a ideia de vender livros online, como “um velho pequeno livreiro que nos conhecia tão bem e dizia coisas como ‘eu sei que você gosta de John Irving, e, veja só, tenho aqui este novo autor, que é bem parecido com ele’”, disse Bezos. Para ele, a Amazon precisava ser “uma espécie de pequena empresa de inteligência artificial” movida por algoritmos capazes de estabelecer instantaneamente uma conexão entre consumidores e livros.
Foi então que Bezos começou a usar o método da filtragem colaborativa, o Tapestry, que rastreava os interesses das pessoas a partir de sua reação com diferentes tipos de produtos/serviços. Com isso, a Amazon consegue fazer recomendações instantâneas e identificar as preferências dos consumidores de acordo com suas pesquisas e/ou compras anteriores.
Indicadores de cliques
Larry Page e Sergey Brin, os fundadores do Google, estavam interessados não em vender produtos de forma eficiente, mas em se destacar em pesquisas de sites na internet. Primeiramente nomeado de PageRank, o mecanismo de busca queria incluir apenas os melhores documentos e, dentro desses melhores, haveriam milhares de outros documentos relevantes.
No início, o Google ficava “sediado” no google.stanford.edu, e Brin e Page acreditavam que a empresa não teria fins lucrativos e nem conteria propaganda. “Quanto melhor for um mecanismo de busca, menos anúncios serão necessários para que o consumidor encontre o que procura… acreditamos que a questão da publicidade gera incentivos mistos; por isso, é fundamental que exista um mecanismo de busca competitivo que seja transparente e se mantenha dentro do âmbito acadêmico”, escreveram.
No entanto, quando lançado, o tráfego de usuários cresceu exponencialmente, mostrando o melhor site de buscas da internet. Pouco tempo depois, os jovens criadores não resistiram à tentação de transformar seu produto num negócio.
Brin e Page não estavam interessados apenas em saber quais páginas tinham links para quais outras, mas em saber o nível de importância de cada página dependendo do interesse do usuário. Eles chamaram isso de indicador de clique.
Para tanto, eles investiram cada vez mais em dados, capazes de guardar tudo: cada página já pesquisada, cada clique já feito. Assim teria mais pistas e material para modificar os resultados necessários. “O mecanismo de busca ideal”, Page dizia, “entenderia exatamente o que queremos dizer e nos ofereceria exatamente o que buscamos.” Para oferecer relevância perfeita, o site precisa saber no que cada um de nós está interessado.
Para saber do que as pessoas gostavam e conhecer seu comportamento, o Google começou a oferecer outros serviços, como o Gmail, no qual os emails recebidos e enviados pelos usuários serviam de dados para os servidores, permitindo que eles “construíssem a identidade” de cada usuário. Atualmente, o Google monitora todo e qualquer sinal que consiga obter sobre nós apenas examinando o navegador que utilizamos. Além disso, nossas pesquisas revelam naturalmente traços de nossa personalidade e de nossos interesses.
Facebook por toda parte
Mark Zuckerberg foi por um caminho diferente de Brin e Page: em vez de examinar os indicadores de cliques para adivinhar o gosto das pessoas, sua ideia era simplesmente perguntar a elas. É assim que surge o Facebook, embasado no “gráfico social” - conjunto de relações de cada pessoa baseados na vida real - proposto por Zuckerberg. Assim, podemos dizer aos nossos amigos do Facebook onde estamos, o que fazemos, o que sentimos. 
O site começou somente em campi de universidades, mas o número de acessos foi tão grande que, em maio de 2005, já funcionava em mais 800 universidades. Um pouco mais tarde, em setembro, o Facebook se expandiu extraordinariamente com a criação do feed de notícias, que continha todas as atualizações de todos os amigos assim que o site fosse aberto.
Como o número de amigos era cada vez maior, ficava difícil de acompanhar todas as postagens. Como solução, criou-se o EdgeRank, que traz as principais notícias de acordo com a interação, baseada em três fatores: a) afinidade (amizade próxima); b) peso relativo de cada tipo de conteúdo (atualizações de relacionamento, por exemplo) e c) tempo (as mais recentes são classificadas como mais importantes).
A verdade é que Zuckerberg queria colocar o Facebook no centro da rede. Para tanto, criou o Facebook Everywhere, que objetivava fazer com que toda a rede se tornasse “social”, levando a personalização do site a milhões de outros não personalizados, como sites de música, restaurantes e de notícias.
No entanto, essa dependência de um site, seja ele o Facebook ou o Google, nos leva ao aprisionamento tecnológico, que nos prende a um determinado meio mesmo que outro mais moderno e melhor seja criado. Além disso, nos “obriga” a sempre estarmos conectados para fazermos parte de uma “maioria”, de um “grupo”; uma pessoa que não se conecta a esses meios parece estar sempre em grande desvantagem e excluída da interação social.
O fato é que quanto mais pessoas estiverem presas a essas ferramentas, mais fácil é de convencê-las a se conectar a suas contas. E quanto mais tempo passamos conectados, mais nossas atividades são rastreadas e transformadas em dados.
O mercado de dados
Para encerrar o capítulo, Pariser usa o exemplo da corrida para descobrir os envolvidos no ataque terrorista do World Trade Center, em 11 de setembro de 2001. Quando os nomes foram revelados ao público, o Acxiom investigou seus bancos de dados e encontrou informações sobre os terroristas. O Acxiom tinha informações interessantes sobre 11 dos 19 envolvidos no ataque, como seus endereços antigos e atuais e os nomes das pessoas com quem moravam.
Não se sabe o que continha nos documentos que o Acxiom entregou ao governo dos EUA, mas se sabe que eles têm informações sobre 96% dos domicílios americanos e de mais meio bilhão de pessoas ao redor do mundo: seus nomes, seus endereços, a frequência com que pagam seus cartões de crédito, se têm animais de estimação, se tomam remédios, etc.
É uma empresa discreta, mas presta serviços a grandes empresas dos EUA. “Pense na [Acxiom] como uma fábrica automatizada”, disse um programador a um repórter, “na qual o produto fabricado são dados.”
Através dos dados fabricados e disponibilizados na rede, sites e programas entram em ação com suas publicidades que podem ser de nosso interesse. Isso se chama “redirecionamento comportamental”.
Tudo isso significa que nosso comportamento se transformou numa mercadoria, um pedaço pequenino de um mercado que serve como plataforma para a personalização de toda a internet. E não tem como fugir disso.
Material para aprofundamento:
https://www.ted.com/talks/eli_pariser_beware_online_filter_bubbles?language=pt-br
http://flaviopavanelli.com.br/o-filtro-bolha-por-eli-pariser/
https://avaaz.org/page/po/
https://front.moveon.org/
https://www.upworthy.com/
https://pt.wikipedia.org/wiki/Eli_Pariser
https://pt.wikipedia.org/wiki/Nicholas_Negroponte
https://pt.wikipedia.org/wiki/Jaron_Lanier
https://pt.wikipedia.org/wiki/Jeff_Bezos
https://pt.wikipedia.org/wiki/Larry_Page
https://pt.wikipedia.org/wiki/Sergey_Brin
https://pt.wikipedia.org/wiki/Mark_Zuckerberg
https://www.acxiom.com/
1 note · View note
brunacruzposts · 7 years ago
Text
FICHAMENTO II - Software Livre
Jefferson Sérgio Paradello é jornalista formado pelo Centro Universitário Adventista de São Paulo (Unasp). Enquanto estudante foi repórter do Diário do Campus (2007) e editor-assistente do ABJ Notícias (2008), ambos jornais eletrônicos do curso de Comunicação Social do Unasp vinculados à Agência Brasileira de Jornalismo (ABJ).
Em 2009, assumiu as editorias de Mídia e Cultura da revista eletrônica de crítica de mídia Canal da Imprensa, na qual atuou entre 2008 e 2010. Também foi colaborador de revistas sobre educação e sistemas operacionais baseados em Linux. É membro do Grupo de Estudos em Cibercultura e Comunicação (Geccom/Unasp) e suas pesquisas estão voltadas à tecnologia no jornalismo, sociabilidade, cibercultura e crítica de mídia.
O artigo aqui analisado foi submetido ao XVI Prêmio Expocom 2009, na categoria Jornalismo, modalidade Jornalismo digital - revista digital, jornalismo online. Usando a análise do discurso, objetiva identificar como os veículos de informação tecnológica no Brasil abordam a noção de software livre, além de explanar sobre o termo, sua história, vertentes e importância no mercado.
Na introdução, Jefferson ressalta a importância dos computadores e das novas tecnologias na atualidade. Destaca sua presença nas empresas, nos órgãos governamentais e não-governamentais, nas escolas, nos lares, que usam esses recursos mesmo sem saber, como algo já naturalizado. Segundo Bolano, constituem “fator de importância crucial para as grandes transformações por que o mundo vem passando nesta de século” (2002a, pag. 62 apud PARADELLO, 2009, pag. 1).
Independentemente do lugar, o fato é que o principal sistema operacional utilizado é o Microsoft Windows, presente em 89,6% dos computadores do planeta, tendo como únicos concorrentes o Mac OS X (Apple) e o Linux. Este se enquadra no universo do software livre por ter seu conteúdo produzido por colaboradores espalhados pelo mundo e por ser distribuído de forma gratuita. Além disso, seu código-fonte está disponível para que qualquer pessoa possa modificá-lo conforme suas necessidades e interesses.
Apesar da pequena parcela no mercado, os softwares livres não deixam de incomodar os poderosos softwares proprietários que dominam o cenário. No caso do Linux, sua adoção se dá pela eficiência e segurança, além dos gastos reduzidos. Para que gastar centenas de dólares com o Microsoft Office, por exemplo, se o Open Office é uma alternativa gratuita e de ótima qualidade?
O problema de pesquisa proposto por Jefferson é como ou o quanto os veículos de comunicação especialistas na área destinam espaço em suas páginas para tratar do assunto. Para Silveira (2004, pág. 74 apud PARADELLO, 2009, pag. 3), “a grande consequência sociocultural e econômica do software livre é a aposta no compartilhamento da inteligência e do conhecimento.” Tendo noção disso, será que as empresas de tecnologia estão preocupadas com a evolução de nosso país ou apenas com o lucro gerado pelas grandes empresas detentoras do poder capitalista? E qual dessas opções os veículos de comunicação escolhem seguir e apresentar a seus leitores?
Como hipótese, Jefferson destaca que os veículos passaram a dar importância ao assunto, mas não com ampla abrangência, de forma que muito pouco foi explicado e explorado. Para alcançar seus objetivos, o autor analisa todo e qualquer conteúdo que remeta a software livre nas revistas Info, W e PC World, além do caderno de informática do jornal Folha de São Paulo, no mês de novembro de 2008. A justificativa reside em como a adoção do software livre pode  ser uma solução para a pirataria de sistemas operacionais e programas, além de democratizar a inclusão digital no país.
O método utilizado é a análise do discurso de todo material encontrado sobre o assunto nos já citados veículos. Quanto ao desenvolvimento do trabalho, é dividido em três capítulos, que explanaremos a seguir.
O primeiro, O software livre e suas vertentes, trata do surgimento desses softwares, contexto histórico, vertentes e como eles são hoje. O termo software livre foi desenvolvido por Richard Stallman, ganhando notoriedade nos anos 90. Mas já a partir dos anos 60, começaram a surgir soluções alternativas aos sistemas proprietários, como o Multics, mais tarde rebatizado de Unics por Ken Thompson e, depois, de UNIX por Brian Kernigham.
Com seu código-fonte aberto aos usuários, o UNIX foi adequado aos interesses dos novos desenvolvedores, derivando, a partir de então, os sistemas Machintosh, BSD, Solaris, Sun Microsystens e o Linux.
Em 1991, Linus Torvalds, estudante finlandês, começou a desenvolver o núcleo do Linux que hoje conhecemos, derivando de seu nome e do sistema UNIX. Mostrou-se uma solução e alternativa aos outros sistemas proprietários. Atualmente, há mais de 300 distribuições do Linux, incluindo a brasileira Kurumim, desenvolvida por Carlos E. Morimoto.
Termina o primeiro capítulo, estabelecendo a diferença entre software livre e gratuito. Nem sempre gratuito é sinônimo de livre. Apesar de que o Linux disponibiliza seu código para consulta e alteração e ainda assim é gratuito, programadores podem disponibilizar seus projetos gratuitamente, mas sem oferecer seu código-fonte.
No capítulo dois, As pedras no caminho do usuário e a pirataria, discorre sobre como a grande massa interpreta os softwares livres como difíceis de usar e com poucos recursos e, por sua ignorância no assunto, não imaginam como os programas que usualmente utilizam podem ter soluções livres e eficientes.
Como os softwares livres permitem ao usuário moldar o sistema de acordo com suas necessidades, podem causar certo receio por parte das pessoas que não conhecem programação. A solução para esse problema é as distribuições voltadas para cada tipo de usuário, seja ele doméstico ou corporativo.
A seguir, usa como exemplo o projeto do governo Lula PC para Todos, que visava expandir a informática para as classes menos favorecidas do país. Para diminuir o valor das máquinas, o sistema disponível é livre. Contudo, como a maioria das pessoas têm o Windows como base de conhecimento básico em informática, acabam por instalar uma versão pirata do sistema proprietário, já que uma cópia original tem um custo muito elevado. Se esse e outros projetos de inclusão digital fosse aprovados e devidamente sucedidos, o Brasil seria o maior usuário governamental de software livre do mundo.
Já nos órgãos governamentais, a política da liberdade tem funcionado, com administradores percebendo o poder e eficiência dos sistemas livres e a redução de gastos advindos deles, além de exercerem perfeitamente as mesmas funções que os sistemas proprietários oferecem.
No terceiro e último capítulo, analisa discursivamente materiais em veículos especializados para entender a importância dada aos sistemas livres e para constatar por quais caminhos transitam, tomando Orlandi como teórico de base.
1- Revista Info: no mês de novembro de 2008 trouxe 178 páginas de informações tecnológicas, mas em apenas seis os softwares livres foram citados de maneira indireta - nas páginas 46 e 47 (entrevista com David Heinemeier Hansson, criador do Ruby on Rails), nas páginas 82 a 84 (bateria de comparações entre notebooks) e na página 117 (curso tutorial di Ubuntu).
2- Revista W: em suas 98 páginas da edição nº 101, apenas uma referência, perdida em meio ao texto, considerou que o software livre existe.
3- Revista PC World: referiu-se ao tema em apenas duas de suas 66 páginas. O primeiro artigo buscava mostrar o que deve ser levado em conta no que diz respeito a hardware e software. O segundo, refere-se a celulares que vieram bater de frente com o iPhone, como o G1, lançado com um sistema livre desenvolvido pelo Google.
4- Caderno de Informática do jornal Folha de São Paulo: no dia 3 de novembro de 2008, faz referência ao sistema aberto de um navegador semelhante ao Chrome criado para proteger a privacidade dos usuários.
Por fim, conclui que os veículos de comunicação não oferecem espaço suficiente em suas páginas para tratar dos softwares livres, e, se aparece, é apenas como algo comum e insignificante, que não merece destaque. Alega que ainda que existam periódicos que tratam do assunto com afinco, eles são voltados para um público fechado e já conhecedor do tema. E lamenta que os sistemas proprietários ainda recebam toda a atenção e crédito, seja por motivos econômicos ou sociais.
O Brasil tem potencial para ser um país virtualmente livre, mas os reflexos do que é rodado nos computadores do mundo todo são vistos aqui, não havendo espaço para competições. Por isso, os sistemas livres precisam ser difundidos no país, oferecidos aos usuários e utilizados por eles para que enxerguem as alternativas que existem no mercado e possam construir sua própria opinião baseados em suas experiências. Para tanto, é preciso que haja pessoas capazes de lidar com eles, de defendê-los e de difundí-los.
Links para aprofundamento
Vídeo:
https://www.youtube.com/watch?v=4QxjSuPZuFY
Fontes de pesquisa:
https://www.escavador.com/sobre/4096901/jefferson-sergio-paradello
PARADELLO, Jefferson Sérgio. Software Livre: O posicionamento dos veículos de divulgação tecnológica. Intercom/Expocom. 2009. PDF
1 note · View note
brunacruzposts · 7 years ago
Text
FICHAMENTO 1 - CAUDA LONGA
Christopher Anderson, 56 anos, é um físico e escritor dos Estados Unidos, editor-chefe da revista Wired, curador das conferências TED e CEO da empresa de tecnologia de drones 3D Robotics. Chris ficou conhecido mundialmente pelo uso do termo “cauda longa”, num artigo publicado em sua revista em 2004 e que se tornou objeto de estudo de seu livro homônimo em 2006, como conceito estatístico usado para verificar distribuição de dados.
Neste trabalho, destacaremos alguns pontos importantes de A Cauda Longa (The Long Tail), analisando os capítulos 1 e 5. A ideia geral do livro percebida na leitura dos dois capítulos, é a questão de abundância de produtos e a criação de meios de consumo, como sites.
Assim começa o primeiro capítulo, tendo como exemplos os livros Tocando o vazio, de Joe Simpson, e No ar rarefeito, de Jon Krakauer. O primeiro não alcançou sucesso de vendas ao ser lançado; porém, anos depois, com a publicação do segundo, começou a vender novamente, ganhou um docudrama reconhecido e ultrapassou as vendas de No ar rarefeito. Alguns leitores mandaram resenhas para a Amazon.com, que começou a recomendar os dois livros e vendê-los em par.
O que Anderson destaca desse exemplo é que isso não acontece só em livrarias online, mas também em outros serviços, como DVD’s e músicas. Ele chama atenção para como a economia emergente do entretenimento digital, com os dados de vendas e novas tendências de serviços, será muito diferente do mercado de massa tradicional.
No segundo tema, A tirania da localidade, discorre sobre a necessidade de achar públicos locais que superem à demanda mínima de vendas para gerar o mínimo de lucro. O que causa problema nisso é o raio que os varejistas locais alcançam. Por exemplo, todo ano, a indústria cinematográfica indiana produz mais de 800 filmes de longa metragem, e cerca de 1,7 milhão de indianos vivem nos EUA; contudo, o conceituado filme Lagaan: Once upon a time in India foi exibido em apenas dois cinemas em todo o país. Ainda assim, foi um dos poucos filmes indianos que conseguiu entrar em cartaz na corrida americana do ano.
A física em si também é uma restrição do mundo físico, como as ondas de rádio e os cabos de televisão alcançam poucas emissoras e poucos canais, cuja programação, obviamente, não pode ultrapassar as 24 horas. Uma “solução” para essas limitações são os hits lançados no mundo do cinema, da indústria fonográfica e dos livros: sucessos arrebatadores que dão opções às pessoas além dos meios convencionais. Contudo, a indústria de hits também impõe limites, pois não há espaço nas prateleiras para todos os CD’s, DVD’s, livros e videogames, nem salas de cinema para todos os filmes, nem rádios para todas as músicas, ou canais de televisão para todos os programas.
Com a distribuição e varejo online, a abundância vs. a escassez, as diferenças são profundas.
Em Mercados sem fim, Anderson viaja nos mercados online, tomando como base o varejista de música streaming media Rhapsody, com mais de 1,5 milhão de faixas. Sua curva de demanda é como a de qualquer outra loja: enorme procura pelas principais faixas, que despenca abruptamente e mantém-se baixa nas faixas menos populares, como ilustrado no gráfico abaixo com as 25 mil faixas mais vendidas em dez/2005.
Tumblr media
Deixando de focar apenas no lado esquerdo do gráfico e voltando a atenção para o lado direito, se olharmos atentamente, percebemos que a faixa menos vendida não chega a zero, mas à significativa média de 250 por mês, sendo responsável por cerca de 22 milhões de downloads, quase um quarto do total da Rhapsody.
O mercado online é praticamente infinito. Além das pessoas que baixam as faixas mais vendidas, sempre há alguém que baixe as principais, as importantes e assim por diante. E assim se forma a cauda longa. Ela abrange os sucessos antigos, os esquecidos, os que não tiveram tanto êxito, mas que alguém sempre lembra que existe.
N’A maioria oculta, o autor destaca que os hits que estampam as prateleiras de lojas, lotam as salas de cinema, quebram recordes de audiência são apenas a ponta de um grande iceberg. Abaixo da linha visível, há centenas, milhares, milhões de produtos escondidos que sustentam os varejistas e diversificam a economia de fornecimento. 
No capítulo 5, Os novos produtores, Anderson ressalta a importância dos amadores na descoberta e observação de fenômenos astronômicos, como a Supernova 1987A. Eles fazem parte do programa  da NASA Pro-Am, no qual especialistas e amadores voluntários trabalham lado a lado. Além do Pro-Am, há também o SETI@home (Search for Extraterrestrial Intelligence at home), que explora a capacidade ociosa de computação de mais de meio milhão de computadores domésticos. Seus radiotelescópios coletam horas de white noise advindos do espaço e distribuem os dados para os computadores dos voluntários, na esperança de obter algum sinal produzido por inteligências alienígenas. Para participar do projeto basta baixar um software. O projeto Mars Clickworkers, em três meses, conseguiu que voluntários identificassem mais de 200 mil crateras em Marte. Para ter seu nome dado a um asteróide, basta ficar observando o espaço.
Na Democratização das ferramentas de produção, Anderson cita Marx com sua teoria sobre o processo de produção no qual o trabalho forçado, não-espontâneo e assalariado seria superado pela atividade autônoma e a produção material deixaria tempo livre para que os trabalhadores exercessem outras atividades para justificar o Pro-Am como um exemplo de democratização das ferramentas de produção. Assim também funcionam aplicativos e programas gratuitos instalados em computadores Mac e Windows, que permitem aos usuários criarem e editarem músicas e vídeos, e os blogs, que desencadearam a renascença da editoração amadora e acessível a todos.
Com essas ferramentas, deixamos de ser apenas consumidores passivos e passamos a ser produtores ativos, geralmente fazendo tudo “por amor” à coisa, advindo daí a expressão amador, cujos produtos estão disputando atenção com a grande mídia.
O próximo tópico diz respeito à [talvez] maior enciclopédia de hoje, a Wikipédia. Criada em 2001 por Jimmy Wales, tinha como objetivo construir uma grande enciclopédia online de maneira a explorar a sabedoria coletiva de milhões de especialistas e semi-especialistas amadores, pessoas comuns que se julgam conhecedoras de alguma coisa. Seria gratuita para o mundo todo e todos poderiam contribuir com seus verbetes.
E assim foi. Hoje, a Wikipedia, com mais de 3,5 milhões de verbetes,  supera enciclopédias tradicionais, como a Britannica - 80 mil - e a Encarta - 4,5 mil.
Em A era da probabilística, o autor discorre sobre como a probabilidade opera com mais força do que a certeza na Wikipédia, no Google e muitos blogs espalhados pela internet, e como essa atividade probabilística pode pôr em xeque a credibilidade dessas fontes, alimentadas e manuseadas por humanos, nem sempre especialistas, e passíveis de erros. Do mesmo modo, s��o as enciclopédias convencionais, só que nestas os erros só serão corrigidos numa próxima edição; enquanto na web eles podem ser corrigidos imediatamente.
Chris Anderson destaca, ainda, que numa pesquisa sobre o que for na internet, a “Wikipédia deve ser a primeira fonte de informação, mas não a última. Deve ser o site para exploração de informações, mas não a fonte definitiva dos fatos.” Ou seja, podemos, sem problema, usar os artigos da Wikipédia como uma das fontes de informação, mas não a principal e, muito menos, a única. É sempre válido pesquisar em outros sites com credibilidade mais sólida. O mesmo se aplica aos blogs e ao Google.
N’O poder da produção colaborativa, destaca a importância do “exército” de colaboradores espontâneos que trabalham para melhorá-la e alimentá-la como um sistema imunológico, evoluindo para sempre estar um passo à frente de ameaça. A Wikipédia não se limita às fronteiras espaciais ou de produção, mas oferece milhares e milhões de verbetes sobre os mais variados assuntos, desde os mais comuns e esperados até os mais inesperados.
N’A economia da reputação, trata obviamente da reputação de algumas empresas que querem aumentar seu poder intelectual e impor seus direitos autorais.
Em Auto-editoração sem acanhamento, começa falando de novos autores que publicam seus livros e destaca que muito menos do que é publicado vai parar nas prateleiras das livrarias e menos ainda vão ser vendidos. Sendo assim, alguns autores abrem mão do sucesso e continuam fazendo seu trabalho por amor, compartilhando sua produção com pessoas próximas e com interesses semelhantes.
Contudo, essas publicações sem fins lucrativos podem gerar dinheiro. O livro não é produto de valor em si, mas a propaganda do verdadeiro produto - o autor -, como forma de divulgar sua mensagem para o mundo. Assim, as pessoas não precisam mais procurar editoras para publicar seus livros e levá-los ao mercado. Basta colocá-los à disposição na internet e ele poderá alcançar um sucesso tão significativo quanto grandes títulos da literatura, como a saga Harry Potter.
E isso não se aplica só aos livros, mas também a músicas, vídeos (filmes, curtas, documentários), fotos, blogs e vários outros produtos.
Links para aprofundamento Vídeos:
https://www.youtube.com/watch?v=eMgXC-xfzFg&t=22s
https://www.youtube.com/watch?v=CL-2DyBza-I
Fontes de pesquisa:
http://www.laparola.com.br/chris-anderson-e-o-fenomeno-da-cauda-longa
ANDERSON, C. Cauda longa. Cap. 1;5. PDF
1 note · View note