You are browsing the archive for Inovação.

Como foi o ano de 2017 para a OKBR?

- December 29, 2017 in 2017, Dados Abertos, Destaque, Gastos Abertos, Inovação, Open Knowledge Brasil, tecnologia, transparência

Para nós, da Open Knowledge Brasil (OKBR), o ano de 2017 contou com diversas parcerias, apoios e participações em eventos, realização de projetos e campanhas de mobilização. Separamos algumas dessas ações para você conhecer. Além disso, uma boa novidade para a equipe: a jornalista Natália Mazotte, que já liderava o programa da Escola de Dados no Brasil, virou codiretora da OKBR com Ariel Kogan, nomeado em julho de 2016 como diretor-executivo da organização.

Mobilização

No início do ano, nós, da OKBR, e diversas organizações lançamos o Manifesto para Identificação Digital no Brasil. O objetivo do Manifesto é ser uma ferramenta para a sociedade se posicionar em relação à privacidade e à segurança de dados pessoais dos cidadãos; e tornar a identificação digital uma ação segura, justa e transparente. Acompanhamos um dos principais desafios na cidade de São Paulo e contribuímos na mobilização para isso. Nós e outras organizações da sociedade cobramos a transparência da Prefeitura de São Paulo em relação à área de mobilidade. O motivo: na quarta-feira, 25/01, primeiro dia do retorno aos limites maiores de velocidade nas Marginais Pinheiros e Tietê, identificamos que várias notícias sobre a queda nos acidentes de trânsito vinculados à política de redução da velocidade nas vias da cidade saíram do ar no site da Companhia de Engenharia de Tráfego (CET). Durante alguns meses, realizamos uma série de webinários chamada OKBR Webinar Series sobre conhecimento aberto pelo mundo. Contamos com a participação dos seguintes especialistas: Bart Van Leeuwen, empreendedor; Paola Villarreal, Fellow do Berkman Klein Center, programadora/data scientist; Fernanda Campagnucci, jornalista e analista de políticas públicas e Rufus Pollock, fundador da Open Knowledge International. Participamos de uma importante vitória da sociedade! Com o Movimento pela Transparência Partidária, realizamos uma mobilização contra a proposta do relator da reforma política, deputado Vicente Cândido (PT-SP), sobre doações ocultas de campanha e o resultado foi muito positivo. Envolvidos nessa causa, nós, da Open Knowledge Brasil (OKBR), e diversas organizações e movimentos participamos da iniciativa contra as doações ocultas, divulgamos e distribuímos uma nota pública. A repercussão foi grande e, como consequência, o relator anunciou a retirada das doações secretas. Participamos também, em parceria com o AppCívico, o Instituto Update, o Instituto Tecnologia e Equidade e outras organizações da sociedade civil do lançamento da carta #NãoValeTudo. A iniciativa é um esforço coletivo para discutir o que vale e o que não vale no uso da tecnologia para fins eleitorais.

Projetos

Realizamos dois ciclos do Gastos Abertos. O primeiro começou em janeiro e participaram 150 municípios. Em julho, publicamos o relatório do ciclo 1. Em agosto, iniciamos as inscrições para o segundo ciclo do jogo com uma novidade: o Guaxi, um robô que foi o assistente digital dos participantes. Ele é um esperto guaxinim desenvolvido com inovadora tecnologia chatbot – que simula uma interação humana com os usuários. Ele facilitou a jornada pela página do Gastos Abertos no Facebook. Confira o relatório parcial do ciclo 2. Nós e a Diretoria de Análise de Políticas Públicas da FGV/DAPP lançamos as edições brasileiras do Open Data Index (ODI). Ao todo, foram construídos três levantamentos para o país: Open Data Index (ODI) Brasil, no nível nacional, e ODI São Paulo e ODI Rio de Janeiro, no nível municipal. Meses depois, finalizamos a enquete “Você quer construir o Índice de Dados Abertos da sua cidade?” e o resultado foi bastante positivo: 216 pessoas mostraram interesse em fazer o levantamento de forma voluntária em seus municípios! Neste primeiro ciclo de descentralização e ampliação do ODI nos municípios brasileiros, realizamos uma experiência com um primeiro grupo: Arapiraca/AL, Belo Horizonte/MG, Bonfim/RR, Brasília/DF, Natal/RN, Porto Alegre/RS, Salvador/BA, Teresina/PI, Uberlândia/MG, Vitória/ES. Oferecemos capacitação para os líderes locais, ministrada pela equipe do Open Data Index (FGV/DAPP – OKBR), para que possam realizar o levantamento necessário para a construção do Índice. Em 2018, vamos lançar os resultados e, apresentar os relatórios com oportunidades concretas para os municípios avançarem na pauta da transparência e dos dados abertos. Lançamos o LIBRE – projeto de microfinanciamento para jornalismo – uma parceria da Open Knowledge Brasil e do Estúdio Fluxo, que contou com desenvolvimento do AppCivico. Trata-se de uma ferramenta de microfinanciamento de conteúdos que pretende aproximar veículos digitais e o público interessado em valorizar e sustentar o jornalismo e conteúdos de qualidade. Atualmente, os portais Gastrolândia, Aos Fatos, o Gênero e Número e o Vá de Bike são alguns dos veículos que estão testando a plataforma nessa fase piloto.

Eventos

Apoiamos eventos do Open Data Day em várias cidades brasileiras; o Hackathon da Saúde, iniciativa da Prefeitura de São Paulo em parceria com SENAI e AppCívico, também teve o nosso apoio; e participamos do Hack In Sampa na Câmara Municipal de São Paulo. Natália Mazotte, codiretora da OKBR, participou do AbreLatam e da ConDatos, eventos anuais que se tornaram o principal ponto de encontro sobre dados abertos na América Latina e no Caribe. É um momento de diálogo sobre o status e o impacto do tema em toda a região. Participamos também da 7ª edição do Fórum da Internet no Brasil com o workshop “Padrões abertos e acesso à informação: perspectivas e desafios dos dados abertos governamentais”. E com outras organizações, realizamos II Encontro Brasileiro de Governo Aberto. A Escola de Dados, em parceria com o Google News Lab, organizou a segunda edição da Conferência Brasileira de Jornalismo de Dados e Métodos Digitais (Coda.Br). Confira o que aconteceu no primeiro dia e no segundo dia de evento. Fomos uma das organizações parceiras do primeiro Curso de Governo Aberto para lideranças em Clima, Floresta e Agricultura. A iniciativa foi do Imaflora e apoio da Climate and Land Use Alliance (CLUA). Fomos foco na pesquisa “Fundações de código aberto como inovadoras sociais em economias emergentes: o estudo de caso no Brasil”, do Clément Bert-Erboul, especialista em sociologia econômica, e do professor Nicholas Vonortas.

E vem muito mais em 2018

Queremos te agradecer por acompanhar e participar da OKBR em 2017. Contamos com você em 2018. Além do nosso planejamento para o ano que vem, temos o desafio e a responsabilidade de contribuir, no período eleitoral, para que o Brasil avance nas agendas de transparência, abertura de dados públicos, participação democrática, integridade e luta contra a corrupção. Para que você possa acompanhar as novidades e o andamento dos nossos projetos, acesse as nossas redes: Blog, Twitter e Facebook. Um 2018 maravilhoso para todos nós! Time e Conselheiros da Open Knowledge Brasil
Flattr this!

Último dia do Coda.Br faz reflexão sobre futuro do jornalismo de dados

- November 28, 2017 in bootcamp, Conferência Brasileira de Jornalismo de Dados e Métodos Digitais, Destaque, Escola de Dados, Inovação, Jornalismo de dados, Métodos Digitais, pesquisa, tecnologia

  O segundo dia do Coda.Br deste ano (26/11) foi aberto com uma discussão urgente e necessária: a transparência e a mediação dos algoritmos. A professora Fernanda Bruno, do MediaLab da UFRJ, ressaltou que os algoritmos são moderadores da nossa experiência. Ela pontuou, porém, que, em uma ‘rede sociotécnica’, ninguém age sozinho. “Os algoritmos, por serem opacos, são pouco permeáveis quando produzem um efeito enviesado”, disse. “A pergunta que a gente lança é: como permear os algoritmos que estão mediando nossa paisagem? Como que eu posso negociar com a nossa mediação? Não basta abrir a caixa preta e ver o código.” Jennifer Stark, cofundadora da Foxling, compartilhou uma análise de dados do tempo de espera do Uber em Washington, nos EUA. O que ela descobriu foi que conseguir um carro em áreas com predominância da população afro-americana demora muito mais do que no Centro ou em regiões com mais moradores brancos. Stark discutiu, a partir disso, como os algoritmos podem causar resultados enviesados. “Não precisamos seguir cegamente as recomendações dos algoritmos da Netflix, por exemplo”, lembrou.

Colaboração cidadã

Um dos destaques da conferência, Florência Coelho, editora do La Nación Data, apresentou as experiências colaborativas que o jornal argentino lançou para análise de grande quantidade de dados. Por meio da plataforma VozData, os jornalistas conseguiram verificar as gravações do ex-procurador federal assassinado Alberto Nisman, nas quais ele acusa a ex-presidente Cristina Kirchner de acobertar o envolvimento de terroristas iranianos em um atentado. Foram 40 mil áudios analisados, organizados posteriormente em playlists no site do jornal. Essa análise foi realizada por um time de voluntários. “Os voluntários eram alunos de Jornalismo, de Direito e de Ciências Políticas. Também tinha minha mãe e minha filha. Recrutei outros voluntários pelo meu Facebook e pelo Instagram”, relembrou. “Valeu muito a pena escutar todos esses 40 mil áudios”. A plataforma também permitiu que a equipe de dados analisasse em diferentes anos os gastos do senado argentino. Para estimular a participação dos cidadãos, o La Nación Data fez rankings dos ‘times’ que mais computavam dados de gastos dos parlamentares.

Presente e futuro do jornalismo de dados

O jornalista computacional da Universidade de Columbia Jonathan Stray deu aos participantes do Coda.Br um gostinho da ferramenta Workbench, ainda em fase beta. O ambiente online combina raspagem, análise e visualização de dados. Não é preciso ter experiência em programação para montar fluxos de trabalho com atualização automática, que podem produzir gráficos publicáveis ou uma live API. Durante a oficina “Workbench: a ferramenta do jornalista computacional”, Stray usou como exemplo os dados dos tweets do presidente americano, Donald Trump, fazendo instantaneamente um gráfico da frequência das publicações do republicano. Cada módulo é construído em Python, o que quer dizer que podem ser infinitamente extensíveis. Outros objetivos da ferramenta são aumentar a transparência e facilitar o trabalho dos jornalistas, segundo Stray. “Estamos tentando trazer toda a funcionalidade do Jupyter Notebook, mas com a facilidade de uso de uma planilha de Excel”, disse. “Um dos problemas para o jornalismo de dados é que existem muitas ferramentas, mas elas não se conectam. Então, muitas ferramentas ‘morrem’.” Os próximos passos para o time que desenvolve o Workbench junto com Stray são consertar os bugs e tornar a ferramenta ainda mais fácil de usar. “Um dos nossos objetivos é tornar a programação mais fácil para jornalistas que não sabem programar muito bem.” O jornalista americano também participou da mesa de encerramento do Coda.Br, “Qual evolução? Promessas quebradas e cumpridas pelo jornalismo de dados”. Ao lado da espanhola Mar Cabra, Stray listou os desafios que a prática enfrenta atualmente. Entre eles, está a contextualização correta dos dados. Nesse sentido, ele é crítico ao Wikileaks, que não fez uma boa mediação do conteúdo oferecido.“O Wikileaks é o ex-namorado da internet”, brincou Stray. Ele pontuou ainda que, apesar de vários problemas, o Wikileaks merece crédito por ter sido pioneiro em vazamentos. Cabra, que liderou a equipe de investigação do Panama Papers, acredita que os documentos obtidos pelo International Consortium of Investigative Journalists (ICIJ) perderão, em breve, o posto de maior vazamento de dados da história do jornalismo. Para ela, a quantidade de informações vazadas será cada vez maior. No entanto, ela ressaltou que é preciso ter uma perspectiva maior sobre vazamentos, de modo que as reportagens publicadas em diferentes ocasiões possam ser conectadas. “Estamos jogando bingo no jornalismo de dados”, disse, reforçando a necessidade de pensar além.

Cuidado com pesquisas eleitorais

O jornalismo usa com frequência as pesquisas eleitorais. Para esmiuçá-las, a CEO do Ibope, Márcia Cavallari, explicou alguns pontos importantes da produção delas. Márcia alertou, por exemplo, para o perigo de se olhar uma pesquisa específica sem compará-la com outras que saíram. Uma pesquisa sozinha não diz nada, segundo a CEO. Ela também se debruçou sobre o problema de credibilidade que os institutos têm enfrentado em todo o mundo. Não são poucos os candidatos que, a exemplo de Donald Trump nos Estados Unidos, surpreenderam as previsões. “As pessoas estão decidindo cada vez mais tarde”, apontou.

Apresentando bem os dados

O editor de infografia da Gazeta do Povo, Guilherme Storck, ensinou algumas formas práticas de elaborar infográficos e mapas. Por meio da ferramenta gratuita Tableau, Storck elaborou formatos diferentes e interessantes de visualização de dados – mostrando como cada um funciona de acordo com a informação que se quer passar. No workshop “#sexysemservulgar: Como tornar sua história de dados atraente”, a repórter da BBC Brasil Amanda Rossi compartilhou vários exemplos de matérias que conseguem aliar dados com boas histórias. “Hoje em dia nós competimos pela atenção das pessoas. E quando conseguimos que a pessoa clique no conteúdo, precisamos que elas leiam e entendam”, indicou. “Temos que ter essa constante busca para que a informação que vamos apresentar seja interessante, relevante o suficiente para contarmos as informações humanas que os dados destacam.”

Outros momentos

O Coda.Br também teve as jam sessions, idealizadas para dar espaço aos participantes para discutirem temas que envolvem o jornalismo de dados. Os temas foram:
  • Modelos de negócio com dados em pesquisa e jornalismo
  • Dados para análises de políticas públicas
  • Alfabetização em dados
  • Dados e fact-checking
  • Dados e vieses
  • Precisa saber programar?
Além disso, o evento contou com as seguintes palestras e workshops:
  • Algoritmos e robôs: aplicações e limites para o jornalismo ( com Jennifer Stark, Fernanda Bruno e Daniela Silva – moderadora)
  • Datastudio: seu ateliê virtual para visualizações interativas e colaborativas (com Marco Túlio Pires)
  • #sexysemservulgar: Como tornar sua história de dados atraente (com Amanda Rossi)
  • Visualizações interativas com D3 (com Thomaz Rezende)
  • Destrinchando as pesquisas eleitorais para analisar seus resultados sem errar (com Márcia Cavallari)
  • Desvendando fake news com o Lemonade (com Wagner Meira)
  • Desvendando os dados do IBGE (com Paulo Jannuzzi)
  • ctrl+c/ctrl+v nunca mais: raspando dados com Google Sheets e outras ferramentas (com Marco Túlio Pires)
  • Explorando dados de mobilidade urbana em R (com Haydee Svab)
  • Workbench: a ferramenta do jornalista computacional (com Jonathan Stray)
  • 60 ferramentas para trabalhar com dados em 90 minutos (com Natália Mazotte)
  • Dados inconsistentes? Expressão regular neles! (com Álvaro Justen)
  • Visualizando relações e comunidades com Gephi (com Fabio Malini)
  • Geojornalismo no hardnews: como virar visualização em mapas rapidamente usando o My Maps (com Marco Túlio Pires)
  • Visualização de dados: o básico, o rápido e o prático (com Guilherme Storck)
  • Como estruturar bases de dados de forma colaborativa (com Florência Coelho)
  • Introdução à linha de comando (com Álvaro Justen)
  • Monitoramento (Social Listening) para Jornalismo e Ciências Sociais (com Débora Zanini)
  • Lidando com dados públicos em Python (com Fernando Masaroni)
  • Data Wrangling em R (com Guilherme Jardim)
  • Qual revolução? Promessas quebradas e cumpridas pelo jornalismo de dados (com Jonathan Stray,  Mar Cabra e Rosental Calmon Alves (moderador).
Sobre o Coda.Br O Coda.Br — realizado pela Escola de Dados, em parceria com o Google News Lab — é o primeiro evento do Brasil focado em jornalismo de dados e reúne os melhores profissionais do mercado para trocar ensinamentos e experiências sobre a área. A conferência conta com a parceria da FAAP e apoio da Abraji, La Nación Data, Knight Center for Journalism in the Americas e Python Software Foundation.
Flattr this!

O que faremos com os 40 trilhões de gigabytes de dados disponíveis em 2020?

- September 29, 2017 in Big Data, Dados Abertos, Inovação

Foto de um homem negro segurando um celular nas mãos. Ele é negro, usa óculos e tem a cabeça raspada.

Pessoa segura e olha para um celular. Foto: Pixabay / Creative Commons CC0.

Por Thiago Ávila* Com o crescimento da web e o uso massivo de tecnologias da informação, a quantidade de dados gerados e disponibilizados tem crescido exponencialmente. Neste contexto, é estabelecido um ciclo virtuoso de oferta e demanda, pois o aumento da necessidade de dados e informações impulsiona o desenvolvimento das Tecnologias da Informação e da Comunicação (TICs) e consequentemente, a evolução da capacidade e do volume de ferramentas tecnológicas viabilizou este crescimento expressivo da produção de dados e informações. Cumpre destacar que na atual dinâmica mundial, essa demanda por informações passa a se diversificar, seja pela sua rapidez na sua atualização, na sua distribuição geográfica ou ainda, em áreas do conhecimento que ainda apresentem carências na produção de informações a seu respeito. Este tema passa a ganhar maior relevância quando se é observado os prognósticos referentes ao volume de dados que serão produzidos nas próximas décadas. O estudo “A Universe of Opportunities and Challenges”, desenvolvido pela consultoria EMC [1], aponta que de 2006 a 2010, o volume de dados digitais gerados cresceu de 166 Exabytes para 988 Exabytes. Conforme a figura 1, existe a perspectiva que o volume de dados alcance a casa dos 40.000 Exabytes, ou 40 Zettabytes (ou 40 trilhões de Gigabytes).

Figura 1 – Estimativa de crescimento do volume de dados digitais de 2010 a 2020 [2].

Este mesmo estudo apresenta outros dados relevantes. Até 2020, a perspectiva que o volume de investimentos no ecossistema digital cresça em 40% em todo o mundo e, no mesmo período, o custo do investimento por gigabyte entre 2012 e 2020 deve cair de $ 2,00 para $0,20. Ademais, a tendência é de forte descentralização da economia digital no mundo, onde os países emergentes devem responder por 62% do market share. E o que poderemos fazer com toda essa oferta de dados que não param de crescer? Um importante estudo da consultoria McKinsey, denominado “Big Data: The Next Frontier For Innovation, Competition And Productivity”[2] aponta diversos potenciais para o uso massivo de grandes volumes dados na economia global, atualmente conhecido como Big Data. Segundo o estudo, existem cinco grandes maneiras em que usando dados grandes podem criar valor. Primeiro, o Big Data pode ajudar a descobrir um valor significativo nas bases de dados mediante a geração de informação transparente e utilizável em maior frequência. Em segundo lugar, as organizações poderão cada vez mais, criar e armazenar dados transacionais em formato digital, e obter informações muito mais precisas e detalhadas sobre diversas áreas, por exemplo, equilibrando seus estoques com as perspectivas de venda dos próximos meses ou semanas e com isto melhorar o seu desempenho. Em terceiro lugar, Big Data permite o aprimoramento da relação com os clientes, viabilizando uma extração e segmentação cada vez maior do perfil dos clientes de uma empresa. Em quarto lugar, análises sofisticadas pode melhorar substancialmente a tomada de decisões. E ainda, Big Data pode ser utilizado para melhorar e criar uma nova geração de produtos e serviços. Por exemplo, os fabricantes estão usando dados obtidos de sensores incorporados em produtos para criar pós-venda ofertas de serviços inovadores, como a manutenção proativa (medidas preventivas que se realizam antes de ocorrer uma falha sequer são notados). A Mckinsey prevê ainda que o Big Data poderá apoiar novas ondas de crescimento da produtividade, estimando um potencial de ampliação das margens operacionais na casa dos 60%. Ademais, o estudo prevê que o Big Data se tornará um dos diferenciais para o crescimento das empresas e diferenciação junto à concorrência. Diante de tais fatos, as empresas estão considerando o uso de grandes bases de dados cada vez mais a sério. No campo governamental, especialmente em estudos sobre dados abertos governamentais, como o guia para abertura de dados do Chile[3], outros benefícios da oferta de dados são identificados como:
  • Melhorar a eficiência da gestão pública e a qualidade das políticas públicas;
  • Agregar valor às informações e decisões governamentais;
  • Fomentar a inovação mediante a utilização de dados abertos no desenvolvimento de aplicações e serviços inovadores;
  • Promover o crescimento econômico através de informações ofertadas de forma massiva, permanente e confiável, a ser utilizada ou transformada para a criação de novos negócios e melhoria dos serviços de governo.
Tudo bem. As perspectivas da economia digital e da oferta de dados são muito promissoras, mas existem problemas relevantes a serem considerados, como:
  • Poderá haver uma escassez de talentos necessários para que as organizações possam aproveitar o potencial do Big Data. Em 2018, somente nos Estados Unidos da América, está previsto um gap de 140 a 190 mil profissionais com habilidades para análise de grandes bases de dados diante da demanda existente, e na camada gerencial, a previsão é que o gap seja de cerca de 1,5 milhões de gestores e analistas com o know-how necessário para usar o Big Data como subsídio para a tomada de decisão eficaz; [2]
  • Algumas questões devem ser superadas para capturar o potencial do Big Data, como o estabelecimento de políticas para tratamento da privacidade, segurança da informação e propriedade intelectual, bem como a reorganização dos fluxos produtivos para incorporar este novo ativo [2];
  • Para a tomada de decisão eficaz, as empresas poderão organizar não apenas as suas informações, mas também consumir cada vez mais as informações de terceiros (como fornecedores, governo, etc.) o que vai resultar em um esforço ainda maior para a melhoria da oferta de dados considerando o caráter cada vez mais descentralizado destes recursos de dados [2];
  • No que tange a Dados Abertos Governamentais, em 2012, já existiam cerca de 115 catálogos de dados governamentais disponíveis, ofertando cerca de 710.000 conjuntos de dados [4]. Atualmente, em 2015, segundo o DataPortals.org, existem 417 catálogos de dados governamentais abertos disponíveis em todos os continentes, o que comprova a rápida ascensão e distribuição geográfica desta oferta de dados;
  • Segundo a IBM[5], 80% dos dados produzidos nas empresas são desestruturados, ou seja, requerem um esforço muito maior para ser aproveitado para subsidiar a tomada de decisão, e certamente, parte destes dados não serão úteis para tal finalidade;
  • Quanto ao potencial de uso dos dados digitais do mundo, o estudo da EMC aponta um dado preocupante: em 2012, apenas 23% da informação digital do mundo é útil para gerar novas informações e conhecimento e apoiar a tomada de decisão no âmbito do Big Data, e deste total, apenas 3% destas informações são úteis para uso imediato (os demais 20% ainda precisam ser tratados para estar aptas ao uso) [1];
  • No cenário tecnológico atual, o volume de dados aptos a serem explorados para tomada de decisão (valor analítico) deve alcançar apenas 33% do volume total de 40 Zettabytes [1].
Em resumo, nas perspectivas atuais, 67% da oferta de dados em 2020 poderão ser inúteis para reuso e apoio à construção do conhecimento e subsidiar a tomada de decisão. Essa oferta de dados estará cada vez mais distribuída ao redor do globo. Ou seja, poderemos fazer muita coisa com estes 40 trilhões de terabytes ou simplesmente NADA. Dependerá muito dos nossos esforços para melhorar a qualidade desta oferta de dados, tratando os pré-requisitos para a obtenção de valor a partir do seu uso, como descrito brevemente neste artigo. Nos próximos artigos, exploraremos questões relevantes sobre os dados na economia digital, apresentando tendências e ações que estão sendo desenvolvidas no âmbito global para melhorar a oferta de dados na web e consequentemente explorar todo o seu potencial para a melhoria da ação governamental, empresarial, acadêmica, dentre outros. Até a próxima.
Thiago Ávila é conselheiro consultivo da Open Knowledge Brasil. * Estes artigos contam são oriundos de pesquisas científicas desenvolvidas no Núcleo de Excelência em Tecnologias Sociais (NEES), do Instituto de Computação da Universidade Federal de Alagoas (UFAL) e contam com a contribuição direta dos pesquisadores Dr. Ig Ibert Bittencourt (UFAL), Dr. Seiji Isotani (USP), e Armando Barbosa, Danila Oliveira, Judson Bandeira, Thiago Ávila e Williams Alcântara (UFAL). [1] Gantz, John and Reinsel. (2012). David. The Digital Universe In 2020: Big Data, Bigger Digital Shadows, and Biggest Growth in the Far East. EMC Corporation. Acesso em: jul. 2015. Disponível em: http://www.emc.com/collateral/analyst-reports/idc-the-digital-universe-in-2020.pdf [2] Manyika, James; Chui, Michael; Brown, Brad; Bughin, Jacques; Dobbs, Richard; Roxburgh, Charles & Byers, Angela Hung. (2011). Big data: The Next Frontier For Innovation, Competition, And Productivity. McKinsey Global Institute. Disponível em: http://www.mckinsey.com/insights/business_technology/big_data_the_next_frontier_for_innovation. Acesso em: jul. 2015 [3] Norma Técnica para Publicación de Datos Abiertos en Chile (2013). Gobierno de Chile. Unidad de Modernización y Gobierno Digital. Disponível em: http://instituciones.gobiernoabierto.cl/NormaTecnicaPublicacionDatosChile_v2-1.pdf. Acesso em: maio. 2015. [4] Hendler, James and Holm, Jeanne and Musialek, Chris and Thomas, George. (2012). US Government Linked Open Data: Semantic.data.gov. IEEE Intelligent Systems, p. 25-31, vol. 27. doi: 10.1109/MIS.2012.27. [5] IBM. (n.d).Apply New Analytics Tools To Reveal New Opportunities. IBM. Acesso em: jul. 2015. Disponível em: http://www.ibm.com/smarterplanet/us/en/business_analytics/article/it_business_intelligence.html Texto publicado no site Thiago Ávila. Ele faz parte da série de artigos Dados abertos conectados.
Flattr this!

Comunidade – A resposta para inovação?

- April 1, 2015 in abrelatam, américa latina, community, comunidade, condatos, Dados Abertos, Destaque, Inovação

_MG_4699Post originalmente publicado no blog Open Data Innovation em 23 de março. Comunidade. Community. Essa palavra continua aparecendo em todas as nossas entrevistas. Mas o que comunidade realmente significa? Qual é a conexão entre comunidades e inovação? Consultando o dicionário, alguém vai encontrar pelo menos dez diferentes definições para a palavra comunidade. No caso de dados governamentais abertos, esta definição pode se aplicar: “A condição de compartilhar ou ter certas atitudes e interesses em comum.” Todas as pessoas com quem falamos têm um interesse em comum óbvio: dados abertos. Em todo caso, durante nossa pesquisa, nós encontramos diferentes envolvidos (stakeholders) nessa comunidade que também acreditam em transformação social e veem dados governamentais abertos como uma ferramenta e não uma condição para esta mudança. Em todos os países – Chile, Argentina e Uruguai – encontramos pessoas que acreditam que podem fazer a sociedade avançar contribuindo com ela. Ainda assim, quando pensamos na América Latina, não podemos deixar de considerar o contexto geográfico, que sugere a aplicação de outra definição da palavra comunidade: “Uma área em particular ou lugar considerado um conjunto com seus próprios habitantes”. Percebemos que como continente, a América Latina tem um espírito comunitário único, com implicações mais amplas importantes. Primeiro, há uma rede de indivíduos e organizações próximos que cooperam entre si diariamente. Por exemplo, existe um grupo no Whatsapp que conecta membros diferentes da comunidade e tem membros de múltiplos países da América Latina. Segundo, diferente de outras regiões do planeta, a comunidade de dados abertos da América Latina fala predominantemente um idioma, o Espanhol (com a única grande exceção, o Brasil). Isso contribui para criar um ambiente mais confortável para colaboração em língua nativa, permitindo que as ideias se espalhem rápido. Terceiro, existem também conexões pessoais. A maioria dos nossos entrevistados mencionou que eles veem outros membros da rede não apenas como colegas, mas como amigos. A impressão que ficou das entrevistas é que essa rede dá suporte e permite aos diferentes membros do grupo não apenas compartilhar ideias, mas também testá-las e implementá-las fornecendo mentoria e às vezes apoio financeiro. Comunidade de Dados Abertos de Buenos Aires no ODD ’15 O que faz essa comunidade ser tão próxima? Nossa pesquisa aponta para uma iniciativa principal: AbreLATAM. AbreLATAM (uma brincadeira com a palavra abrelatas, em espanhol) é a desconferência de praticantes de dados abertos na América Latina. A ideia começou no Uruguai, onde a única ong de dados abertos local, DATA Uruguai, decidiu que eles precisavam de uma plataforma para compartilhar experiências com outros ativistas de dados abertos do continente. A ideia foi quase considerada loucura na época – levar pelo menos 100 pessoas para Montevideo para discutir dados governamentais abertos. DATA Uruguai levou a questão a alguns financiadores, que ficaram felizes em dar uma ajuda na criação do evento, mas também pediram por um evento que envolvesse governos. Isso levou à primeira conferência regional de dados abertos chamada Con Datos, que este ano acontece em seguida à AbreLATAM. A AbreLATAM é agora gerenciada por uma comunidade de organizações e foi realizada pela segunda vez em outubro de 2014 na Cidade do México pelo SOCIALTIC; O Ciudadano Inteligente em Santiago será o responsável pela terceira edição em setembro. De qualquer forma, enquanto discutir dados abertos é importante, entrevistados do Chile, Argentina e Uruguai mencionaram outro aspecto da AbreLATAM como o momento de confraternização. Não é nenhuma surpresa que bater papo e dividir experiências fora dos interesses comuns ajude a criar intimidade entre os participantes e aproximá-los como grupo. Ainda não existem melhor conexão do que o olho-no-olho. Além do mais, dada a ênfase social, talvez nós devêssemos pensar em comunidade no sentido oferecido por Rollo May, o famoso psicólogo americano: “comunicação leva à comunidade, que é compreensão, intimidade e valorização mútua.” Isso nos leva a pensar: podemos replicar AbreLATAM e o “efeito confraternização” na Europa, onde não há um idioma central e há diferentes culturas? E se essa initimidade for criada, isso ajudaria a promover inovação de um modo sem fronteiras, fortalecendo a sociedade civil no continente? É, pelo menos, um experimento a ser considerado. flattr this!