You are browsing the archive for Destaque.

OKBR e organizações se unem para combater ‘vale tudo’ nas eleições 2018

Elza Maria Albuquerque - December 12, 2017 in Carta Não Vale Tudo, Destaque, Eleições 2018, transparência

A Open Knowledge Brasil, em parceria com o AppCívico, Instituto Update e outras organizações da sociedade civil lançaram a carta #NãoValeTudo. A iniciativa é um esforço coletivo para discutir o que vale e o que não vale no uso da tecnologia para fins eleitorais. O grupo pretende buscar amparo do Tribunal Superior Eleitoral (TSE) para assegurar a aplicação de regras já existentes sobre o tema e a regulamentação de outras que aperfeiçoem o controle. Além disso, candidatos e partidos também vão ser procurados. “Nós, que assinamos esta carta, acreditamos que a tecnologia pode melhorar a democracia. Por isso, nos comprometemos a fazer um uso ético dela, seguindo os princípios desta carta nas eleições de 2018. Nossa expectativa é que esse esforço coletivo sirva para trazer a tona esse debate e influenciar a sociedade brasileira, para garantir que as eleições ocorram de forma justa, transparente e democrática”, diz trecho da carta. Assista ao vídeo da carta #NãoValeTudo:
Flattr this!

Entidades pedem mais transparência ao TSE na prestação de contas dos partidos

Elza Maria Albuquerque - December 6, 2017 in Destaque, Petição, transparência

Na segunda-feira (4/12), a Open Knowledge Brasil (OKBR) e mais outras 18 entidades entregaram uma petição ao presidente do Tribunal Superior Eleitoral (TSE), ministro Gilmar Mendes, em Brasília (DF). O principal objetivo do documento é que o TSE adote medidas de transparência na prestação de contas eleitorais e partidárias. Natália Mazotte, codiretora da Open Knowledge Brasil (OKBR), e Neide de Sordi, representante da OKBR no GT da Sociedade Civil junto à OGP, representaram a OKBR no encontro. “Hoje já temos capacidade tecnológica para que o processo de fiscalização das contas partidárias possa ter um apoio mais direto da sociedade civil. Mas precisamos primeiro que esses dados estejam disponíveis em formato aberto e de maneira detalhada”, ressaltou Natália. “É de interesse da sociedade e do próprio TSE, que tem uma alta demanda de recursos humanos para a análise dessas contas, que essas informações sejam disponibilizadas.” A solicitação de uma melhor fiscalização do financiamento público de campanha passou a ser ainda mais relevante com a recente aprovação pelo Congresso Nacional do fundo de financiamento de campanhas para 2018 da ordem de R$ 1,7 bilhão em recursos públicos. A esse valor, deve ser somado quase um R$ 1 bilhão do já existente fundo partidário. Ao todo, serão R$ 2,7 bilhões destinados aos partidos, o que exige uma fiscalização mais eficiente, segundo essas organizações. Atualmente, a prestação de contas é feita apenas uma vez por ano. Falta padronização e atualização das informações. Em 2017, o TSE criou uma força-tarefa para analisar as contas de 2012, que estão prestes a prescreverem. No último ano, houve um avanço em relação à prestação das contas dos candidatos. Esses gastos eleitorais passaram a ser informados no prazo de 72 horas. Essa é a proposta para as contas partidárias. “A OKBR, desde o início de 2017, vem colaborando com o TSE em ações para a abertura de dados. Na reunião, a parceria foi mencionada pelo Secretário Geral do TSE, Dr. Luciano Fuck, que agradeceu a colaboração até então recebida”, disse Neide.

Conheça algumas das propostas

> Padronização entre contas partidárias e eleitorais A padronização entre as prestações de contas partidárias e as eleitorais, incluindo, por exemplo, o detalhamento de todas as categorias de receitas e despesas. Publicação dos nomes das pessoas físicas e jurídicas envolvidas nas movimentações financeiras, assim como a divulgação do CPF ou do CNPJ. > Atualização Permanente atualização das contas dos partidos, como ocorre desde o ano passado com as contas eleitorais. O objetivo dessa medida é que as movimentações financeiras dos partidos sejam informadas e divulgadas o mais breve possível. > Bases de dados Todas as bases de dados relacionadas às contas partidárias e eleitorais precisam estar disponíveis, inclusive por meio da internet, para facilitar e incentivar o acesso e a consulta pela população. “De acordo com os preceitos da OGP, governos abertos e transparentes mantêm publicadas e atualizadas todas suas bases de dados que não implicam riscos objetivos à segurança individual ou coletiva”, segundo trecho da petição. Quem assinou a petição Movimento Transparência Partidária
Associação Brasileira de Jornalismo Investigativo (Abraji)
Associação Contas Abertas
Avaaz
Bancada Ativista
Fundação Cidadão Inteligente
Instituto Construção
Instituto Ethos de Empresas e Responsabilidade Social
Instituto Não Aceito Corrupção (INAC)
Instituto Update
Laboratório Brasileiro de Cultura Digital
Movimento Acredito
Movimento Agora!
Movimento de Combate à Corrupção Eleitoral (MCCE)
Movimento Quero Prévias
Open Knowledge Brasil – Rede pelo Conhecimento Livre
Rede de Ação Política pela Sustentabilidade (RAPS)
Transparência Brasil
Transparência Internacional
Com informações do G1.
Flattr this!

Pesquisa afirma que abertura de dados sobre meio ambiente são insuficientes nos órgãos federais

Elza Maria Albuquerque - December 3, 2017 in Dados Abertos, Destaque, Imaflora, Meio ambiente, pesquisa

No dia 28/11, a pesquisa “Dados abertos em clima, floresta e agricultura”, conduzida pelo Imaflora, foi divulgada no II Encontro Brasileiro de Governo Aberto. Segundo a publicação, os órgãos públicos federais ainda não respondem adequadamente ao cidadão, como previsto na Lei de Acesso à Informação e no Decreto Federal sobre o tema. A pesquisa contou com os apoios da Climate and Land Use Alliance – CLUA, da Open Knowledge Brasil e do Ceweb.Br/NIC.br. O grau de abertura de 15 bases de dados federais, a partir de 10 critérios, relacionados aos temas acima, são considerados fundamentais para compreender a dinâmica do uso do solo, do desmatamento, de emissões de gases de efeito estufa na atmosfera e, por meio das informações extraídas construir melhores políticas públicas e privadas para essas áreas. Entre os temas analisados estão: desmatamento, áreas protegidas, florestas públicas, agropecuária, transporte de madeira e trabalho análogo ao escravo. E entre os critérios de avaliação estão: a disponibilidade online, gratuita , detalhada e atualizada da informação, em diversos formatos, para permitir que os dados divulgados possam ser utilizados para a produção de novos conhecimentos a partir deles, como pesquisas, por exemplo. O problema mais recorrente foi a ausência de licenças que permitam o uso dos dados, encontrado em 71% das bases analisadas, seguido de informações incompletas (64%) e impossibilidade do usuário baixar toda a informação de uma única vez (57%). “A falta de dados disponíveis em sua totalidade foi o principal problema constatado, já que não permite um olhar para o conjunto de informações e seu uso detalhado pela sociedade. Por exemplo, nos casos do Documento de Origem Florestal, Cadastro Ambiental Rural e do Crédito Rural, a abertura completa desses dados ajudaria a saber se os produtos consumidos vieram de áreas de desmatamento e se os recursos públicos foram empregados em atividades que respeitaram os recursos naturais”, diz Renato Morgado, coordenador de políticas públicas do Imaflora e que liderou esse trabalho. Para Morgado, há avanços na transparência dos dados, no Brasil, mas também há muitas falhas a serem corrigidas e aprimoradas. Por isso, conclui a pesquisa com recomendações que possam resultar em uma melhor gestão ambiental para o país e políticas mais eficientes na área. Para conferir a pesquisa, leia o material “Dados abertos em clima, floresta e agricultura” na íntegra. Com informações da IMAFLORA.
Flattr this!

Último dia do Coda.Br faz reflexão sobre futuro do jornalismo de dados

Elza Maria Albuquerque - November 28, 2017 in bootcamp, Conferência Brasileira de Jornalismo de Dados e Métodos Digitais, Destaque, Escola de Dados, Inovação, Jornalismo de dados, Métodos Digitais, pesquisa, tecnologia

  O segundo dia do Coda.Br deste ano (26/11) foi aberto com uma discussão urgente e necessária: a transparência e a mediação dos algoritmos. A professora Fernanda Bruno, do MediaLab da UFRJ, ressaltou que os algoritmos são moderadores da nossa experiência. Ela pontuou, porém, que, em uma ‘rede sociotécnica’, ninguém age sozinho. “Os algoritmos, por serem opacos, são pouco permeáveis quando produzem um efeito enviesado”, disse. “A pergunta que a gente lança é: como permear os algoritmos que estão mediando nossa paisagem? Como que eu posso negociar com a nossa mediação? Não basta abrir a caixa preta e ver o código.” Jennifer Stark, cofundadora da Foxling, compartilhou uma análise de dados do tempo de espera do Uber em Washington, nos EUA. O que ela descobriu foi que conseguir um carro em áreas com predominância da população afro-americana demora muito mais do que no Centro ou em regiões com mais moradores brancos. Stark discutiu, a partir disso, como os algoritmos podem causar resultados enviesados. “Não precisamos seguir cegamente as recomendações dos algoritmos da Netflix, por exemplo”, lembrou.

Colaboração cidadã

Um dos destaques da conferência, Florência Coelho, editora do La Nación Data, apresentou as experiências colaborativas que o jornal argentino lançou para análise de grande quantidade de dados. Por meio da plataforma VozData, os jornalistas conseguiram verificar as gravações do ex-procurador federal assassinado Alberto Nisman, nas quais ele acusa a ex-presidente Cristina Kirchner de acobertar o envolvimento de terroristas iranianos em um atentado. Foram 40 mil áudios analisados, organizados posteriormente em playlists no site do jornal. Essa análise foi realizada por um time de voluntários. “Os voluntários eram alunos de Jornalismo, de Direito e de Ciências Políticas. Também tinha minha mãe e minha filha. Recrutei outros voluntários pelo meu Facebook e pelo Instagram”, relembrou. “Valeu muito a pena escutar todos esses 40 mil áudios”. A plataforma também permitiu que a equipe de dados analisasse em diferentes anos os gastos do senado argentino. Para estimular a participação dos cidadãos, o La Nación Data fez rankings dos ‘times’ que mais computavam dados de gastos dos parlamentares.

Presente e futuro do jornalismo de dados

O jornalista computacional da Universidade de Columbia Jonathan Stray deu aos participantes do Coda.Br um gostinho da ferramenta Workbench, ainda em fase beta. O ambiente online combina raspagem, análise e visualização de dados. Não é preciso ter experiência em programação para montar fluxos de trabalho com atualização automática, que podem produzir gráficos publicáveis ou uma live API. Durante a oficina “Workbench: a ferramenta do jornalista computacional”, Stray usou como exemplo os dados dos tweets do presidente americano, Donald Trump, fazendo instantaneamente um gráfico da frequência das publicações do republicano. Cada módulo é construído em Python, o que quer dizer que podem ser infinitamente extensíveis. Outros objetivos da ferramenta são aumentar a transparência e facilitar o trabalho dos jornalistas, segundo Stray. “Estamos tentando trazer toda a funcionalidade do Jupyter Notebook, mas com a facilidade de uso de uma planilha de Excel”, disse. “Um dos problemas para o jornalismo de dados é que existem muitas ferramentas, mas elas não se conectam. Então, muitas ferramentas ‘morrem’.” Os próximos passos para o time que desenvolve o Workbench junto com Stray são consertar os bugs e tornar a ferramenta ainda mais fácil de usar. “Um dos nossos objetivos é tornar a programação mais fácil para jornalistas que não sabem programar muito bem.” O jornalista americano também participou da mesa de encerramento do Coda.Br, “Qual evolução? Promessas quebradas e cumpridas pelo jornalismo de dados”. Ao lado da espanhola Mar Cabra, Stray listou os desafios que a prática enfrenta atualmente. Entre eles, está a contextualização correta dos dados. Nesse sentido, ele é crítico ao Wikileaks, que não fez uma boa mediação do conteúdo oferecido.“O Wikileaks é o ex-namorado da internet”, brincou Stray. Ele pontuou ainda que, apesar de vários problemas, o Wikileaks merece crédito por ter sido pioneiro em vazamentos. Cabra, que liderou a equipe de investigação do Panama Papers, acredita que os documentos obtidos pelo International Consortium of Investigative Journalists (ICIJ) perderão, em breve, o posto de maior vazamento de dados da história do jornalismo. Para ela, a quantidade de informações vazadas será cada vez maior. No entanto, ela ressaltou que é preciso ter uma perspectiva maior sobre vazamentos, de modo que as reportagens publicadas em diferentes ocasiões possam ser conectadas. “Estamos jogando bingo no jornalismo de dados”, disse, reforçando a necessidade de pensar além.

Cuidado com pesquisas eleitorais

O jornalismo usa com frequência as pesquisas eleitorais. Para esmiuçá-las, a CEO do Ibope, Márcia Cavallari, explicou alguns pontos importantes da produção delas. Márcia alertou, por exemplo, para o perigo de se olhar uma pesquisa específica sem compará-la com outras que saíram. Uma pesquisa sozinha não diz nada, segundo a CEO. Ela também se debruçou sobre o problema de credibilidade que os institutos têm enfrentado em todo o mundo. Não são poucos os candidatos que, a exemplo de Donald Trump nos Estados Unidos, surpreenderam as previsões. “As pessoas estão decidindo cada vez mais tarde”, apontou.

Apresentando bem os dados

O editor de infografia da Gazeta do Povo, Guilherme Storck, ensinou algumas formas práticas de elaborar infográficos e mapas. Por meio da ferramenta gratuita Tableau, Storck elaborou formatos diferentes e interessantes de visualização de dados – mostrando como cada um funciona de acordo com a informação que se quer passar. No workshop “#sexysemservulgar: Como tornar sua história de dados atraente”, a repórter da BBC Brasil Amanda Rossi compartilhou vários exemplos de matérias que conseguem aliar dados com boas histórias. “Hoje em dia nós competimos pela atenção das pessoas. E quando conseguimos que a pessoa clique no conteúdo, precisamos que elas leiam e entendam”, indicou. “Temos que ter essa constante busca para que a informação que vamos apresentar seja interessante, relevante o suficiente para contarmos as informações humanas que os dados destacam.”

Outros momentos

O Coda.Br também teve as jam sessions, idealizadas para dar espaço aos participantes para discutirem temas que envolvem o jornalismo de dados. Os temas foram:
  • Modelos de negócio com dados em pesquisa e jornalismo
  • Dados para análises de políticas públicas
  • Alfabetização em dados
  • Dados e fact-checking
  • Dados e vieses
  • Precisa saber programar?
Além disso, o evento contou com as seguintes palestras e workshops:
  • Algoritmos e robôs: aplicações e limites para o jornalismo ( com Jennifer Stark, Fernanda Bruno e Daniela Silva – moderadora)
  • Datastudio: seu ateliê virtual para visualizações interativas e colaborativas (com Marco Túlio Pires)
  • #sexysemservulgar: Como tornar sua história de dados atraente (com Amanda Rossi)
  • Visualizações interativas com D3 (com Thomaz Rezende)
  • Destrinchando as pesquisas eleitorais para analisar seus resultados sem errar (com Márcia Cavallari)
  • Desvendando fake news com o Lemonade (com Wagner Meira)
  • Desvendando os dados do IBGE (com Paulo Jannuzzi)
  • ctrl+c/ctrl+v nunca mais: raspando dados com Google Sheets e outras ferramentas (com Marco Túlio Pires)
  • Explorando dados de mobilidade urbana em R (com Haydee Svab)
  • Workbench: a ferramenta do jornalista computacional (com Jonathan Stray)
  • 60 ferramentas para trabalhar com dados em 90 minutos (com Natália Mazotte)
  • Dados inconsistentes? Expressão regular neles! (com Álvaro Justen)
  • Visualizando relações e comunidades com Gephi (com Fabio Malini)
  • Geojornalismo no hardnews: como virar visualização em mapas rapidamente usando o My Maps (com Marco Túlio Pires)
  • Visualização de dados: o básico, o rápido e o prático (com Guilherme Storck)
  • Como estruturar bases de dados de forma colaborativa (com Florência Coelho)
  • Introdução à linha de comando (com Álvaro Justen)
  • Monitoramento (Social Listening) para Jornalismo e Ciências Sociais (com Débora Zanini)
  • Lidando com dados públicos em Python (com Fernando Masaroni)
  • Data Wrangling em R (com Guilherme Jardim)
  • Qual revolução? Promessas quebradas e cumpridas pelo jornalismo de dados (com Jonathan Stray,  Mar Cabra e Rosental Calmon Alves (moderador).
Sobre o Coda.Br O Coda.Br — realizado pela Escola de Dados, em parceria com o Google News Lab — é o primeiro evento do Brasil focado em jornalismo de dados e reúne os melhores profissionais do mercado para trocar ensinamentos e experiências sobre a área. A conferência conta com a parceria da FAAP e apoio da Abraji, La Nación Data, Knight Center for Journalism in the Americas e Python Software Foundation.
Flattr this!

Primeiro dia do Coda.Br começa com discussão sobre eleições de 2018

Elza Maria Albuquerque - November 26, 2017 in Comunicação, Destaque, Escola de Dados, jornalismo, Jornalismo de dados

Com o auditório lotado, o Coda.Br começou na manhã deste sábado (25/11) na FAAP, em São Paulo (SP), com a mesa “Jornalismo de dados a serviço do combate à desinformação nas próximas eleições”. O debate teve a participação de Florencia Coelho (La Nación Data), Fábio Malini (UFES) e José Roberto Toledo (Estadão), com moderação de Daniel Bramatti (Estadão Dados). O Coda.Br – realizado pela Escola de Dados, em parceria com o Google News Lab – é o primeiro evento do Brasil focado em jornalismo de dados e reúne os melhores profissionais do mercado para trocar ensinamentos e experiências sobre a área. A conferência conta com a parceria da FAAP e apoio da Abraji, La Nación Data, Knight Center for Journalism in the Americas e Python Software Foundation. Na parte da manhã, os participantes tiveram a oportunidade de aprender mais sobre raspagem de dados, bibliotecas python, tratamento de dados, criptografia e análise de redes. Fernando Masanori, professor da FATEC de São José dos Campos, apresentou uma ferramenta que pode ser uma mão na roda para os jornalistas que ficam soterrados sob grandes bases de dados. É o Pandas, biblioteca de estruturação e análise de dados em Python. “É tão útil para ler microdados que parece bruxaria”, brincou o professor. “O Pandas permite ter uma visão geral que você não conseguiria vendo um pedacinho do dado. Com ele, consigo chegar a conclusões que não chegaria antes.” Masaroni garantiu que aprendeu Pandas em 10 minutos – e compartilhou um tutorial no GitHub para quem também quer usar a biblioteca. “Não precisa deixar de comer nem de dormir para aprender Pandas. É só deixar de tomar um café”, brincou. O coordenador do Google News Lab, Marco Túlio Pires, compartilhou dicas simples e complexas de pesquisa durante o workshop “Masterizando a pesquisa avançada do Google”. Entre elas, comandos específicos para facilitar a investigação de arquivos e a busca de documentos em diversos formatos. Para Luana Copini, assistente de comunicação da Rede Nossa São Paulo, o encontro foi produtivo por elucidar mecanismos de busca de diferentes níveis. “São ótimas ferramentas para o nosso dia a dia, inclusive para monitorar fake news, informações históricas.” No workshop “Com que dado eu vou?”, Tiago Mali (Abraji) apresentou aos alunos uma série de sites de transparência para investigar os dados públicos. Seja na área de saúde, com o Datasus, ou na de política, com os portais de transparência da Câmara dos Deputados e do Senado Federal. Uma seção desses portais que costuma render boas pautas, segundo Mali, é a que expõe os gastos com cota parlamentar. “O Eduardo Cunha, por exemplo, usava dinheiro público para abastecer os carros privados dele”, citou. Além dessas atividades, aconteceram 16 workshops: < ul>
  • Faxina Jedi: como usar o Google Cloud Dataprep para limpar bases de dados (Marco Túlio Pires)
  • Criptografe! Ferramentas de segurança da informação para jornalistas (Joana Varon e Amarela)
  • Toolkit essencial do lobo solitário (Juan Torres)
  • Introdução à lógica de programação (Érika Campos)
  • Análise de Redes em Mídias Sociais: começando sem erros (Tarcízio Silva)
  • Eu robô’ no “Google Sheets: transforme seu processador de planilhas num repositório e raspador de dados sem gastar um tostão (Marco Túlio Pires)
  • Mentiras, mentiras deslavadas e estatísticas (Daniel Mariani)
  • Entrevistando bases de dados para responder questões de gênero (Natália Mazzote)
  • Explorando dados de financiamento de campanha com SQL (Adriano Belisário)
  • Processamento de Linguagem Natural: aplicações em jornalismo e pesquisa (Ana Schwendler)
  • Masterizando a pesquisa avançada do Google (Marco Túlio Pires)
  • Histórias que sacamos de mapas (Daniel Bramatti)
  • Como construir transparência editorial em equipes de jornalismo de dados (Jennifer Stark)
  • Lava Data: ‘Lidando com dados sujos e mal estruturados com Open Refine (Natália Mazotte)
  • Github para jornalistas – repositório de dados e publicação de projetos (Sérgio Spagnuolo)
  • Graph Databases: Discutindo o Relacionamento dos seus Dados com Python (Nicolle Cysneiros)
    O primeiro dia da conferência acabou com as Lightning Talks, em que cada palestrante teve sete minutos para contar histórias de iniciativas inovadoras que aplicaram e ganharam destaque. A cofundadora do Nexo Jornal Renata Rizzi, por exemplo, explicou o processo de produção de alguns gráficos do site, que tem ocupado espaço importante no cenário de jornalismo de dados no país. “É preciso narrar bem o que está acontecendo, não só colocar uma observação com asterisco”, apontou.
    O Coda.Br continua no domingo (26/11). O dia começa com um tema bem específico – algoritmos e robôs – e termina propondo uma reflexão mais ampla sobre o futuro do jornalismo de dados. Acompanhe a cobertura pelo Twitter @escoladedados ou pelas hashtags #codabr e #aprendinocoda.
    Texto por: Equipe Coda.Br
  • Flattr this!

    Dados Conectados

    Elza Maria Albuquerque - November 20, 2017 in dados, Dados Abertos, Destaque, Internet, linked data, W3C

    Por Thiago Ávila* Vamos começar este artigo analisando a figura 01, extraída do site DataPortals.org [1], que mostra a ocorrência de catálogos de dados abertos no mundo:

    Figura 01 – Distribuição dos catálogos de dados abertos governamentais no mundo [1]

    Hummm … 200 catálogos na Europa, 140 na América do Norte, 22 na América do Sul, 23 na África, 21 na Ásia e 15 na Oceania. Tudo bem. E como fazer para responder algumas questões relevantes como:
    • Quais os dados disponíveis sobre ocorrência de doenças no hemisfério sul ?
    • Ou ainda, quais as ocorrências de determinado tipo de crime nestes países ?
    • Quantas escolas foram abertas desde 2008 em cada país que possua um catálogo de dados ?
    Como se tratam de catálogos de dados abertos, provavelmente, para tentar responder a pelo menos uma dessas perguntas será preciso acessar os 424 catálogos, buscar em cada um deles o dado desejado, fazer o download de cada conjunto de dado, padronizar o formato de dados, metadados, levar para uma ferramenta de extração, tratamento de carga de dados (ETL), construir uma consulta para depois ter um resultado. Muito esforço, não? E deixando a coisa um pouco mais complexa, se a licença de uso de um conjunto de dados impedir que esse dado seja cruzado com outro dado, ou ainda, se o formato disponibilizado seja proprietário ou um formato de baixa qualidade, como o PDF? Provavelmente você ficará sem responder as suas perguntas. A web que conhecemos atualmente é a web dos documentos onde são priorizados e disponibilizados páginas HTML, arquivos de diversos formatos, como planilhas, documentos de texto, mapas, coordenadas geográficas, animações, conteúdo multimídia, etc. Acontece que os dados, mesmo que estejam disponíveis em formatos abertos, para serem acessíveis primeiro é preciso encontrar o arquivo que armazena os dados, para aí sim, acessar cada dado, pois, em sua maioria são formatos não estruturados e são adequados para facilitar o acesso e leitura para humanos e não são compreensíveis por máquina [2]. Considerando situações corriqueiras como essa, o World Wide Web Consortium – W3C tem desenvolvido muitos esforços para não apenas estabelecer os padrões da internet global, mas para a oferta de dados na Web, como já apresentamos no post anterior. E como seria se pudéssemos acessar diretamente os dados disponíveis na web, mediante consultas a servidores de dados? Consultas que acessem dados de diversas origens, espalhados ao longo do mundo e ainda, obtendo não apenas os dados, mas a semântica relacionada a eles?  Buscando construir esta web dos dados que, dentre outras muitas coisas, resolvem aos problemas corriqueiros do início do artigo que ao longo destes esforços e pesquisas desenvolvidas pelo W3C, Tim Berners-Lee (ele mesmo, o mesmo cara que inventou a Web) propôs um conceito muito promissor que são os Dados Conectados, do termo em inglês, Linked Data [3]. Em definição, Linked Data se resume ao conjunto de boas práticas para a publicação de dados na web. Linked Data define princípios para a publicação e consumo dos dados e os classificam de acordo com sua disponibilidade, acesso, estruturação e conexão [2]. Assim como a web do hipertexto, a web dos dados é construída a partir de documentos na web, porém, diferentemente da web do hipertexto, onde os links são âncoras que relacionam uma página web a outra (ou a um arquivo), na web dos dados, os links são apontados para os dados que são descritos por um framework de recursos, conhecido como RDF (Resource Description Framework). Além disso, cada dado é identificado por um identificador universal – URI (Universal Resource Identifier) e ainda, podem ser acessados mediante uma linguagem de consulta que é o SPARQL (SPARQL Protocol and RDF Query Language). Para um dado ser conectado, ele precisa obedecer aos quatro princípios para publicação [4]:
    1. Use URIs para definir coisas;
    2. Use HTTP URIs para que os dados possam ser encontrados por humanos e agentes na web;
    3. Quando um dado for solicitado através de HTTP URIs, fornecer todas as informações sobre o mesmo, em um formato de dados estruturados utilizando padrões como RDF e SPARQL;
    4. Incluir links para outras fontes de dados relacionados (usando URIs) para que seja possível obter mais informações.
    A partir do conceito de Dados Conectados, algumas nações globais já estão considerando este novo paradigma e incentivando a sua produção e oferta. Países como o Reino Unido e os Estados Unidos da América já possuem uma boa oferta de dados em formato RDF nos seus catálogos de dados governamentais. Além disso, grandes projetos em escala global tem crescido a cada ano, como a DBPedia[5], que é a base de dados conectada a partir da Wikipedia ou a LODSpringer[6], que visa ofertar dados conectados sobre artigos, periódicos e conferências científicas editorados pela Springer. Enfim, sobre o Reino Unido já é possível responder a terceira pergunta do início deste artigo “Quantas escolas foram abertas desde 2008 em cada país que possua um catálogo de dados ?”. Basta executar a seguinte consulta SPARQL abaixo: PREFIX sch-ont: <http://education.data.gov.uk/ontology/school#> PREFIX xsd: <http://www.w3.org/2001/XMLSchema#> SELECT ?school ?name ?date ?easting ?northing WHERE { ?school a sch-ont:School; sch-ont:establishmentName ?name; sch-ont:openDate ?date ; sch-ont:easting ?easting ; sch-ont:northing ?northing . FILTER (?date > “2008-01-01″^^xsd:date && ?date < “2009-01-01″^^xsd:date) } Nos próximos artigos, continuaremos apresentando o potencial, casos de uso, vantagens, limitações e muito mais sobre o universo dos Dados Conectados. Até a próxima!!!
    • Thiago Ávila é conselheiro consultivo da Open Knowledge Brasil.
    •  Estes artigos são oriundos de pesquisas científicas desenvolvidas no Núcleo de Excelência em Tecnologias Sociais (NEES), do Instituto de Computação da Universidade Federal de Alagoas (UFAL) e contam com a contribuição direta dos pesquisadores Dr. Ig Ibert Bittencourt (UFAL), Dr. Seiji Isotani (USP), e Armando Barbosa, Danila Oliveira, Judson Bandeira, Thiago Ávila e Williams Alcântara (UFAL).
    [1] DataPortals. (2015). A Comprehensive List of Open Data Portals from Around the World. Open Knowledge Foundation. Acesso em: jul. 2015. Disponível em: http://www.dataportals.org [2] Bandeira, Judson; Alcantara; Williams;  Barbosa, Armando; Ávila, Thiago; Oliveira, Danila; Bittencourt, I. & Isotani, S. (2014). Dados Abertos Conectados. Jornada de Atualização em Tecnologia da Informação. Anais do III Simpósio Brasileiro de Tecnologia da Informação – SBTI 2014. [3]Berners-Lee, Tim (2006). Linked Data. W3C. Acesso em: jul. 2015. Disponível em: http://www.w3.org/DesignIssues/LinkedData.html [4] Bizer, Christian; Hheath, Tom; Berners-Lee, Tim (2009). Linked data – the story so far. International Journal On Semantic Web And Information Systems, v. 5, n. 3, p. 1-22. [5] DBPedia – http://www.dbpedia.org [6] Springer Linked Open Data – http://lod.springer.com Texto publicado no site Thiago Ávila. Ele faz parte da série de artigos Dados abertos conectados. Flattr this!

    OKBR participa do Encontro Regional das Américas da Parceria de Governo Aberto

    Elza Maria Albuquerque - November 18, 2017 in Destaque, governo aberto, Parceria de Governo Aberto

    No dia 22 de novembro (quarta-feira), às 11h50, Ariel Kogan, codiretor da Open Knowledge Brasil, vai participar do Encontro Regional das Américas da Parceria Aberta do Governo que acontece nos dias 21 e 22 de novembro, em Buenos Aires, Argentina. O evento faz parte da Semana Aberta do Governo (20 a 24 de novembro). Ariel vai falar no painel “Abertura de processos eleitorais” com Pablo Secchi, diretor-executivo da Fundación Poder Ciudadano (moderador); Manuel Arís, Sub Director de Incidencia, Espaço Público; Lara Goyburu, do Centro de Implementação de Políticas Públicas para a Equidade e o Crescimento (CIPPEC); Andrés Vázquez, Diretor de Sistemas de Informação do Município de Córdova. “O principal objetivo é trocar experiências com outros atores relevantes da região sobre a importância da transparência em processos eleitorais, principalmente experiências e boas práticas que já estejam sendo implementadas nos diversos países da América Latina. Entendemos que a transparência no processo de doações e prestação de contas nas campanhas é chave na luta contra a corrupção sistêmica que a grande maioria dos países da região e muitas vezes começa e se estrutura no processo eleitoral”, disse Ariel. A iniciativa vai contar com a presença de mais de 2 mil representantes dos governos e da sociedade civil, inovadores digitais, desenvolvedores, jornalistas e pesquisadores para compartilhar sua experiência e a agenda aberta do governo diante da atualidade. Ao todo, são 18 governos americanos participantes da Parceria de Governo Aberto, que tem o foco de garantir governos abertos por meio do avanço de políticas transparentes e participativas, cooperação de compromissos de abertura e responsabilidade pública. Com base nos princípios de cooperação e participação que são fundamentais para a Parceria, o Encontro Regional busca garantir que os participantes da reunião compartilhem ideias para projetar uma agenda que reflita os interesses e as prioridades da comunidade governamental aberta regional.
    Flattr this!

    Últimas vagas para a Conferência de Jornalismo de Dados e Métodos Digitais

    Elza Maria Albuquerque - November 10, 2017 in Coda.Br, Destaque, Jornalismo de dados

      A hora é agora para quem quiser participar da segunda edição da Conferência Brasileira de Jornalismo de Dados e Métodos Digitais (Coda.Br). Ainda há vagas para o evento que vai acontecer nos dias 25 e 26 de novembro, no campus da FAAP, em São Paulo (SP). O encontro é o primeiro do Brasil com foco em jornalismo de dados. O objetivo é reunir os melhores profissionais do mercado para trocar ensinamentos e experiências sobre a área. A conferência conta com o apoio da Abraji, do La Nación Data, do Knight Center for Journalism in the Americas e da Python Software Foundation. A ideia é que os participantes – iniciantes ou avançados em jornalismo de dados – possam colocar a mão na massa, compartilhar conhecimento, aprender, expandir o networking, refletir e sair do evento prontos para melhorar ou tirar do papel seus projetos guiados por dados. Referências internacionais em jornalismo de dados vão participar do Coda.Br – como Mar Cabra, que liderou a equipe responsável pelos Panama Papers no ICIJ, Jonathan Stray, jornalista computacional da Universidade de Columbia com passagens pelas equipes de dados do New York Times e da ProPublica, Momi Peralta, líder do La Nación Data da Argentina, a mais premiada equipe de jornalismo de dados da América Latina, e Jennifer Stark, jornalista computacional da Universidade de Maryland, com publicações em veículos como Washington Post e Vice.

    Dinâmica do evento

    Ao todo, serão mais de 30 workshops em oito salas paralelas com treinadores especializados em habilidades e ferramentas de pesquisa e jornalismo guiado por dados. Rodas de debate com jornalistas e pesquisadores nacionais e internacionais sobre responsabilidade algorítmica, machine learning, privacidade, o futuro do jornalismo de dados, entre outros temas. O valor das inscrições é de R$ 325 para profissionais e R$ 220 para estudantes. As inscrições podem ser realizadas no site do evento.
    Flattr this!

    Últimas vagas para a Conferência de Jornalismo de Dados e Métodos Digitais

    Elza Maria Albuquerque - November 10, 2017 in Coda.Br, Destaque, Jornalismo de dados

      A hora é agora para quem quiser participar da segunda edição da Conferência Brasileira de Jornalismo de Dados e Métodos Digitais (Coda.Br). Ainda há vagas para o evento que vai acontecer nos dias 25 e 26 de novembro, no campus da FAAP, em São Paulo (SP). O encontro é o primeiro do Brasil com foco em jornalismo de dados. O objetivo é reunir os melhores profissionais do mercado para trocar ensinamentos e experiências sobre a área. A conferência conta com o apoio da Abraji, do La Nación Data, do Knight Center for Journalism in the Americas e da Python Software Foundation. A ideia é que os participantes – iniciantes ou avançados em jornalismo de dados – possam colocar a mão na massa, compartilhar conhecimento, aprender, expandir o networking, refletir e sair do evento prontos para melhorar ou tirar do papel seus projetos guiados por dados. Referências internacionais em jornalismo de dados vão participar do Coda.Br – como Mar Cabra, que liderou a equipe responsável pelos Panama Papers no ICIJ, Jonathan Stray, jornalista computacional da Universidade de Columbia com passagens pelas equipes de dados do New York Times e da ProPublica, Momi Peralta, líder do La Nación Data da Argentina, a mais premiada equipe de jornalismo de dados da América Latina, e Jennifer Stark, jornalista computacional da Universidade de Maryland, com publicações em veículos como Washington Post e Vice.

    Dinâmica do evento

    Ao todo, serão mais de 30 workshops em oito salas paralelas com treinadores especializados em habilidades e ferramentas de pesquisa e jornalismo guiado por dados. Rodas de debate com jornalistas e pesquisadores nacionais e internacionais sobre responsabilidade algorítmica, machine learning, privacidade, o futuro do jornalismo de dados, entre outros temas. O valor das inscrições é de R$ 325 para profissionais e R$ 220 para estudantes. As inscrições podem ser realizadas no site do evento.
    Flattr this!

    Por que precisamos conectar os dados publicados na Web?

    Elza Maria Albuquerque - November 10, 2017 in Dados Abertos, dados abertos governamentais, dados governamentais, Destaque, Economia digital, governo

    Por Thiago Ávila* No primeiro artigo desta série, abordamos a problemática da oferta de dados que vem crescendo exponencialmente no âmbito da economia digital, mas com qualidade e poder de reutilização muito baixo. Conforme já explorado, estes dados estão, predominantemente, em formato não estruturado – o que limita sua descrição e reutilização por outras aplicações e pessoas. Além disso, devido à baixa qualidade dos dados disponibilizados, o processo de reutilização tem sido caro [1]. Nesta direção, novas abordagens em torno dos dados foram sendo desenvolvidas ao longo dos anos e atualmente, busca-se o estabelecimento de um conceito de dado que possa ser amplamente utilizado sem restrições de uso e aplicações, de tal maneira que o ciclo de produção de conhecimento possa ser mais rico e aprimorado [2]. O conceito de dados abertos foi estabelecido neste horizonte e consistem de Dados que podem ser utilizados livremente, reutilizados e redistribuído por qualquer pessoa – sujeito apenas, no máximo, com a exigência de atribuir o compartilhamento pela mesma licença [3]. Os dados abertos permitem que pessoas e organizações utilizem informações públicas livremente para gerar aplicativos, fazer análises ou mesmo produtos comercializáveis. Para que um conjunto de dados seja considerado aberto, ele precisa permitir que o cidadão acesse com facilidade e o utilize ou redistribua sem restrições. Ademais, os dados precisam ser facilmente encontrados em um lugar indexado, sem impedimento de leitura por máquinas ou restrições legais [4]. No âmbito governamental, para conceituar o como devem ser os dados abertos governamentais foram estabelecidas três leis, ou seja, as condições para que um determinado dado governamental seja considerado como aberto [5]: – Se o dado não pode ser encontrado e indexado na Web, ele não existe; – Se não estiver aberto e disponível em formato compreensível por máquina, ele não pode ser reaproveitado; e – Se algum dispositivo legal não permitir sua replicação, ele não é útil. Complementarmente, a The Association of Computing Machinery’s publicou uma recomendação para dados governamentais, onde estabeleceu que: “Os dados publicados pelo governo deve ser em formatos e abordagens que promovam a análise e reutilização desses dados.” [6]. Desta forma, o conceito de dados abertos governamentais emergiu como uma forte referência à publicação de dados na web, criando novos canais de comunicação entre governos e seus cidadãos, onde inúmeros portais e catálogos de dados web foram desenvolvidos, em nível continental, como o da União Europeia (reunindo catálogos de 29 países), em nível nacional como o dos E.U.A., do Reino Unido e do Brasil, e ainda em nível local, como o do Estado de Alagoas, ofertando milhares de conjuntos de dados online. Tais iniciativas têm sido bastante impulsionadas em nível global, como o estabelecimento da Parceria para o Governo Aberto (Open Government Partnership) [7] que reúne cerca de 65 países (incluindo o Brasil) em torno do estabelecimento de Governos mais transparentes, participativos e que engajem a sociedade na co-criação e colaboração em torno de soluções de interesse público. Assim, o volume de dados e informações produzido, bem como a atual descentralização destas estruturas de produção impõem desafios cada vez maiores, pois a tomada de decisão precisa ser subsidiada por informações integradas, comumente decorrente do cruzamento de várias bases de dados. Neste contexto, os consumidores de dados visualizam que a oferta de dados atual vastamente espalhada pela web representa um grande inconveniente, pois existe a necessidade de primeiro obter e armazenar estes dados localmente, antes que possam ser utilizados para a produção de informações relevantes [8]. Cumpre ressaltar ainda que, mesmo que a informação do setor público esteja disponível em formato aberto, pode estar publicada de forma caótica. Ademais, a mesma informação pode ser encontrada em diferentes locais da web e ainda, sem haver nenhuma conexão entre tais fontes de informações, apresentando, por exemplo, qual é a informação mais atualizada. Diante desta situação, para que os usuários tenham confiança nos dados disponibilizados eles buscam analisar a sua procedência, dando preferência àqueles que são originários de fontes confiáveis. Por outro lado, estes dados confiáveis são naturalmente disponibilizados por fontes distribuídas, não sendo incomum a ausência de hiperlinks para informações relacionadas, ora armazenadas no mesmo repositório de dados ou não [9]. O desafio presente consiste no fornecimento de meios eficazes para acessar dados das fontes distribuídas, e ainda, estipular mecanismos por meio dos quais eles podem ser conectados e integrados [8]. Outro desafio reside na limitação dos seres humanos em processar e conectar a atual oferta de dados e informações disponíveis, considerando que a internet faz com que a riqueza do conhecimento humano esteja disponível para qualquer pessoa, em qualquer lugar. Mais um desafio reside em como classificar e efetivamente utilizar o crescente volume de informação disponível para a obtenção das respostas necessárias. Uma iniciativa interessante na direção desse desafio foi à proposição, por Tim Berners-Lee de uma escala de maturidade dos dados, conhecida como Esquema das 5 Estrelas dos Dados Abertos[10]. Esta escala foi estabelecida quando da definição do conceito de Dados Conectados, conforme abaixo [2]: 1-Estrela: O dado está disponível na web, em qualquer formato (pdf, png, jpeg); 2-Estrelas: O dado está disponível como sendo legível por máquina e estruturado (uma planilha do Excel); 3-Estrelas: O dado está disponível num formato não-proprietário (uma planilha CSV). 4-Estrelas: O dado é publicado usando os padrões de dados abertos do World Wide Web Consortium, como o (RDF e SPARQL) e possui identificadores universais (URIS); 5-Estrelas: Todos os itens acima se aplicam, além de links para dados de fontes diferentes e utilização de semântica, ou seja, o dado é enriquecido e conectado com outros dados.

    Figura 01 – Esquema de maturidade 5 Estrelas dos Dados Abertos [11]

    Além dos novos conceitos estabelecidos, desta importante escala de maturidade, do conjunto de esforços que vem sendo desenvolvidos pelo W3C, há uma grande intenção em aprimorar a oferta de dados gerados pela economia digital, afinal, os dados estão bem espalhados em sistemas e catálogos de dados mundo afora e, relembrando o primeiro artigo desta série, 67% da oferta de dados em 2020 poderão ser inúteis para reuso e apoio a construção do conhecimento e subsidiar a tomada de decisão e esta oferta de dados estará cada vez mais distribuída ao redor do globo. Precisamos ou não pensar em como melhorar esta oferta de dados e conectando-a e enriquecendo-a efetivamente? No próximo artigo desta série, apresentaremos uma das perspectivas em desenvolvimento para a melhoria de dados na Web, que são os “Dados Conectados” apresentaremos este conceito e ao longo dos próximos posts, seu potencial, casos e uso, vantagens e limitações. Até a próxima!!!
    • Thiago Ávila é conselheiro consultivo da Open Knowledge Brasil.
    • Estes artigos são oriundos de pesquisas científicas desenvolvidas no Núcleo de Excelência em Tecnologias Sociais (NEES), do Instituto de Computação da Universidade Federal de Alagoas (UFAL) e contam com a contribuição direta dos pesquisadores Dr. Ig Ibert Bittencourt (UFAL), Dr. Seiji Isotani (USP), e Armando Barbosa, Danila Oliveira, Judson Bandeira, Thiago Ávila e Williams Alcântara (UFAL).
    [1] Alcantara, Williams; Bandeira, Judson; Barbosa, Armando; Lima, André; Ávila, Thiago; Bittencourt, Ig & Isotani, Seiji. (2015). Desafios no uso de Dados Abertos Conectados na Educação Brasileira. Anais do DesafiE – 4º Workshop de Desafios da Computação Aplicada à Educação. CSBC 2015. Recife: Sociedade Brasileira de Computação. [2] Bandeira, Judson; Alcantara; Williams;  Barbosa, Armando; Ávila, Thiago; Oliveira, Danila; Bittencourt, I. & Isotani, S. (2014). Dados Abertos Conectados. Jornada de Atualização em Tecnologia da Informação. Anais do III Simpósio Brasileiro de Tecnologia da Informação – SBTI 2014. [3] OKFN. Open Data HandBook. Why Open Data ?. Open Knowledge Foundation. Disponível em: http://opendatahandbook.org/guide/en/why-open-data/. Acesso em: jul. 2015 [4] Neves. Otávio Moreira de Castro. Evolução Das Políticas De Governo Aberto No Brasil. Anais do VI Congresso Brasileiro de Gestão Pública – CONSAD. Brasília, Brasil. 2013. Acesso em out. 2014. Disponível em: http://consadnacional.org.br/wp-content/uploads/2013/05/092-EVOLU%C3%87%C3%83O-DAS-POL%C3%8DTICAS-DE-GOVERNO-ABERTO-NO-BRASIL.pdf [5] Eaves, David. (2009). The Three Laws of Open Government Data.  Disponível em Eaves.ca: http://eaves.ca/2009/09/30/three-law-of-open-government-data. Acesso em: jul. 2015 [6] ACM. Association of Computing Machinery. ACM Recommendation On Open Government. 2009. Disponível em: http://www.acm.org/public-policy/open-government [7] OGP. Open Government Partnership. Participating Countries. 2014. Acesso em: jul. 2015. Disponível em: http://www.opengovpartnership.org/countries [8] Heath, T. (2011). Linked Data — Welcome to the Data Network. IEEE Internet Computing archive. Volume 15 Issue 6. Pages 70-73 [9] Galiotou, Eleni and Fragkou, Pavlina (2013). Applying Linked Data Technologies to Greek Open Government Data: A Case Study. Journal of Social and Behavioral Sciences, p 479-486, vol. 73; doi: 10.1016/j.sbspro.2013.02.080. [10]Berners-Lee, Tim (2006). Linked Data. W3C. Acesso em: jul. 2015. Disponível em: http://www.w3.org/DesignIssues/LinkedData.html [11] 5 STARS OPEN DATA… “5 Stars Open Data”. 2012. Acessado em set. 2014. Disponível em: http://5stardata.info/ Texto publicado no site Thiago Ávila. Ele faz parte da série de artigos Dados abertos conectados.
    Flattr this!