OKBr denuncia ao TCU barreiras de acesso à informação em órgãos federais

- February 18, 2020 in Dados Abertos, governo aberto, Open Knowledge Brasil, transparência

A Open Knowledge Brasil apresentou, na última terça-feira, 11/2, três denúncias sobre barreiras de acesso à informação em órgãos públicos federais ao Tribunal de Contas da União (TCU).  Uma das denúncias diz respeito à decisão do CNPq de não divulgar a relação de nomes dos beneficiários de bolsas de pesquisa. Em meio às discussões sobre cortes de bolsas, o órgão passou a divulgar apenas uma relação de códigos, pelos quais não é possível identificar quem são as pessoas contempladas. Para justificar a decisão, o CNPq alegou apenas “proteção de dados”, o que não se sustenta. Veja o documento na íntegra aqui Um segundo documento apresenta um problema disseminado por todos os ministérios: o uso indiscriminado dos chamados “captcha”, códigos para impedir o consumo automatizado da informação. Sem oferecer alternativa em dados abertos e sem apresentar justificativa técnica para as restrições, os órgãos acabam por impedir o acesso às informações públicas e o controle social. Leia aqui a íntegra. Por fim, a terceira denúncia é sobre o bloqueio a IPs estrangeiros, isto é, pessoas que tentam acessar informações públicas em equipamentos fora do país podem ter o acesso restrito. A medida, que  prejudica o acesso à informação por brasileiros que moram fora do país, não se justifica do ponto de vista técnico. Acesse aqui o texto da denúncia O advogado Bruno Morassutti, associado da Open Knowledge Brasil e integrante de seu conselho fiscal, explica que o TCU é responsável pelo controle externo das contas do governo federal e que a fiscalização da política de transparência faz parte desse escopo. “O tribunal tem demonstrado preocupação em estimular o acesso a informações públicas pela sociedade, pois isso torna mais eficiente seu trabalho e aprimora a percepção, pelos agentes públicos, de que a fiscalização é permanente. A iniciativa da OKBr se alinha a essa tendência do TCU de buscar atingir temas de interesse mais amplo da sociedade, numa ótica preventiva e proativa, indo além da análise de casos individuais de desvios de verbas públicas”.    Para Fernanda Campagnucci, diretora executiva da OKBr, a iniciativa reforça o papel das instituições de controle externo no cumprimento da política de acesso à informação como um todo. “As questões que apontamos sobre o captcha, por exemplo, são antigas e amplamente questionadas pelas pessoas que trabalham com controle social e tecnologias cívicas. As justificativas para mantê-los não são suficientes, então temos que pressionar para, por um lado, melhorar a acessibilidade dos sites e, por outro, aprimorar a disponibilidade de dados abertos para que não seja necessário realizar a prática de ‘raspagem’ de dados”. O TCU ainda deve analisar a admissibilidade da denúncia, isto é, decidir se vai analisar o caso. Flattr this!

Escola de Dados realiza primeiro curso de dados para advocacy

- February 18, 2020 in Escola de Dados, Open Knowledge Brasil

A Escola de Dados da Open Knowledge Brasil realizou sua primeira formação de 2020 – e também a primeira voltada para organizações da sociedade civil. Com o título “Dados e Advocacy: por onde começar?”, a capacitação, realizada em 6 de fevereiro, apresentou a mais de 40 representantes do terceiro setor a importância de incorporar o uso estratégico dos dados em suas gestões e ações. Durante a formação, os participantes puderam compreender conceitos fundamentais de uso dos dados para articular sua influência na formulação e manutenção de políticas públicas no Brasil – o advocacy, como dados abertos/big data, fluxo de trabalho com dados e o uso da Lei de Acesso à Informação. Na sequência, houve um momento “mão na massa”, com o uso da plataforma Parlametria.org e suas ferramentas, Perfil Parlamentar e Leg.go. Parte do público-alvo do Parlametria é justamente a sociedade civil, que pode utilizar os dados públicos da Câmara dos Deputados e do Senado para compreender quem são e como votam os representantes federais no Legislativo e, a partir disso, planejar suas práticas para a defesa de pautas sociais de maneira mais eficiente. Ao todo, foram 4 horas dedicadas a entender o uso de dados para advocacy e aprender uma maneira de aplicação prática do aprendizado. A Escola pretende incorporar o tema em seu cardápio de cursos regulares. Saiba mais sobre a Escola e veja como requisitar um curso sob demanda aqui. Flattr this!

Open Knowledge Brasil integrou júri do Prêmio UOL de Conteúdo

- February 18, 2020 in Open Knowledge Brasil

A diretora-executiva da Open Knowledge Brasil, Fernanda Campagnucci, integrou a Comissão Julgadora do 2º Prêmio UOL de Conteúdo, na categoria Investigação Jornalística. O Prêmio reconhece trabalhos realizados pelos profissionais e colaboradores do grupo UOL. A categoria premia reportagens produzidas com investigação jornalística, seja de dados ou de campo. A equipe vencedora foi responsável pela cobertura do caso Marielle Franco, por ter divulgado em primeira mão os principais lances do caso, além de ter retratado os personagens mais importantes e apontado as falhas do poder público na questão. Na cerimônia de entrega do Prêmio, realizada em 7 de fevereiro, Fernanda participou do Painel “Cobertura eleitoral na era da desinformação”, mediado pelo gerente geral de conteúdo Ricardo Fotios e ao lado do professor Pablo Ortellado e do jornalista Caio Túlio Costa. No painel, Fernanda falou sobre a necessidade de o jornalismo cobrar mais transparência e dados abertos do poder público. “Além do deserto de notícias, que é a situação de muitas cidades onde não há produção local de conteúdo, temos também um verdadeiro deserto de dados em algumas regiões e alguns temas de políticas públicas no Brasil, o que contribui para a circulação de informações equivocadas e distorcidas. Ainda temos dificuldade de checar informações que deveriam ser simples, como orçamento público. Temos que cobrar mais transparência, pois não há projeto de ‘fact checking’ que baste nesse cenário”, afirmou. Flattr this!

Japanese Firemen’s Coats (19th century)

- February 18, 2020 in Uncategorized

Με νέα ιστοσελίδα, νέο λογότυπο και νέο ιστολόγιο το Open Knowledge Foundation

- February 16, 2020 in Featured, Featured @en, News, ανοικτά δεδομένα, ιστολόγιο, ιστοσελίδα, Νέα

Το Open Knowledge Foundation, στο πλαίσιο ανανέωσης, παρουσίασε πριν από λίγες μέρες το νέο λογότυπο, τη νέα ιστοσελίδα και το νέο ιστολόγιό του. Ο στόχος και οι επιδιώξεις του OKF παραμένουν σταθεροί, με όραμα για ένα μέλλον δίκαιο, ελεύθερο και ανοικτό, στο οποίο οι έννοιες «ανοικτά δεδομένα» και «ανοικτή γνώση» θα είναι ευρέως κατανοητές. Η αποστολή […]

Glossary of Censored Words from a 1919 Treatise on Love

- February 13, 2020 in Uncategorized

List of Latin words used to veil words deemed too scandalous in Bernard S. Talmey’s treatise on carnal acts.

Transformando Dados em Histórias: veja os próximos cursos

- February 11, 2020 in Conhecimento Livre, Dados Abertos, Destaque

Após edições de sucesso em São Paulo, Rio de Janeiro, Fortaleza e Salvador em 2019, o curso de introdução ao trabalho guiado por dados da Escola de Dados, “Transformando dados em histórias”, está com inscrições abertas para as turmas de 2020. A atividade é voltada a estudantes, jornalistas, pesquisadores de ciências sociais, profissionais de organizações do terceiro setor ou qualquer pessoa interessada em extrair o máximo potencial dos dados em seus trabalhos ou investigações. Os módulos e conteúdos abordados estão descritos em nossa página de ‘Cursos’. A formação tem 20 horas e será ministrada pela equipe da Escola de Dados com instrutores parceiros. Membros da Escola de Dados têm desconto de 20% neste e em outros treinamentos. Saiba mais. Caso seja um membro, envie um e-mail para escoladedados@ok.org.br para solicitar seu link com desconto. Confira abaixo mais informações das próximas edições:   RIO DE JANEIRO/RJ Data: 16 a 20 de março Horário: 17 às 21h Local: EDX Coworking (Av. Rio Branco, 124 – 12º andar – Centro) Instrutoras parceiras: Juliana Marques e Júlia Giannella Compre via PagSeguro   BRASÍLIA/DF Data: 30 de março a 3 de abril Horário: 17 às 21h Local: IBICT (SAUS – Quadra 5 – Lote 6, Bloco H) Instrutores parceiros: a confirmar Compre via PagSeguro   SÃO PAULO/SP: Mais detalhes em breve   INSTRUTORES CONVIDADOS: RIO DE JANEIRO Júlia Gianella É designer e pesquisadora interessada na interseção entre design, visualização de dados e gestão do conhecimento. Atualmente é assistente de pesquisa no Laboratório Visgraf, do IMPA, e doutoranda em Design e Tecnologia na ESDI-UERJ. Em 2019, fundou o projeto Dataviz.Rio, no qual atua como curadora de meetups, palestrante, facilitadora e professora na área de dataviz. Juliana Marques Formada em Estatística pela Universidade Estadual do Rio de Janeiro (UERJ), com mais de 7 anos de experiência no mercado de Telecomunicações trabalhando com modelagem na área de Marketing. Atualmente trabalha no Data_labe, laboratório de dados e narrativas do Complexo da Maré, e permeia o uso da Estatística nos 3 pilares de atuação da organização, produção de conteúdo, formação e geração cidadã de dados. Flattr this!

Unveiling the new okfn.org website, blog and logo

- February 11, 2020 in Open Knowledge Foundation, Our Work

Today the Open Knowledge Foundation is launching its revamped website, updated blog and new logo. Our vision is for a future that is fair, free and open. This will be our guiding principle in everything we do. Our mission is to create a more open world – a world where all non-personal information is open, free for everyone to use, build on and share; and creators and innovators are fairly recognised and rewarded. We understand that phrases like ‘open data’ and ‘open knowledge’ are not widely understood. It is our job to change that. Our strategy, continuum and animated video aim for us to reach a wider and more mainstream audience with relatable and practical interventions. This renewed mission has limitless possibilities and the Board and team are excited about our organisation’s next steps and hopeful for the future. Please let us know any thoughts you have about our website, blog, animated video or new logo by emailing info@okfn.org.

Frances Power Cobbe’s “The Peak in Darien: The Riddle of Death” (1882)

- February 11, 2020 in Uncategorized

An essay by Frances Power Cobbe, an advocate for women’s suffrage, about the consolation and possible significance of deathbed visions.

Frictionless Data Pipelines for Ocean Science

- February 10, 2020 in Frictionless Data, Open Knowledge

This blog post describes a Frictionless Data Pilot with the Biological and Chemical Oceanography Data Management Office (BCO-DMO). Pilot projects are part of the Frictionless Data for Reproducible Research project. Written by the BCO-DMO team members Adam Shepherd, Amber York, Danie Kinkade, and development by Conrad Schloer.   Scientific research is implicitly reliant upon the creation, management, analysis, synthesis, and interpretation of data. When properly stewarded, data hold great potential to demonstrate the reproducibility of scientific results and accelerate scientific discovery. The Biological and Chemical Oceanography Data Management Office (BCO-DMO) is a publicly accessible earth science data repository established by the National Science Foundation (NSF) for the curation of biological, chemical, and biogeochemical oceanographic data from research in coastal, marine, and laboratory environments. With the groundswell surrounding the FAIR data principles, BCO-DMO recognized an opportunity to improve its curation services to better support reproducibility of results, while increasing process efficiencies for incoming data submissions. In 2019, BCO-DMO worked with the Frictionless Data team at Open Knowledge Foundation to develop a web application called Laminar for creating Frictionlessdata Data Package Pipelines that help data managers process data efficiently while recording the provenance of their activities to support reproducibility of results.  
The mission of BCO-DMO is to provide investigators with data management services that span the full data lifecycle from data management planning, to data publication, and archiving.

BCO-DMO provides free access to oceanographic data through a web-based catalog with tools and features facilitating assessment of fitness for purpose. The result of this effort is a database containing over 9,000 datasets from a variety of oceanographic and limnological measurements including those from: in situ sampling, moorings, floats and gliders, sediment traps; laboratory and mesocosm experiments; satellite images; derived parameters and model output; and synthesis products from data integration efforts. The project has worked with over 2,600 data contributors representing over 1,000 funded projects.  As the catalog of data holdings continued to grow in both size and the variety of data types it curates, BCO-DMO needed to retool its data infrastructure with three goals. First, to improve the transportation of data to, from, and within BCO-DMO’s ecosystem. Second, to support reproducibility of research by making all curation activities of the office completely transparent and traceable. Finally, to improve the efficiency and consistency across data management staff. Until recently, data curation activities in the office were largely dependent on the individual capabilities of each data manager. While some of the staff were fluent in Python and other scripting languages, others were dependent on in-house custom developed tools. These in-house tools were extremely useful and flexible, but they were developed for an aging computing paradigm grounded in physical hardware accessing local data resources on disk. While locally stored data is still the convention at BCO-DMO, the distributed nature of the web coupled with the challenges of big data stretched this toolset beyond its original intention. 
In 2015, we were introduced to the idea of data containerization and the Frictionless Data project in a Data Packages BoF at the Research Data Alliance conference in Paris, France. After evaluating the Frictionless Data specifications and tools, BCO-DMO developed a strategy to underpin its new data infrastructure on the ideas behind this project.
While the concept of data packaging is not new, the simplicity and extendibility of the Frictionless Data implementation made it easy to adopt within an existing infrastructure. BCO-DMO identified the Data Package Pipelines (DPP) project in the Frictionless Data toolset as key to achieving its data curation goals. DPP implements the philosophy of declarative workflows which trade code in a specific programming language that tells a computer how a task should be completed, for imperative, structured statements that detail what should be done. These structured statements abstract the user writing the statements from the actual code executing them, and are useful for reproducibility over long periods of time where programming languages age, change or algorithms improve. This flexibility was appealing because it meant the intent of the data manager could be translated into many varying programming (and data) languages over time without having to refactor older workflows. In data management, that means that one of the languages a DPP workflow captures is provenance – a common need across oceanographic datasets for reproducibility. DPP Workflows translated into records of provenance explicitly communicates to data submitters and future data users what BCO-DMO had done during the curation phase. Secondly, because workflow steps need to be interpreted by computers into code that carries out the instructions, it helped data management staff converge on a declarative language they could all share. This convergence meant cohesiveness, consistency, and efficiency across the team if we could implement DPP in a way they could all use.  In 2018, BCO-DMO formed a partnership with Open Knowledge Foundation (OKF) to develop a web application that would help any BCO-DMO data manager use the declarative language they had developed in a consistent way. Why develop a web application for DPP? As the data management staff evaluated DPP and Frictionless Data, they found that there was a learning curve to setting up the DPP environment and a deep understanding of the Frictionlessdata ‘Data Package’ specification was required. The web application abstracted this required knowledge to achieve two main goals: 1) consistently structured Data Packages (datapackage.json) with all the required metadata employed at BCO-DMO, and 2) efficiencies of time by eliminating typos and syntax errors made by data managers.  Thus, the partnership with OKF focused on making the needs of scientific research data a possibility within the Frictionless Data ecosystem of specs and tools. 
Data Package Pipelines is implemented in Python and comes with some built-in processors that can be used in a workflow. BCO-DMO took its own declarative language and identified gaps in the built-in processors. For these gaps, BCO-DMO and OKF developed Python implementations for the missing declarations to support the curation of oceanographic data, and the result was a new set of processors made available on Github.
Some notable BCO-DMO processors are: boolean_add_computed_field – Computes a new field to add to the data whether a particular row satisfies a certain set of criteria.
Example: Where Cruise_ID = ‘AT39-05’ and Station = 6, set Latitude to 22.1645. convert_date – Converts any number of fields containing date information into a single date field with display format and timezone options. Often data information is reported in multiple columns such as `year`, `month`, `day`, `hours_local_time`, `minutes_local_time`, `seconds_local_time`. For spatio-temporal datasets, it’s important to know the UTC date and time of the recorded data to ensure that searches for data with a time range are accurate. Here, these columns are combined to form an ISO 8601-compliant UTC datetime value. convert_to_decimal_degrees –  Convert a single field containing coordinate information from degrees-minutes-seconds or degrees-decimal_minutes to decimal_degrees. The standard representation at BCO-DMO for spatial data conforms to the decimal degrees specification.
reorder_fields –  Changes the order of columns within the data. This is a convention within the oceanographic data community to put certain columns at the beginning of tabular data to help contextualize the following columns. Examples of columns that are typically moved to the beginning are: dates, locations, instrument or vessel identifiers, and depth at collection.  The remaining processors used by BCO-DMO can be found at https://github.com/BCODMO/bcodmo_processors

How can I use Laminar?

In our collaboration with OKF, BCO-DMO developed use cases based on real-world data submissions. One such example is a recent Arctic Nitrogen Fixation Rates dataset.   Arctic dataset  The original dataset shown above needed the following curation steps to make the data more interoperable and reusable:
  • Convert lat/lon to decimal degrees
  • Add timestamp (UTC) in ISO format
  • ‘Collection Depth’ with value “surface” should be changed to 0
  • Remove parenthesis and units from column names (field descriptions and units captured in metadata).
  • Remove spaces from column names
The web application, named Laminar, built on top of DPP helps Data Managers at BCO-DMO perform these operations in a consistent way. First, Laminar prompts us to name and describe the current pipeline being developed, and assumes that the data manager wants to load some data in to start the pipeline, and prompts for a source location. Laminar After providing a name and description of our DPP workflow, we provide a data source to load, and give it the name, ‘nfix’.  In subsequent pipeline steps, we refer to ‘nfix’ as the resource we want to transform. For example, to convert the latitude and longitude into decimal degrees, we add a new step to the pipeline, select the ‘Convert to decimal degrees’ processor, a proxy for our custom processor convert_to_decimal_degrees’, select the ‘nfix’ resource, select a field form that ‘nfix’ data source, and specify the Python regex pattern identifying where the values for the degrees, minutes and seconds can be found in each value of the latitude column. processor step Similarly, in step 7 of this pipeline, we want to generate an ISO 8601-compliant UTC datetime value by combining the pre-existing ‘Date’ and ‘Local Time’ columns. This step is depicted below: date processing step After the pipeline is completed, the interface displays all steps, and lets the data manager execute the pipeline by clicking the green ‘play’ button at the bottom. This button then generates the pipeline-spec.yaml file, executes the pipeline, and can display the resulting dataset. all steps   data The resulting DPP workflow contained 223 lines across this 12-step operation, and for a data manager, the web application reduces the chance of error if this pipelines was being generated by hand. Ultimately, our work with OKF helped us develop processors that follow the DPP conventions.
Our goal for the pilot project with OKF was to have BCO-DMO data managers using the Laminar for processing 80% of the data submissions we receive. The pilot was so successful, that data managers have processed 95% of new data submissions to the repository using the application.
This is exciting from a data management processing perspective because the use of Laminar is more sustainable, and acted to bring the team together to determine best strategies for processing, documentation, etc. This increase in consistency and efficiency is welcomed from an administrative perspective and helps with the training of any new data managers coming to the team.  The OKF team are excellent partners, who were the catalysts to a successful project. The next steps for BCO-DMO are to build on the success of The Fricitonlessdata  Data Package Pipelines by implementing the Frictionlessdata Goodtables specification for data validation to help us develop submission guidelines for common data types. Special thanks to the OKF team – Lilly Winfree, Evgeny Karev, and Jo Barrett.