You are browsing the archive for 2017 December.

Steuern

- December 29, 2017 in Uncategorized

Ende 2017 waren die Paradise Papers in aller Munde. Nach #Luxleaks und #Panamapapers war es die nächste mediale Runde für die Steueroptimierungsfälle. Dazu gab es am 29.12.17 einen „Taxation“ Talk am 34c3. Anbei eine Kurzzusammenfassung des Talks. Ich zahle mehr Steuern als die Multis – ist das normal? Multinationale Konzerne, und insbesondere die Giganten des Internetzeitalters, stehlen sich aus ihrer sozialen Verantwortung und zahlen keine Steuern mehr –sohört und liest man immer wieder. Profite werden in palmenbewachsenen Steuerparadiesen in der Karibik geparkt (oder wahlweise auch in noblen Schiresorts in den Alpen), während für den Sozialstaat immer weniger Geld da ist. Aber stimmt dieses Bild? Warum können die das? Und was lässt sich tun? Der Versuch einer Klärung. Stimmt es, dass ich mehr Steuern zahle als Apple, Ikea, Starbucks und co? Ja. Viele multinationale Konzerne zahlen inzwischen nahezu gar keine Unternehmenssteuern mehr. Durch Steuervermeidungstricks und Steuerwettbewerb sinkt ihr Beitrag zu den öffentlichen Haushalten seit Jahren, während Steuern auf Arbeitseinkommen den größten Teil dieser Haushalte ausmachen. Warum ist das so? Unternehmen zahlen theoretisch Steuern auf ihre Profite. Bei Multis stellt sich aber die Frage in welchem Land sie Steuern zahlen müssen. Dafür gibt es internationale Regeln, die in den 1920er Jahren eingeführt wurden. Diese Regeln basieren darauf, dass fiktive Preise zwischen verschiedenen Filialen verrechnet werden. Für Unternehmen wird es in den letzten Jahren immer leichter die Profite dorthin zu verrechnen, wo die Steuern am niedrigsten sind. Dadurch müssen sie am Ende fast keine Steuern zahlen. Das liegt unter anderem daran, dass immaterielle Güter (wie Patente, Logos, Marken, Algorithmen) immer wichtiger werden, was Buchhaltungstricks leichter macht. Warum haben manche Länder so niedrige Steuersätze? Wenn ein Land, sagen wir Irland (nur als Beispiel), die Steuern für Unternehmen senkt, dann zahlen Unternehmen lieber in Irland Steuern als in einem anderen Land. Deswegen verlagern sie ihre Profite durch Buchhaltungstricks nach Irland, so dass Irland am Ende sogar mehr Steuern einnimmt als vorher. Genau deswegen haben die meisten Länder in den letzten 30 Jahren ihre Unternehmenssteuern massiv gesenkt. Das Problem ist, dass dadurch anderen Ländern Steuereinnahmen verloren gehen, und am Ende die Multis immer weniger Steuern zahlen. Na und, warum sollen sie nicht weniger Steuern zahlen? Die Tatsache, dass Multis fast keine Steuern mehr zahlen, trägt bei zu leeren Staatskassen, Kürzungen im Sozialbereich, in der Bildung und Gesundheit und zu Steuererhöhungen für niedrige und mittlere Einkommen. Die GewinnerInnen von Hinterziehung und Vermeidung sind die BesitzerInnen großer Finanzvermögen, die international in Aktien, Anleihen und Fonds veranlagt sind – das ist in erster Linie das reichste 1% der Haushalte in den Industrieländern. Die VerliererInnen sind alle anderen. Das ist ein Skandal. Warum macht da niemand was? Die OECD versucht gerade, das alte System zu retten, in dem ein paar Schlupflöcher gestopft werden. Das ändert aber nichts an den grundlegenden Problemen, und wird längerfristig nicht viel bringen. Es wird sich nur etwas ändern, wenn wir alle gemeinsam Druck machen auf unsere Regierungen und die EU. Wie könnte ein besseres System aussehen? Das Hauptproblem des jetzigen Systems ist, dass sich Multis praktisch aussuchen können, wo sie Steuern zahlen. In einem besseren System wäre das durch eine Formel vorgegeben. Man könnte zum Beispiel Profite zwischen Ländern aufteilen, je nachdem wie viel sie dort verkaufen. Das ließe sich sehr schwer durch Buchhaltungstricks manipulieren – man kann die KonsumentInnen ja nicht einfach in eine Steueroase verschiffen. Dann hätten Länder auch viel weniger davon, Steueroasen zu werden. Ist das nicht nur linke Träumerei, so ein System zu fordern? Immer mehr ExpertInnen fordern so eine Reform. Zwischen den Bundesstaaten der USA wird genau so eine Formel verwendet, um Profite aufzuteilen. Auch die EU-Kommission hat einen ähnlichen Vorschlag erarbeitet, und im Herbst 2016 vorgelegt. Der Vorschlag der Kommission sieht vor, Unternehmensprofite zur Besteuerung zwischen den Ländern der EU nach einer Formel aufzuteilen die zu gleichen Teilen auf Verkäufen, Lohnsumme, und Anlagevermögen beruht.Der Vorschlag der Kommission wäre ein Fortschritt relativ zum jetzigen System. Besser wäre es aber, nicht nach Lohnsumme und Vermögen aufzuteilen – sonst haben Länder noch immer einen Anreiz ihre Steuern zu senken, um Arbeitsplätze und Produktion anzuziehen. Und einzelne Länder sollten das neue System schon einführen, ohne dass alle EU-Mitgliedsländer zugestimmt haben müssen. Das macht ökonomisch Sinn und macht es politisch viel leichter, das neue System einzuführen. Was nun? Letztlich wird sich nur etwas ändern, wenn wir Druck auf unsere nationalen Regierungen machen, denn bei denen liegt die Macht etwas zu ändern. Nach dem Double-Irish-Dutsch-Sandwich ist vor der Patent-Box.

Como foi o ano de 2017 para a OKBR?

- December 29, 2017 in 2017, Dados Abertos, Destaque, Gastos Abertos, Inovação, Open Knowledge Brasil, tecnologia, transparência

Para nós, da Open Knowledge Brasil (OKBR), o ano de 2017 contou com diversas parcerias, apoios e participações em eventos, realização de projetos e campanhas de mobilização. Separamos algumas dessas ações para você conhecer. Além disso, uma boa novidade para a equipe: a jornalista Natália Mazotte, que já liderava o programa da Escola de Dados no Brasil, virou codiretora da OKBR com Ariel Kogan, nomeado em julho de 2016 como diretor-executivo da organização.

Mobilização

No início do ano, nós, da OKBR, e diversas organizações lançamos o Manifesto para Identificação Digital no Brasil. O objetivo do Manifesto é ser uma ferramenta para a sociedade se posicionar em relação à privacidade e à segurança de dados pessoais dos cidadãos; e tornar a identificação digital uma ação segura, justa e transparente. Acompanhamos um dos principais desafios na cidade de São Paulo e contribuímos na mobilização para isso. Nós e outras organizações da sociedade cobramos a transparência da Prefeitura de São Paulo em relação à área de mobilidade. O motivo: na quarta-feira, 25/01, primeiro dia do retorno aos limites maiores de velocidade nas Marginais Pinheiros e Tietê, identificamos que várias notícias sobre a queda nos acidentes de trânsito vinculados à política de redução da velocidade nas vias da cidade saíram do ar no site da Companhia de Engenharia de Tráfego (CET). Durante alguns meses, realizamos uma série de webinários chamada OKBR Webinar Series sobre conhecimento aberto pelo mundo. Contamos com a participação dos seguintes especialistas: Bart Van Leeuwen, empreendedor; Paola Villarreal, Fellow do Berkman Klein Center, programadora/data scientist; Fernanda Campagnucci, jornalista e analista de políticas públicas e Rufus Pollock, fundador da Open Knowledge International. Participamos de uma importante vitória da sociedade! Com o Movimento pela Transparência Partidária, realizamos uma mobilização contra a proposta do relator da reforma política, deputado Vicente Cândido (PT-SP), sobre doações ocultas de campanha e o resultado foi muito positivo. Envolvidos nessa causa, nós, da Open Knowledge Brasil (OKBR), e diversas organizações e movimentos participamos da iniciativa contra as doações ocultas, divulgamos e distribuímos uma nota pública. A repercussão foi grande e, como consequência, o relator anunciou a retirada das doações secretas. Participamos também, em parceria com o AppCívico, o Instituto Update, o Instituto Tecnologia e Equidade e outras organizações da sociedade civil do lançamento da carta #NãoValeTudo. A iniciativa é um esforço coletivo para discutir o que vale e o que não vale no uso da tecnologia para fins eleitorais.

Projetos

Realizamos dois ciclos do Gastos Abertos. O primeiro começou em janeiro e participaram 150 municípios. Em julho, publicamos o relatório do ciclo 1. Em agosto, iniciamos as inscrições para o segundo ciclo do jogo com uma novidade: o Guaxi, um robô que foi o assistente digital dos participantes. Ele é um esperto guaxinim desenvolvido com inovadora tecnologia chatbot – que simula uma interação humana com os usuários. Ele facilitou a jornada pela página do Gastos Abertos no Facebook. Confira o relatório parcial do ciclo 2. Nós e a Diretoria de Análise de Políticas Públicas da FGV/DAPP lançamos as edições brasileiras do Open Data Index (ODI). Ao todo, foram construídos três levantamentos para o país: Open Data Index (ODI) Brasil, no nível nacional, e ODI São Paulo e ODI Rio de Janeiro, no nível municipal. Meses depois, finalizamos a enquete “Você quer construir o Índice de Dados Abertos da sua cidade?” e o resultado foi bastante positivo: 216 pessoas mostraram interesse em fazer o levantamento de forma voluntária em seus municípios! Neste primeiro ciclo de descentralização e ampliação do ODI nos municípios brasileiros, realizamos uma experiência com um primeiro grupo: Arapiraca/AL, Belo Horizonte/MG, Bonfim/RR, Brasília/DF, Natal/RN, Porto Alegre/RS, Salvador/BA, Teresina/PI, Uberlândia/MG, Vitória/ES. Oferecemos capacitação para os líderes locais, ministrada pela equipe do Open Data Index (FGV/DAPP – OKBR), para que possam realizar o levantamento necessário para a construção do Índice. Em 2018, vamos lançar os resultados e, apresentar os relatórios com oportunidades concretas para os municípios avançarem na pauta da transparência e dos dados abertos. Lançamos o LIBRE – projeto de microfinanciamento para jornalismo – uma parceria da Open Knowledge Brasil e do Estúdio Fluxo, que contou com desenvolvimento do AppCivico. Trata-se de uma ferramenta de microfinanciamento de conteúdos que pretende aproximar veículos digitais e o público interessado em valorizar e sustentar o jornalismo e conteúdos de qualidade. Atualmente, os portais Gastrolândia, Aos Fatos, o Gênero e Número e o Vá de Bike são alguns dos veículos que estão testando a plataforma nessa fase piloto.

Eventos

Apoiamos eventos do Open Data Day em várias cidades brasileiras; o Hackathon da Saúde, iniciativa da Prefeitura de São Paulo em parceria com SENAI e AppCívico, também teve o nosso apoio; e participamos do Hack In Sampa na Câmara Municipal de São Paulo. Natália Mazotte, codiretora da OKBR, participou do AbreLatam e da ConDatos, eventos anuais que se tornaram o principal ponto de encontro sobre dados abertos na América Latina e no Caribe. É um momento de diálogo sobre o status e o impacto do tema em toda a região. Participamos também da 7ª edição do Fórum da Internet no Brasil com o workshop “Padrões abertos e acesso à informação: perspectivas e desafios dos dados abertos governamentais”. E com outras organizações, realizamos II Encontro Brasileiro de Governo Aberto. A Escola de Dados, em parceria com o Google News Lab, organizou a segunda edição da Conferência Brasileira de Jornalismo de Dados e Métodos Digitais (Coda.Br). Confira o que aconteceu no primeiro dia e no segundo dia de evento. Fomos uma das organizações parceiras do primeiro Curso de Governo Aberto para lideranças em Clima, Floresta e Agricultura. A iniciativa foi do Imaflora e apoio da Climate and Land Use Alliance (CLUA). Fomos foco na pesquisa “Fundações de código aberto como inovadoras sociais em economias emergentes: o estudo de caso no Brasil”, do Clément Bert-Erboul, especialista em sociologia econômica, e do professor Nicholas Vonortas.

E vem muito mais em 2018

Queremos te agradecer por acompanhar e participar da OKBR em 2017. Contamos com você em 2018. Além do nosso planejamento para o ano que vem, temos o desafio e a responsabilidade de contribuir, no período eleitoral, para que o Brasil avance nas agendas de transparência, abertura de dados públicos, participação democrática, integridade e luta contra a corrupção. Para que você possa acompanhar as novidades e o andamento dos nossos projetos, acesse as nossas redes: Blog, Twitter e Facebook. Um 2018 maravilhoso para todos nós! Time e Conselheiros da Open Knowledge Brasil
Flattr this!

開放知識基金會台2017年年終交流成果報告

- December 29, 2017 in 公告, 特稿

開放知識基金會台2017年年終交流成果報告

- December 29, 2017 in 公告, 特稿

國內活動面

  1. 公開的交流活動有14場,請詳參紀錄 https://okfntw.kktix.cc/
  2. 純粹聚會性質的活動可能也超過8場(或更多),目前都是透過 Taipei.IO 的 mailing list 公布交流訊息
  3. 今年二月,Open Knowledge 創辦人 Rufus Pollock 來台,因此另有
  • 1場和本地智庫和台大合作,在台大辦理的公開活動
  • 1場在本地智庫的內部座談
  • 1場在台中市政府的內部座談
  • 1場在高雄市政黨的內部座談

4. 受邀以「開放知識基金會台灣」名義所參加的台灣政府相關諮詢會議,出席部分超過12場左右

5. 針對 eID 也參加了2場工作會議

6. 《前瞻》計畫的檢討,也參加了1場公開座談和2場工作小組的工作會議

7. 參與外國駐台貿易或文化代表處3場座談

數位資源和工作面

  1. 1個 Slack 頻道 (Taipei.IO)
  2. 質量高而且不會浪費大家注意力的社交媒體通路,分別是
  • Facebook Group — 約2000人,但低度運用
  • Twitter — 將近1000人
  • Medium (netpolicy.taipei.io) — 可能是台灣唯一持續更新熱門網路治理議題的刊物,目前已進入第二年,有將近500人訂閱
  • Mailing list (Google Groups) — Taipei.IO 約有100人訂閱
  • 網站低度維護 tw.network.okfn.org

3. 延續去年的文件翻譯模式而成的

國際交流面

  1. 短期支援 曼慢想。曼慢說。申請「亞太網路治理論壇」 APrIGF 2017年在泰國曼谷和 ICANN 60 Fellow 在阿拉伯聯合大公國的阿布達比,取得雙料學人
  2. 搭著亞太網路治理論壇 (APrIGF) 的場合,也在曼谷當地辦理了1場聚會
  3. 長期支援 Crystal Tu 的《滔滔》,尤其是在社交媒體訊息的傳播
  4. 長期支援 TWNGO.xyz 社交媒體訊息傳播
  5. 支援 Crystal Tu 參加歐洲德國柏林 FORCE2017 和學人計畫
  6. 支援 Digital Asia Hub 人工智慧會座談 “AI in Asia” 三場,分別在香港、首爾和東京
  7. 支援 TH Schee 參加加拿大政府所邀請 Canadian Open Data Summit 2017以及多場當地交流
  8. 支援 jx, Crystal Tu, T.H. Schee 與 MyData.org 來自愛沙尼亞與芬蘭成員的交流,協調成立 MyData Taiwan 計畫
  9. 支援聯合國 UNHRC 在亞太地區舉辦的閉門諮詢會議

感謝各位一年來的支持,祝年終愉快,放假愉快。期待來年有更精彩的交流計畫。

Data aggregators: a solution to open data issues

- December 28, 2017 in data aggregators, Fair, Open Data

This is a guest opinion piece written by Guiseppe Maio, and Jedrzej Czarnota PhD. Their biographies can be found below this post. Open Knowledge International’s report on the state of open data identifies the main problems affecting open government data initiatives. These are: the very low discoverability of open data sources, which were rightfully defined as being “hard or impossible to find”; the lack of interoperability of open data sources, which are often very difficult to be utilised; and the lack of a standardised open license, representing a legal obstacle to data sharing. These problems harm the very essence of the open data movement, which advocates data easy to find, free to access and to be reutilised.   In this post, we will argue that data aggregators are a potential solution to the problems mentioned above.  Data aggregators are online platforms which store data of various nature at once central location to be utilised for different purposes. We will argue that data aggregators are, to date, one of the most powerful and useful tools to handle open data and resolve the issues affecting it. We will provide the evidence in favour of this argument by observing how FAIR principles, namely Findability, Accessibility, Interoperability and Reusability, are put into practice by four different data aggregators engineered in Indonesia, Czech Republic, the US and the EU. FAIR principles are commonly utilised as a benchmark to assess the quality of open data initiatives and good FAIR practices are promoted by policymakers.

Image: SangyaPundir (Wikimedia Commons)

We will also assess the quality of aggregators’ data provision tools. Aggregators’ good overall performance on the FAIR indicators and the good quality of their data provision tools will prove their importance. In this post, we will firstly provide a definition of data aggregators presenting the four data aggregators previously mentioned. Subsequently, we will discuss the performance of the aggregators on the FAIR indicators and the quality of their data provision.   

Data aggregators

Data aggregators perform two main functions: data aggregation and integration. Aggregation consists of creating hubs were multiple data sources can be accessed for various purposes. Integration makes reference to linked data, namely data to which a semantic label (a name describing a variable) is attached in order to allow for the integration and amalgamation of different data sources (Mazzetti et al 2015, Hosen and Alfina 2016, Qanbari et al 2015, Knap et al 2012). Following on that, two strengths characterise data aggregators. Firstly, aggregators implement the so-called “separations of concern”:  this means that each actor is responsible for a functionality. Separation of concerns spurs accountability and improves data services. Secondly, aggregators host added-value services, i.e. semantics, data transformation, data visuals (Mazzetti et al 2015). However, aggregators face a major challenge as they represent a “single point of failure”: when aggregators break down, the whole system (including data providers and users) is put in jeopardy. In this post we investigate the Indonesian Active Hiring website, the Czech ODCleanStore, the US-based Data.gov and the EU-funded ENERGIC-OD.  
  1. The Active Hiring website is a portal that monitors job hiring trends by sector, geographical area and job type. The platform utilises open and linked data (Hosen and Alfina 2016).
  2. ODCleanStore is a project that enables automated data aggregation, simplifying previous aggregation processes; the website provides provenance metadata (metadata showing the origin of the data) and information on data trustworthiness (Knap et al 2012).
  3. Data.gov is a platform that catalogues raw data, providing open APIs to government data. This portal is part of the Gov 2.0 movement.
  4. ENERGIC-OD (European Network for Redistributing Geospatial Information to user Community – Open Data) is a European Commission-funded project which aims to facilitate access to the Geographic Information System (GIS) open data.  The project built a pan-European Virtual Hub (pEVH), a new technology brokering together diverse GIS open data sources.

FAIR indicators and quality of data provision to evaluate data aggregators

FAIR principles and the quality of data provision are the criteria for the assessment of open data aggregators. Findability. Data aggregators by default increase the discoverability of open data, as they assemble data in just one site, rendering it more discoverable. Aggregators, however, do not fully resolve the problem of lack of discoverability: they merely  change the nature of it. While before, findability was associated with technical problems (data was available but technical skills were needed to extract it from various original locations), now it is intertwined to marketing ones (data is in one place, but it may be that no one is aware of it). Aggregators thus address the findability issues but do not fully resolve them. Accessibility. Aggregators perform well on the Accessibility indicator. As an example, ENERGIC-OD makes data very accessible through the use of a single API. Data.gov ‘s proposed new unit, Data Compute Unit (DCU), provide APIs to render data accessible and usable. ODCleanStore converts data in RDF format which makes it more accessible. Finally, Active Hiring website will provide data as CSV through API(s). Aggregators show improved data accessibility. Interoperability. All platforms produce metadata (ENERGIC-OD, Data.gov) and linked data (Active Hiring Website and ODCleanStore) which make data interoperable, allowing it to be integrated, thus contributing to the resolution of the non-interoperability issue. Reusability. ENERGIC-OD’s freemium model promotes reusability. Data.gov data can be easily downloaded and reutilised as well. ODCleanStore guarantees re-use, as data is licensed with Apache 2.0, while Active Hiring allows visualisation only. Thus, three out of four aggregators enhance the reusability of the data, showing a good performance on the reusability indicator. Quality of data provision. Web Crawler is used in ENERGIC-OD and Active Hiring websites. This is a programme which sifts the web searching for data in an automated and methodical way. ODCleanStore acquires data in the following ways:  A) through a “data acquisition module” which collects government data from a great deal of different sources in various formats and converts it into RDF (Knap et al 2012); 2) through the usage of a web service for publishers; 3) or data can be sent directly as RDF. In the case of Data.gov, the government sends data directly to the portal. Three out of four aggregators show automated or semi-automated ways of acquiring data, rendering this process smoother.

Conclusion

This post analysed the performance of four data aggregators on the FAIR principles. The overall good performance of the aggregators demonstrates how they render the process of data provision smoother and more automated, improving open data practices. We believe, that aggregators are among the most useful and powerful tools available today to handle open data.

References

  • Hosen, A. and Alfina, I. (2016). Aggregation of Open Data Information using Linked Data: Case Study Education and Job Vacancy Data in Jakarta. IEEE, pp.579-584.
  • Knap, T., Michelfeit, J. and Necasky, M. (2012). Linked Open Data Aggregation: Conflict Resolution and Aggregate Quality. IEEE 36th International Conference on Computer Software and Applications Workshops, pp.106-111.
  • Mazzetti, P., Latre, M., Bauer, M., Brumana, R., Brauman, S. and Nativi, S. (2015). ENERGIC-OD Virtual Hubs: a brokered architecture for facilitating Open Data sharing and use. IEEE eChallenges e-2015 Conference Proceedings, pp.1-11.
  • Qanbari, S., Rekabsaz, N. and Dustdar, S. (2017). Open Government Data as a Service (GoDaaS): Big Data Platform for Mobile App Developers. IEEE 3rd International Conference on Future Internet of Things and Cloud, pp.398-403.
  Giuseppe Maio is a research assistant working on innovation at Trilateral Research. You can contact him at giuseppe.maio@trilateralresearch.com. His twitter handle is @pepmaio. Jedrzej Czarnota is a Research Analyst at Trilateral Research. He specialises in innovation management and technology development. You can contact Jedrzej at Jedrzej.czarnota@trilateralresearch.com and his Twitter is @jedczar.

「オープンデータの形式は”CSV”の先にどこに向かうのか」開催報告

- December 25, 2017 in blog, Events, Featured, opendata, オープンデータ

当日の様子 2017/12/19、オプンデータ・トークシリーズの第22回となる「オープンデータの形式は”CSV”の先にどこに向かうのか」を開催しました。当日参加いただいた皆様、ありがとうございました。資料公開を許諾頂いた分について下記に資料URLを掲載しております。 1.1 オープンデータ5つ星の真実(国立情報学研究所 加藤文彦様)

Tim-BL卿による5つ星の図がひとり歩きしている問題について論じて頂きました。3つ星から先は単にデータ形式の問題ではなく、データの中身とアクセス方法の話であり、メリットはもちろんあるがデメリットとの比較でどうすべきか考えるべきもので、誰もがそうしなさいということではない、といった内容。 1.2 EUのオープンデータ成熟度評価(Georepublic Japan 飯田哲様)
Open Data Maturity in Europe 2017をベースにEUで実施されている継続的、体系的な評価の仕組みをご紹介頂きました。 1.3 LODについて(大阪大学/LODチャレンジ実行員会 古崎晃司様)
LODにすることで「うれしい」ことを説明頂きました。 1.4 地理データ形式のこれから(農研機構 岩崎亘典様)
多数ある地理データの現状と、これからどうして行くべきかを論じて頂きました。 1.5 Wikidataについて(ライフサイエンス統合データベースセンター 山本泰智様)

Wikidata紹介
Wikidataについて、全般的にご紹介頂きました。 1.6 公共交通データをめぐる理想と現実 -それでもなんとかつなげてく-(東京大学 伊藤昌毅様)
特定のドメインでオープンデータを使い続けていくことで見えてきた現実をご紹介頂きました。 1.7 自治体のデータを外部委託で整備する(一般社団法人データクレイドル 理事 大島正美様)
データクレイドル様で行っている、自治体のオープンデータの整形等を地域の雇用創出とつないで事業化している事例についてご紹介頂きました。 1.8 語彙基盤について(IPA 清水響子様)
共通語彙基盤の紹介や普及に向けた課題などをご紹介頂きました。 1.9 地図情報とオープンデータに関する取組について(千葉市総務局次長 大西公一郎様)
千葉市様が参加しておられるオープンガバメント推進協議会での取り組みのうち、さっぽろ保育園マップの横展開の取り組みなどをご紹介頂きました。 2.1 CSVならいいのか?ちょっと立ち止まろう (農研機構 大澤剛士様)
CSVの先を論じる前に、まずはCSVの出し方をちゃんとすべきではないかという問いかけをして頂きました。 2.2 Code for 選挙とWikidata(株式会社達人出版会/一般社団法人日本Rubyの会 高橋征義様)
「Code for 選挙」プロジェクトで政治家データなどをWikidataに登録した取り組みをご紹介頂きました。 最後に、参加者からの質問をその場で受け付け、いいねの多い順に答えていけるツールSli.doによる質疑応答が行われ、多数の質問が寄せられました。 ・Sli.doでの質問 いつものように時間切れで明確な結論が出たわけではありませんが、参加者それぞれに気付きを得て頂いたり、今後の議論のきっかけとなれば幸いです。 <関連情報>
togetterによるまとめ
・当日の配信内容(後半のみ)
画像クレジット:Five Star logo, Llandaff/markheseltine/CC BY 2.0

Melhores Práticas para Publicação de Dados Conectados

- December 22, 2017 in Dados Abertos, Melhores práticas, Série Dados Abertos Conectados

Por Thiago Ávila* Dando continuidade à nossa série de artigos sobre Dados Abertos conectados, vamos detalhar, neste artigo, um importante trabalho desenvolvido pelo Government Linked Data Working Group (Grupo de Trabalho para os Dados Conectados Governamentais) [1], “Melhores Práticas para Publicação de Dados Conectados” (Best Practices for Publishing Linked Data) [2]. Este trabalho foi elaborado para compilar as práticas mais relevantes para a publicação e utilização de dados de alta qualidade publicados por governos ao redor do mundo, como os Dados Abertos Conectados, com o propósito de orientar a publicação, uso e reutilização de dados abertos governamentais. Tais praticas têm, como público-alvo, administradores e desenvolvedores de sítios Web bem como gestores e técnicos que atuam com gestão de informações governamentais [2]. É composto de 10 melhores práticas que consideram o nível de envolvimento de partes interessadas na publicação de dados, cuidados com a legalidade, modelagem, processamento e organização dos dados, semântica, tempestividade, alta disponibilidade dos dados e ainda, como deve ser feita a sua divulgação para o público e sua manutenção. São descritas resumidamente a seguir [2,3]:  
  1. Preparar partes interessadas (Prepare stakeholders): Etapa que visa preparar as partes interessadas, em especial os decisores, sobre o processo de criação de manutenção de dados abertos conectados;
  2. Selecionar conjuntos de dados (Select data): Etapa que visa _a seleção dos dados que serão publicados bem como irão prover benefícios para os usuários, que poderão utilizá-los e reusa-los para diversas finalidades;
  3. Modelar os dados (Model the data): Esta etapa visa estabelecer uma melhor representação dos objetos de dados e como eles serão utilizados por aplicações de forma independente a sua origem;
  4. Especificar uma licença apropriada (Specify an Appropriated License): Visa o estabelecimento das condições de uso (e não uso) dos dados que serão publicados. O reuso dos dados ocorre com maior frequência quando existe clareza sobre a sua origem, propriedade (autoria) e demais condições relacionadas ao uso destes dados;
  5. Estabelecer bons identificadores universais (URIs) para dados conectados (The Role of “Good URIs” for Linked Data): O núcleo dos dados conectados se baseia num planejamento bem feito de identificação e referenciamento dos dados na Web, baseados em URIs HTTP. Devem ser estabelecidos os requisitos para objetos de dados, suporte a diversos idiomas, alteração de dados ao longo do tempo e estratégia de persistência
  6. Utilizar vocabulários padrão (Standard Vocabularies): Descrever objetos com vocabulários previamente definidos, sempre que possível. Quando necessário, ampliar tais vocabulários de acordo com a necessidade. Podem ser criados novos vocabulários (somente quando necessário) seguindo as melhores práticas para este fim.
  7. Converter e enriquecer dados (Convert Data to Linked Data): Esta etapa visa estabelecer as condições para a conversão e o enriquecimento de dados para dados conectados. Estão contempladas atividades técnicas de melhoria dos dados, como conversão para formatos mais apropriados, desenvolver serializações, dentre outras. Para esta pesquisa, serão consideradas tarefas técnicas que preparem os dados para que sejam conectados ou que sejam melhorados para serem conectados futuramente. Pode ser entendida como uma etapa de enriquecimento de dados. É uma atividade comumente realizada por scripts ou processos automatizados;
  8. Prover acesso automatizado aos dados (Provide Machine Access to Data): Devem ser providos diversos meios e formatos para que ferramentas de busca e outros recursos de processamento e consumo automatizado possam utilizar os dados mediante recursos padrões da Web;
  9. Anunciar os conjuntos de dados (Announce to the Public): Devem ser divulgados os novos dados publicados para que a comunidade possa fazer o devido uso;
  10. Estabelecer um contrato social para os dados publicados (Social Contract of a Linked Data Publisher): Esta etapa visa destacar a necessidade de se reconhecer a responsabilidade em garantir a disponibilidade, manutenção e atualização dos dados publicados. Por serem conectados, tais dados precisam ter a garantia que vão ficar disponíveis onde a organização publicadora estabelece e ainda, será mantido ao longo do tempo.
  Nos próximos artigos desta série poderemos detalhar cada uma das melhores práticas apresentadas neste artigo. Até a próxima!!! * Thiago Ávila é conselheiro consultivo da Open Knowledge Brasil. * Este artigo foi desenvolvido a partir da pesquisa de Mestrado “Uma Proposta de Modelo de Processo para Publicação de Dados Abertos Conectados Governamentais”, de autoria de Thiago José Tavares Ávila, decorrente de pesquisas científicas desenvolvidas no Núcleo de Excelência em Tecnologias Sociais (NEES), do Instituto de Computação da Universidade Federal de Alagoas (UFAL). Esta série de artigos contam com a contribuição dos pesquisadores Dr. Ig Ibert Bittencourt (UFAL), Dr. Seiji Isotani (USP), e Armando Barbosa, Danila Oliveira, Judson Bandeira, Thiago Ávila e Williams Alcântara (UFAL). [1] W3C. (2011) Government Linked Data Working Group [2] W3C (2014)  Best Practices for Publishing Linked Data. 2014. Acessado em 02/05/2017.  [3] ÁVILA, T. J. T. Uma proposta de modelo de processo para publicação de dados abertos conectados governamentais. 223 p. Dissertação (Mestrado) — Instituto de Computação, Universidade Federal de Alagoas, Maceió, Alagoas, Brasil, 2015. Dissertação de Mestrado em Modelagem Computacional do Conhecimento. Texto publicado no site Thiago Ávila. Ele faz parte da série de artigos Dados abertos conectados. Flattr this!

Season’s greetings from Open Knowledge International

- December 21, 2017 in Featured, OK Summit

Happy Holidays and Season’s Greetings to all of the Open Knowledge family and friends!! With the departure of the CEO at the end of October we have been busy aligning our roles to pick up the additional responsibility. As we start to reflect, it’s clear that 2017 has been a year of challenges and great achievements for us all. Here at Open Knowledge International the team have been incredibly busy working relentlessly on fulfilling our mission throughout the year. Some key highlights of 2017 for Open Knowledge International have been: Looking forward to 2018, we are even more excited as we look at our calendar. One of the main highlights will be hosting our 2018 Open Knowledge Summit (OK Reboot) in Thessaloniki next May, with our goal to bring the OK Network together and align on a new powerful, clear vision for the Open world that we all want. This will be a time to reinvigorate and reunite the community of Open Knowledge. We hope that you have all listed the dates in your Calendars as we and the team are looking forward to engaging with you all!!!. In January we will be releasing more updates in regards to the agenda for the 2018 Open Knowledge Summit (OK Reboot). Warm Wishes and looking forward to a prosperous New Year for all, Mark, Paul and the entire team at Open Knowledge International!!!!

Data is a Team Sport

- December 20, 2017 in announcement, Data Blog, data literacy, research, Team Sport

Data is a Team Sport is a series of online conversations held with data literacy practitioners in mid-2017 that explores the ever evolving data literacy eco-system. Our aim in producing ‘Data is a Team Sport’ was to surface learnings and present them in formats that would be accessible to data literacy practitioners. Thanks to the efforts of governments, organizations and agencies to make their information more transparent the amount of data entering the public domain has increased dramatically in recent years. As political and economic forces become more adept at using data, we enter a new era of data literacy were just being able to understand information is not enough. In this project, we aimed to engage data literacy practitioners to capture lessons learned and examine how their methodologies are shifting and adapting. We also wanted to better understand how they perceived the data literacy ecosystem: the diverse set of actors needed to enable and support the use of data in social change work.
Conversation Guests PodCast
Enabling Learning Rahul Bhargava & Lucy Chambers
Data Driven Journalism Eva Constantaras & Natalia Mazotte
One on One with Daniela Lepiz Daniela Lepiz
Advocacy Organisations Milena Marin & Sam Leon
One on One with Heather Leson Heather Leson
One on One with Friedhelm Weinberg Friedhelm Weinberg
Mentors, Mediators and Mad Skills Emma Prest & Tin Geber
Government Priorities and Incentives Ania Calderon & Tamara Puhovski
Read the rest of this entry →

How to innovate? Prototype everything!

- December 19, 2017 in civic tech, funding, germany, OK Germany, Open Data, Open Source

We recognized a problem. There are so many individuals and small teams with good ideas out there, but there is little to no financial support. We wanted to change that. This is how the idea for the Prototype Fund came to life. Usually, in order to receive funding, teams need to have a clear-cut business model, be an established company, or pursue a long-term research project. But innovation requires a different environment. Innovation needs room for trial and error, changing plans, and short-term sprints. Innovation is not just planning business models, but identifying problems and needs within your community and addressing these. The Prototype Fund aims to suit the needs for innovation. The Prototype Fund is a public program run by Open Knowledge Foundation Germany that focuses on emerging challenges and radically new solutions. Individuals and small teams can apply for funding to test their ideas and develop open source tools and applications in the fields of civic tech, data literacy, data security and more. Our early-stage funding encourages people to follow unusual approaches. The application process aims to be as unbureaucratic as possible and is adjusted to the needs of software developers, civic hackers, and creatives. The Prototype Fund brings iterative software development and government funding together. The German Federal Ministry of Education and Research funds eight rounds from 2016 through 2020. Each round, we can thus support up to 25 innovative open source projects. Each project is funded with up to 47,500€. Our goal is to support code for all and strengthen the open source community in Germany. In true open source spirit, we want to pave the way for innovation for everyone. During the first two rounds we received more than 500 applications. There was an enormous amount of feedback and the need for an open source funding program became apparent. While the first round was an open call, the second round focused on ‘Tools for a strong Civil Society’. Projects included Pretix, a tool that facilitates the ticket sale and registration for events, while allowing more privacy for the user and self-hosted applications, or Pluragraph, that offers social media benchmarking and analysis in the non-commercial sector. In the third round, we focused on ‘Diversity: more open source for everyone!’, which led to 19 percent of applications that were submitted by women and a wide range of thrilling projects of which our jury selected 23 projects for funding. A menstrual tracking app, for example, allows the privacy-friendly and customized pursuit of the cycle beyond commercial interests. Another example is Briar, a messenger app that allows encrypted communication without a central server, but directly from device to device. Many of our projects address questions such as: How can we reduce bureaucracy, build strong communities, establish skill-sharing and foster lifelong learning? As much as we are happy with how things are turning out so far, the Prototype Fund itself is that: a prototype. We are constantly trying to improve and to come up with new ideas. Do you want to get in touch or find out more about our projects? Here is a list with all the projects we funded in Round 1 to 3, subscribe to our newsletter (in German), or get in touch under info@prototypefund.de. Or simply come to our next Demo Day on 28 February 2018 in Berlin and get some live Prototype-Fund spirit!