Academic Publishing in Europe Innovation und Publishing – Zweite Europäische Verlegerkonferenz in Berlin

Von Birgit Schmidt:
Zum zweiten Mal fanden sich in der letzten Woche (22.-24. Januar 2007) über 200 europäische Verleger, Informationsdienstleister und einige Bibliothekare unter dem Motto „Innovation & Publishing“ zur Konferenz „Academic Publishing in Europe“ (www.ape2007.eu), in der ehrwürdigen Berlin-Brandenburgischen Akademie der Wissenschaften in Berlin ein. (ob berichtete in medinfo von der ersten Konferenz, 4./5. April 2006) Leider werden die Vorträge nicht online gestellt (einige Referenten leben davon!?) – ein Summary ist vermutlich in dieser Woche zu erwarten. Ziel der Konferenz ist es, einen stetigen konstruktiven Dialog zwischen Bibliotheken und Verlegern zu befördern und die Kooperation der hier versammelten „neuen Community“ zu unterstützen – dies ist den Organisatoren auch in diesem Jahr wieder gelungen, wobei natürlich Kontroversen und Fragen nicht ausbleiben. Sicherlich nicht zu erwarten ist von hier aus ein eindeutiges Pro-Open-Access-Statement, etwa durch Unterstützung der derzeit laufenden EU-Petition (gemeldet während der Konferenz: DFG unterzeichnete am 23.01. die Petition http://www.ec-petition.eu/). Folgend ein paar Eindrücke…

Der Auftakt: ein Pre-Conference Day, (dazu unten mehr) gerichtet an so genannte „Younger Academic Publishers“ (gedacht war an eine dehnbare Grenze von 35 Jahren) um sich in Workshops den Chancen und Herausforderungen zu stellen, die sich technologisch durch das Internet und die in diesem Umfeld gewandelten Beziehungen zwischen Autoren, Verlegern und Lesern, entwickeln. Angesprochen fühlen sollte sich in jedem Fall ein weites Feld von Verlegern – alle müssen Wege finden, Geldmittel zu erwirtschaften oder Unterstützung einzuwerben wie auch in die Zukunft investieren – sprich ein Geschäfts- und Preismodell für ihre Dienste und Produkte, von denen es heute viele Varianten gibt (Lizenzierung, Author-pays, Pay-per-View etc.) etablieren.
Ein Schwerpunkt der Vorträge: Den Leser mit seinem Suchverhalten und seinen Bedürfnissen wieder stärker ins Bewusstsein holen! Ein deutlich veränderter Rahmen ergibt sich zudem durch die vermehrte praktische Förderung von Open Access durch die europäischen Forschungsförderorganisationen. Dies schafft neue Geschäftsgelegenheiten, zwingt aber auch so manchen Verleger zum – erfreuten bis zögerlichen – Umdenken. Ein Nebeneinander der verschiedenen Modelle wird einerseits nicht mehr in Zweifel gezogen: „Open Access is there to stay“ und passende Geschäftsmodelle sind mehr oder weniger etabliert. Andererseits ist gilt für viele Verleger sicher noch „Open Access is not here“, da der Druck des Publizierens hoch ist und das Verlangen nach innovativen Produkten durchaus stärker sein könnte…

Zum Zweiten: Die Konferenz. Einleitende Worte zur Zukunft des wissenschaftlichen Publizierens trugen Dr. Winters, Otto Schmidt Verlag, Bonn, der Präsident der Berlin-Brandenburgischen Akademie der Wissenschaften, Prof. Dr. Günter Stock und Dr. Horst Forster, Direktor der Europäischen Kommission DG INFSO.E-Content, vor. Gewünscht sind innovative Lösungen, die das wissenschaftliche Arbeiten erleichtern, und die Ressourcen über alle Jahrgänge hinweg („Avoid a 20 century blackhole!“) breit zugänglich machen – mit einem Blick auf Open Access und langfristige Verfügbarkeit.
Keynote Speakers: Dr. Ullrich Buller, Fraunhofer-Gesellschaft, betonte die dezidierte Verfolgung des Open Access-Gedankens im Sinne des „grünen Weges“ (Sekundärpublikation von peer-reviewten Materialien). Herausforderungen bestehen in Hinsicht auf die Auffindbarkeit sowie das Management von Infrastruktur und Rechten (DRM vs. Fair Use etc.).
Dr. John Markus, FAST, Oslo, gab anhand von Beipielen einige Hinweise in Richtung eines auf das Suchverhalten der Leser abgestimmte Marketing von Publikationen.
Dr. Johann Kempe, Verlagsgruppe Holtzbrinck, Stuttgart, startete mit einem Blick auf Intitiativen wie Google Buchsuche und amazon Search Inside – diese sind zu „Key Players“ aufgestiegen, was die Sichtbarkeit von Büchern angeht. Allerdings verlieren Verlage so die Kontrolle über ihrer Angebote und verlieren selbst an Bedeutung. Man lanciert also eine eigenes Angebot, bei dem der Verlag die Regeln definiert – eine Anwendung wird das vom Börsenverein in Auftrag gegebene Portal „Volltextsuche Online“ sein, in das Verleger und Buchhändler integriert werden.
Mayur Amin, Elsevier, berichtete über Analysen in Hinsicht auf den vorherrschenden Glauben, dass Self-Archiving keinen Effekt auf die Subskription der Zeitschriften habe, insbesondere dann, wenn man ein Embargo von 6 Monaten einräume. Hier investierte man in eine Conjoint-Analyse, man legte Bibliothekaren verschiedene Optionen mit einem Satz von Eigenschaften vor, aus denen sie wählen sollten. Heraus kommt neben einer Wichtigkeit von Attributen (Qualität > Kosten > Aktualität > …), eine Neigung zu referierten Publikationen und eine Präferenz für freie Inhalte: Erst bei einem längeren Embargo (von über 2 Jahren) steige die Neigung zu kostenpflichtigem Material – die Neigung zu freien Inhalten bei einem Embargo von 6 Monaten sei dagegen deutlich geworden. Ein referiertes Manuskript wird zudem dem endgültig publizierten als gleichwertig angesehen.
Spannend auch die Darstellung von Dr. Barend Mons, KNEWCO, Rotterdam, eines „Second Generation Wiki with Semantic Support“ am Beispiel von einer Community von Wissenschaftlern, die sich für eine bestimmte Gruppe von Genen interessieren. Triebkraft ist das Interesse an direkterer Kommunikation, um schnell zu den neuen Erkenntnissen vorzudringen und nicht mehr lange Artikel lesen zu müssen – er würde gar keine Artikel mehr lesen, geschweige denn schreiben wollen! Einheiten des Systems sind „Knowlets“, die für Konzepte zusammen mit Beziehungen und Attributen stehen. Diese werden einer Metaanalyse unterzogen, die das Auffinden von interessanter Information erleichtert. Letztlich beruht das System auf ein Vertrauen in Experten und einem Interesse an einem die Arbeit beschleunigenden Austausch.
Als Partner in der Weiterentwicklung von Publikationsstrategien präsentierten sich das FIZ Karlsruhe (Sabine Brünger-Weilandt) und die Max-Planck-Gesellschaft (Dr. Laurent Romary, Max-Planck-Digital Library). Hier kommt man den Bedürfnissen der Wissenschaftler entgegen, ist aber noch mit der Verankerung der Services (eSciDoc, e-Science) in die Arbeitsarbeitsabläufe der unterschiedlichen Fachkulturen befasst.
Der Google-Effekt spielte im Vortrag von Gary Coker, MetaPress, Birmingham/USA, eine Rolle – mit der Aufforderung sich die Verhaltensweisen zu Nutze zu machen. Ein Web-weiter Trend: Nutzer sind in Eile, 60 % bleiben unter einer Minute. Manch einer kommt zum ersten Mal, wird vielleicht nie wieder kommen, aber: verwandte Inhalte werden mitgenommen, wenn sie verlinkt sind. Auch in Hinsicht auf das (Wieder)Auffinden von Inhalten lässt sich sicher manches verbessern.
Prof. Hermann Maurer, TU Graz, holte zu einer Vision aus, die von der Auffindung von Plagiaten startete, bei einer komplett durch Google monopolisierten und kontrollierten Web-Welt landete und schließlich mit einer digitalen Vision schloss. (SciFi-Romane zählen denn auch zum Oeuvre von Maurer…)
Geoffrey M. Bilder, Scholarly Information Strategies, Oxford, zeigte anhand des Konzepts des Semantic Web neue Möglichkeiten für Autoren, Verleger und Bibliothekare auf. Die Vielfalt der Informationsangebote lässt sich durch Mittel der semantischen Erschließung quasi „untertunneln“ und nutzerfreundlich neu organisieren. Leider wurden zwar zahlreiche Tools aufgezählt, jedoch keine konkrete Anwendung präsentiert, etwa auf CrossRef aus dem eigenen Hause…
Dr. Peter Johan Lor, IFLA (International Federation of Library Associations), fragte nach der Rolle der Bibliothekare im Zusammenhang von Open Access. Hier hat man heute eine Mischung aus Enthusiasmus und Vorsicht, zugleich ist er sich sicher: Open und Toll Access werden „side-by-side“ existieren. Zu den verschiedenen Rollen der Bibliothekare im Zusammenhang mit Open Access zählen: Bibliotheken können selbst digitale Verleger werden, sie erhalten Open Access-Materialien langfristig und sie steuern Zuschüsse zu Publikationsgebühren bei.
Brian Green, EDItEUR/Internationals ISBN Agency, stellte mit ONIX (ONline Information EXchange) ein XML-basiertes Format für Produktinformationen aus Buchhandels- und Verlagsbranche vor, das derzeit in Richtung eines Standards für den maschinenlesbaren Austausch von Lizenzinformationen erweitert wird (ONIX-PL, PL für Publication Licence). Damit kann ein Bereich von Ressourcen von Suchmaschinen erfasst werden, der bisher per se in „Closed Collections“ verschwindet.
Auf dem Podium der Panel-Diskussion zum Thema „Books, Documents, Course Packs, Open Access & Licenses, …“ fanden sich Bibliothekare der Universitäten Barcelona (Lluis Anglada), Groningen (Alex C. Klugkist) und Stuttgart (Werner Stephan) sowie ein Informationsintermediär (Casalini Libri, Florenz) ein. Elektronische Produkte werden heute viel genutzt und in unterschiedlichen Zusammenstellungen nachgefragt. Einerseits haben die so genannten „Big Deals“ der Bibliothekskonsortien das Angebot und die Nutzung enorm erweitert (um bis zu 100 %, wobei man auch hier in Rechnung stellen muss, dass 20 % des Content 80 % der Nutzung auf sich ziehen). Manches Bedürfnis, etwa nach Paketen für zeitlich begrenzte Lehrveranstaltungen, wird jedoch noch nicht bedient, insbesondere dann, wenn Lizenzen für elektronische Ressourcen weiter an Printmedien orientiert sind und eben nur jeweils ein Nutzer darauf zugreifen kann. Hier sind flexible Modelle wünschenswert. Einige Diskussionsbeiträge befassten sich mit den Kosten von Information. Im Verhältnis zum Forschungsbudget machen diese Kosten nur einen sehr kleinen Anteil aus und für die Industrie zählt Information zu den kostengünstigsten Gütern. Generell könnten die Forschungskosten durch Open Access steigen – was jedoch zu verschmerzen sein mag, da Publizieren ein integraler Bestandteil des Forschungsprozesses ist.
Zum Thema „Pricing and Pricing Strategies“ die Fachberater Dr. Rainer Meckes, Simon-Kucher & Partner, sowie Thomas Snyder, Swets, ihre Vorstellungen von Preismodellen aus Sicht eines Verlages bzw. Informationsaggregators vor. Rein printbasierte Preismodelle haben keine Zukunft. Mit der Forderung des „All content should be free“ (Google) konfrontiert, könnte es darauf hinauslaufen, dass Inhalte zukünftig nicht mehr die zentrale Revenueressource sind, sondern komplementäre Services (Auswahl, Qualitätsprüfung, Lieferung etc.). Aus Sicht der Kunden sind die Preise immer zu hoch, hier helfe wohl keine Senkung, sondern nur eine Verbesserung des Wert-Preis-Gefüges durch verbesserte Services. Das Lizenzmodell ist in vieler Hinsicht variierbar, ein aussichtsreiches Modell wird in artikelweisen Datenbanken gesehen, mit Artikelpreisen, die von der Nutzung abhängen. Swets homogenisiert die von Verlagsseite vorgefundene Komplexität und Vielfalt der Preise für die angebotenen Informationspakete. Gesehen wird ein starker Trend hin zu e-only mit einem Anteil von 45 % in 2011, und einem Absinken von print+electronic von derzeit 25 % auf 11 %. Als wenig hilfreich wird eine Inelastizität von Preisen angesehen, diese müssen zudem die Wertschätzung durch die Kunden reflektieren.
Matthew Cockrill, BioMed Central, sprach über Preismodelle aus Sicht eines Open Access-Verlegers. Er geht von einem graduellen Wechsel in der Verlagsindustrie aus – wohl kaum sei mit apokalyptischen Verhältnissen zu rechnen (Die ALPSP (Association of Learned and Professional Society Publishers) u.a. tagen im Februar 2007 unter dem Titel „UK Journal Publishers’ Forum: Apocalypse now? The consequences of system collapse“). Betont wurde die Macht des Kunden, etwa wenn nun zunehmend Forschungsförderer und Forschungseinrichtungen zum Open Access-Publikationen ermutigen oder dazu verpflichten, so gibt es heute selbst von den sehr Open Access-skeptischen Verlegern zumindest optionale Open Access-Angebote (inzwischen bieten dies 21 Verleger an, vgl. den Preisvergleich bei BMC, www.biomedcentral.com/info/authors/apccomparison). Für die meisten solcher Verleger ist die von Autoren oder ihrer Institution gezahlte Publikationsgebühr jedoch lediglich „the icing on the subscription cake“, i.e. es wird erst gar kein Risiko eingegangen und die Höhe ist durchaus willkührlich. Am Beispiel der Oxford University Press-Zeitschrift Nucleic Acids Research zeigt sich, dass mit dem Übergang zu vollem Open Access, die Revenue pro Artikel deutlich gesunken ist, da die Zahl der (nun Print-)Subskriptionen durch Abstellungen stark gefallen ist, hier wurde in 2007 die Publikationsgebühr angehoben (von 1.900 auf 2.370 $). Die eigenen Gebührenanhebungen der letzten Jahre werden hier nicht explizit zum Thema gemacht – man ist inzwischen bei durchschnittlichen Gebühren von 1.500 $ angelangt (und war mit 525 $ gestartet). Die Zahlung von Publikationsgebühren direkt aus den Forschungsmitteln der Autoren wird zwar als ein Finanzmodell gesehen, muss jedoch nicht das beste oder ideale sein. Zentrale, institutionelle und konsortiale Finanzierungsmodelle sind Alternativen wie auch der Aufbau institutionseigener Open Access-Publikationsplattformen. Für Verleger bieten sich Möglichkeiten den Wandel zu Nutzen und neue Services zu etablieren, etwa den Austausch von Information zu erleichtern und die Qualität zu sichern.
Die Abschlussdiskussion der Konferenz wurde bestritten von David Hole, Nature Publishing Group; Hans Huck-Blänsdorf, Brockhaus Duden Neue Medien GmbH; Piero Attanasio, mEDRA und Jean-Michel Baer, EU Research Directorate-General. Hier kam man nicht zu einem allgemeinen Resümee, sondern vielmehr einer Sammlung von Herausforderungen, die in den nächsten Jahren zu bewältigen sind. So sind innovative Produkte derzeit noch keinesfalls die Regel, vielfach wird an den etablierten Preis- und Bezugsstrukturen festgehalten – auch Bibliotheken könnten hier mit einer guten Kenntnis des Publikationsmarktes durchaus mehr Druck machen. Open Access ist einerseits „there to stay“, andererseits für viele kurz „not here“. Hier gilt es Finanzierungen auszuloten und es wurde bedauert, dass die Forschungsförderer hier auf der Konferenz fehlten, um Statements abzugeben (einen Überblick über den Status Quo hatte Dr. Astrid Wissenburg, Research Councils UK, am Pre-Conference Day gegeben). Alternativen der Qualitätssicherung wie „Community – „ oder „Open Peer Review“ werden erprobt, sind aber nicht immer auf Anhieb erfolgreich (so stellte etwa Nature sein Experiment kürzlich ein). Online-Einreichungssysteme stellen gerade für Zeitschriften eine Herausforderung da, da dieses Angebot die Einreichungen deutlich steigen lässt, dies gilt auch für die erweiterten Wissenschaftsräume durch die Öffnung Chinas und generell Asiens. Noch einmal stand Google auf dem Programm, hier rückt jegliches Suchverhalten unter Beobachtung und der Kontrollverlust bereitet deutliches Unbehagen… (hier habe ich den Schluss der Diskussion wegen Abreise nicht mehr mitbekommen)

Und hier noch mehr zum Pre-Conference Day „Embracing Change“, 21.01.07…
Zur Einstimmung kündigte Anthony Watkinson, University College London, an, dass es sicher weitere Konferenzen dieser Art geben wird – man ist erfreut, dass sich zahlreiche „Younger Publishers“ zu diesem Workshop einfinden, um sich von den kommenden „thought provoking talks“ inspirieren zu lassen.
Klaus G. Saur, Walter de Gruyter Publishing, Berlin, zeichnet die Entwicklung des wissenschaftlichen Publikationswesen nach, gespickt mit dem einen oder anderen Detail, das sich seinem reichen Erfahrungsschatz verdankt. Heute stehen wir von einer Konzentration von 80 % des Marktes in den Händen einiger großer Player. Aus dem Publikum darauf hingewiesen, dass am deutschen Verlagswesen auffalle, dass dieses bis heute in einer engen Beziehung zu den Wissenschaftlern stehe, gibt Saur zurück, dass Publizieren in der Tat ein extrem persönliches Business sei. Man stehe jedoch auch vor großen Herausforderungen, so sie etwa der Brockhaus-Verlag stark unter Druck durch Wikipedia und dräute doch durch das kommende Urheberrecht womöglich das Ende einiger Verlage (eine ohne weiteres Argumentieren auskommende Klage, die hier scheinbar nicht fehlen durfte).

The Virtual Scholar – What do scholars expect from the virtual environment and are we/can we provide what they expect?
Ian Rowlands, UCL, ist einigen Lesern sicherlich bekannt durch die Studien des ciber (Centre for Information Behaviour and the Evaluation of Research). Gegenwärtig befassen sich die Forschungen mit der Nutzung digitaler Zeitschriften, eBooks und institutionellen Repositorien. Das Verlagswesen besitzt heute immer mehr gemeinsame Betätigungsfelder mit Informations- und Bibliothekswesen. Letztlich sind alle daran interessiert, das Informationsverhalten der Nutzer zu verstehen. Hierfür hat ciber etwa eine „Deep Web Log“-Analyse der Verlage Wiley, Taylor & Francis sowie Oxford University Press betrieben und einige Muster sowie fachspezifische, aber auch nationale, Besonderheiten gefunden. Zu den Trends im Nutzerverhalten sprechen die Zahlen für sich: Nutzten in der „Early Phase“ (pre-1993) noch 8,5 % die Online-Suche, um Artikel aufzufinden, sind dies heute in der „Advanced Phase“ 39 %. Das Browsing von E-Zeitschriften hat sich von 0 auf 54,8 % gesteigert. Hinweise durch Kollegen sind an Bedeutung gewachsen (von 15,5 auf 21,1 %) und auch das Nachverfolgen von Zitationen ist einfacher geworden (von 5,6 auf 16 %). Die Schätzungen von OCLC zum Ansteigen des Publikationsaufkommen leiten über zu Gedanken, die wir uns über den Leser, der einem „War for the Eyeballs“ ausgesetzt ist (nach Odlyzko, 2002), einprägen sollen:

  • Sie lesen mehr.
  • Wissenschaftler sind „selbstbedienend“ und umgehen dabei mitunter die Bibliothek.
  • Leser verschieben ihren Fokus weg von Zeitschriften oder Büchern hin zu Informationseinheiten.
  • Digitale Bibliotheken helfen dabei Forschung effizienter und produktiver zu gestalten.
  • E-Zeitschriften haben Print-Zeitschriften in einer dramatischen Weise und sehr viel schneller als antizipiert ersetzt.
  • Die Nutzung hat sich massiv weg vom Browsing hin zum Suchen bewegt.
  • Leser benehmen sich mehr als Konsumenten, und sind dabei denkbar wankelmütig („loyalty is fickle“).
  • Dabei gibt es große Unterschiede zwischen den Fachdisziplinen.

Manch eine Disziplin verfügt bereits heute über hervorragende Informationswerkzeuge, die Preprint-Kulturen sind sehr verschieden, Leser und Medien mögen ähnlicher werden, variieren derzeit jedoch stark. Den Lesern sollen die versammelten „Younger Publishers“ zuhören, nicht nur den Autoren. Sie sollen Mut zum Experimentieren aufbringen und ein detektivisches Gespür entwickeln, um ein „evidence-based“ Verhältnis zu ihrer Arbeit und ihren Produkten einzunehmen.

Searching and Finding – how do big search engines change our commercial models?
Geoffrey Binder, Consultant, Scholarly Information Strategies
Die Verlagsindustrie ist heute von großen Playern geprägt, doch dies sind nicht mehr Elsevier und Co. – die großen Suchmaschinen sind längst zu bestimmenden Faktoren geworden. Zudem ist der überragende Erfolg von iTunes vielleicht ein nachahmenswertes Modell, die Frage ist nur: Wo bleibt der iPod für den Leser? – und dieser ist und bleibt der Erfolgsfaktor! Nehmen wir den Leser in den Blick: dieser findet etwas im Netz – und steht nun vor der Qual der Wahl, welche Version von welchem Anbieter darf es sein? Das Motto der Leser ist ein „Don’t make me think!“ Entsetzlich unkonfortabel ist zudem die Ordnung von Dokumenten nach Verlegern: die Buchmesse ist ein solcher Fall – man findet nichts! Alternativen bieten Web 2.0-Anwendungen, die eben eine unterstützende Informationsarchitektur mitbringen wie etwa Wikis, Social Bookmarking Tools (delicious, Connotea, CiteULike, Bloglines etc.). Google rankt bekanntlich Seiten höher, auf die zahlreiche (authoritative) Links bestehen. Der Impact auf Verlagsseiten ist enorm! Analog spielt die Vernetzung im Web 2.0 eine Rolle: Welche Personen sind mein Netzwerk, was schreibt Person X in ihrem Blog, wie entwickelt sich die Bibliographie von Dr. Y? Welche Resourcen werden durch meine Kollegen als Z kategorisiert? Hier stehen letztlich einige Spezialisten Fokus, denen man Vertrauen schenken mag…
Ressourcen wandeln sich, der Unterschied zwischen Artikeln und Buchkapiteln verwischt zunehmend, diese Einheiten müssen außerdem nicht statisch sein. Das Publikum wächst, Communities und Diskussionsgruppen finden sich. Im Grunde schaffen wir zur Zeit noch „digitale Inkunabeln“. Insgesamt gilt es zu verstehen, wie Wissenschaftler arbeiten und zugleich den Lesern zuzuhören. Hier ist manches im Fluss und gerade eine Einbau von Qualitätsmechanismen nötig, um ein Florieren zu unterstützen und nachhaltig zu machen.

„He who pays the piper calls the tune“ – do funders understand what they can do and what they might do?
Astrid Wissenburg, Economic and Social RCUK, stellte die Sicht eines öffentlichen Forschungsförderers dar. Neben dem Ziel qualitätsvolle und innovative Forschung sowie ihren Impact und Anwendung zu (be)fördern, steht hier die Information der Öffentlichkeit. Für all dies braucht es neben Mechanismen der Qualitätssicherung eine Informationsinfrastruktur, zu der verschiedene Anbieter wie Verleger und Bibliotheken beitragen. Gerade für die Information der Öffentlichkeit ist eine Qualitätssicherung als Basis nötig und ein einfacher Zugang für alle natürlicherweise wünschenswert. Open Access wird begrüßt als eine Alternative (primär als „pay-to-publish“) und Ergänzung (Repositorien), die in mancher Hinsicht noch reifen muss. Die finanzielle Unterstützung für Publikationsgebühren ist inzwischen von Seiten der Forschungsförderer deutlich gestiegen, auch die Zahl der Mandate für eine Archivierung von Publikationen ist gewachsen. So erwartet etwa die DFG seit Januar 2006 von den geförderten Wissenschaftlern, dass sie nicht-exklusive Rechte an ihren Publikationen behalten und diese möglichst frühzeitig in institutionelle oder fachliche Archive einstellen. In Großbritannien bestehen für die verschiedenen Research Councils derzeit sehr unterschiedliche Empfehlungen. In Frankreich haben kürzlich die Universitäten, die Grandes Ecoles und die Forschungsorganisationen eine gemeinsame eDepot-Plattform beschlossen etc. Herausforderungen bestehen derzeit im Bereich der Entwicklung von Geschäftsmodellen –auch für Open Access eBooks – und einer Zusammenführung von Repositorien unter einem integrierten Interface (One-stop-Shop).

Nach dem mittäglichen Plausch mit den Kollegen standen vier Workshops auf dem Programm – je zwei parallel abgehalten:

  • Open Access and University Presses, Isabella Meinecke, Hamburg University Press
  • Marketing and Distribution, Search Engines, Arend Küster, PCG-Publishers Communication Group Europe, Oxford
  • e-Books and Strategic Product Development, Olaf Ernst, Springer, Heidelberg
  • Pricing and Pricing Strategies, Felix Krohn, Simon-Kucher & Partners

Die Arbeitsgruppen diskutierten Fragen rund um elektronische Publikationen und Qualitätssicherung, Preisbildung, Marketing und Geschäftsmodelle sowie rechtliche Fragen. Ein etwas stärkerer praktischer Impetus ist sicherlich für kommende Workshops wünschenswert.
Im Plenum wurden schließlich die Ergebnisse der Arbeitsgruppen vorgestellt und diskutiert. In Hinsicht auf die weitere Entwicklung der Publikationslandschaft gibt es zwar bereits einige Trends, aber auch damit verbundene Unsicherheiten. Viel hängt zudem von den jeweiligen Endnutzern ab, die sich fachspezifisch zwar annähern, aber weiterhin unterschiedliche Bedürfnisse haben. Hier gibt es noch viel Spielraum für Anreicherungen, die Informationsprodukte für die Nutzer wertvoller machen…

2 comments for “Academic Publishing in Europe Innovation und Publishing – Zweite Europäische Verlegerkonferenz in Berlin

Comments are closed.