ANRT is a place of excellence with a specific expertise in the areas of typeface design and editorial design. Its purpose is to support research projects submitted each year by applicants. In addition to self-initiated projects, research programmes are developed with partner institutions. 

Research Programmes

Research Programmes 2013

ANRT–LORIA. Re-Typograph 2013

Thomas Bouville

En partenariat avec le LORIA (Laboratoire lorrain de recherche en informatique et ses applications) l’école des Mines de Nancy (campus ARTEM) et les Bibliothèques virtuelles humanistes (Centre d’études supérieures sur la Renaissance, Tours)

Ce programme de recherche a été lancé en 2013 (sous l’intitulé Typographie et algorithmie discrète), avec pour objectif d’étudier, à partir de relevés de caractères typographiques imprimés, la pertinence d’un ensemble d’algorithmes fournis, pour la caractérisation géométrique des contours des alphabets. Le but est d’obtenir une forme caractéristique, visant à terme la reconstruction automatique de la typographie de documents anciens. Les premiers résultats ont permis d’expérimenter la «moyennisation» d’échantillons de caractères, compilés à partir de pages numérisées, et de tester différents algorithmes de vectorisation.

Les objectifs de l’année 2014-2015 ont été d’optimiser les outils mis en place, les intégrer dans une interface graphique, et d’expérimenter l’export de ces contours vers des fontes générées automatiquement. Ces fontes pourront être statiques (composées de courbes de Béziers, export en .ufo) ou paramétriques (de type Metafont).

Un séminaire international, Automatic Type Design, a abordé ces problématiques les 6 et 7 mai 2014 à Nancy.

automatic-type-design.anrt-nancy.fr
re-typograph.loria.fr

loria.fr

mines-nancy.univ-lorraine.fr

bvh.univ-tours.fr

ANRT-FEW

Sarah Kremer

Développement d’un caractère phonétique étendu pour la numérisation du Französisches Etymologisches Wörterbuch de Walther von Wartburg. En partenariat avec l’ATILF (Analyse et Traitement Informatique de la Langue Française / CNRS)

atilf.fr

Le FEW, dictionnaire pan-lexical du gallo-roman, représente un des projets lexicographiques les plus ambitieux au monde (« un des plus beaux monuments des sciences du langage » selon P. Swiggers, RLiR 54 (1990), 347). Il est l’un des projets-phares de l’ATILF, et occupe une place de premier ordre dans la recherche (inter-)nationale: c’est non seulement le cadre où est réalisée la recherche de fond en étymologie, mais aussi la référence dans le domaine de la dialectologie et du français régional, de l’édition de textes, des créoles à base lexicale française.

Ce dictionnaire recourt à un grand nombre de caractères typographiques spécifiques, en particulier pour la notation phonétique. Les principales difficultés sont dues à la présence de diacritiques (accents) parfois multiples sur un seul caractère: jusqu’à trois diacritiques au-dessus des lettres, et un au-dessous. Cette originalité soulève plusieurs difficultés en matière de design typographique. À l’heure actuelle, aucune fonte complète, qui regrouperait tous les glyphes nécessaires, n’est disponible pour les chercheurs, ce qui complique la rédaction et l’édition des articles. Ce manque est préjudiciable, à l’heure de la rétro-conversion du FEW sous forme numérique.

Les objectifs du partenariat entre l’ANRT, le Centre du FEW et l’équipe «Linguistique historique française et romane» de l’ATILF sont les suivants: ― développer une fonte complète intégrant l’ensemble des glyphes nécessaires ― adapter cette fonte pour la publication des mises à jour du FEW, en édition papier et éléctronique ― mettre cette fonte à disposition des chercheurs pour une utilisation dans leurs publications (Licence libre), proposer à terme une normalisation des caractères du FEW au consortium Unicode, ou, à défaut, établir un protocole d’encodage qui permette la diffusion et l’inter-opérabilité des contenus numériques.

Research Programmes 2014

ANRT-PIM. Polices pour les Inscriptions Monétaires (PIM)

Elvire Volk Leonovitch

En collaboration avec le Département des monnaies, médailles et antiques de la Bibliothèque nationale de France (BnF), l’Institut de recherche sur les Archéomatériaux (IRAMAT) et le Centre d’Études Supérieures de Civilisation Médiévale (CESCM), dans le cadre du plan triennal de la recherche 2013-2015 de la BnF

Comme dans les autres domaines de l’épigraphie, le contenu sémantique des légendes monétaires n’est en général pas leur unique intérêt. Les particularités graphiques des signes – lettres ou symboles – qui les composent sont porteuses de sens, et fournissent des indications essentielles à la compréhension de l’objet – le contexte géographique, chronologique, technique et culturel de sa production, son usage et sa réception. L’étude de ces particularités est intéressante en elle-même, et elle offre également des pistes pour la lecture et l’étude linguistique des légendes, qui posent parfois des difficultés importantes.

Les études sur ces questions n’ont pas manqué ces derniers siècles, mais les nouvelles possibilités offertes à la recherche par le numérique (catalogues et publications en ligne, bases de données, bibliothèques numériques…) font aujourd’hui clairement ressentir le manque d’un outil satisfaisant pour transcrire, publier et analyser ces inscriptions. Le projet PIM se veut une réponse à cette situation.

L’objectif de PIM est de répondre à un besoin pratique lié au développement du numérique par la création d’un caractère typographique utilisable par un large éventail d’intervenants dans le domaine de l’épigraphie et de la numismatique. Cette fonte aspire à contenir, sous une forme unifiée, toutes les variantes stylistiques identifiées dans un corpus de référence d’environ 10 000 monnaies médiévales (de l’Antiquité tardive au début du XVIe siècle) ; à titre d’exemple, on compte près de 30 formes de A, et environ 800 glyphes au total. L’accès à ces glyphes et leur encodage constitue un enjeu technologique supplémentaire.

Les usages projetés et les fonctionnalités rendues possibles par l’utilisation d’une fonte sont par conséquent autant que l’étude de l’épigraphie au cœur de la réflexion menée par l’équipe du projet.

ANRT–LORIA. Re-Typograph 2014

David Vallance

En partenariat avec le LORIA (Laboratoire lorrain de recherche en informatique et ses applications) l’école des Mines de Nancy (campus ARTEM) et les Bibliothèques virtuelles humanistes (Centre d’études supérieures sur la Renaissance, Tours)

Ce programme de recherche a été lancé en 2013 (sous l’intitulé Typographie et algorithmie discrète), avec pour objectif d’étudier, à partir de relevés de caractères typographiques imprimés, la pertinence d’un ensemble d’algorithmes fournis, pour la caractérisation géométrique des contours des alphabets. Le but est d’obtenir une forme caractéristique, visant à terme la reconstruction automatique de la typographie de documents anciens. Les premiers résultats ont permis d’expérimenter la «moyennisation» d’échantillons de caractères, compilés à partir de pages numérisées, et de tester différents algorithmes de vectorisation.

Les objectifs de l’année 2014–2015 sont d’optimiser les outils mis en place, les intégrer dans une interface graphique, et d’expérimenter l’export de ces contours vers des fontes générées automatiquement. Ces fontes pourront être statiques (composées de courbes de Béziers, export en .ufo) ou paramétriques (de type Metafont).

Un séminaire international, Automatic Type Design, a abordé ces problématiques les 6 et 7 mai 2014 à Nancy.

automatic-type-design.anrt-nancy.fr
re-typograph.loria.fr
loria.fr
mines-nancy.univ-lorraine.fr
bvh.univ-tours.fr

Research Programmes 2015

ANRT-STENCIL. Les livres réalisés au pochoir entre 1650 et 1850

En partenariat avec le Department of Typography & Graphic Communication (University of Reading) et le Centre d’Etudes Supérieures sur le Renaissance (Tours)

Ce projet cherche à localiser, inventorier, analyser et interpréter les livres réalisés au pochoir. Ce type d’ouvrages occupe, sur le plan technique, une position intermédiaire entre le manuscrit et l’imprimé; leur contenu est principalement (mais pas toujours) liturgique. Ils ont été produits sur une période de deux siècles, de 1650 à 1850 environ, dans les pays catholiques de l’Europe de l’Ouest, et probablement dans les régions d’Amérique où le catholicisme s’est répandu. À l’heure actuelle, aucune étude d’envergure n’a entrepris d’analyser ce phénomène selon une approche globale. L’étude s’appuiera au préalable sur un inventaire des livres de chœur cisterciens, à partir d’un corpus existant qui fournira les bases méthodologiques pour des investigations plus larges. L’analyse des spécificités formelles des ouvrages, en matière de caractères, de décor et de composition, permettront une meilleure compréhension de la fabrication et de la diffusion de ces ouvrages, dans le temps et dans l’espace. Le développement des livres au pochoir sera également étudié dans sa relation à la musique et à la liturgie.

Ce projet a une dimension essentiellement historique. Il bénéficiera de l’encadrement régulier de Eric Kindel (Chercheur, enseignant à l’Université de Reading) et de Marie-Luce Boschiero (Professeur de l’Éducation Nationale, Docteur en Musicologie), ainsi que de l’équipe enseignante de l’ANRT.

ANRT-VÉGA. Développement typographique du Vocabulaire de l’Égyptien Ancien (VÉGA)

Pierre Fournier

En partenariat avec le LabEx ARCHIMEDE (Université Paul-Valéry Montpellier) et Intactile DESIGN

Le Vocabulaire de l’Égyptien Ancien (VÉGA) est un outil numérique destiné à remplacer le grand dictionnaire allemand de l’Académie de Berlin publié de 1925 à 1931, encore largement utilisé aujourd’hui, faute de mieux, mais devenu obsolète. Le programme associe les équipes du LabEx ARCHIMEDE (Équipe d’Égyptologie de l’UMR-ASM, UPVM-CNRS) et d’Intactile Design (en charge de la conception, du design et du développement), sous la responsabilité de Frédéric Servajean (UPVM).

L’objectif du VÉGA est de créer un outil interactif permettant de modéliser et représenter les connaissances évolutives en égyptien ancien, en regroupant et recoupant les mots, leurs attestations, leurs références, leurs graphies exactes en hiéroglyphes et les photographies des textes concernés. Là où, aujourd’hui, l’usager doit faire appel à des dizaines d’articles et d’ouvrages, plus ou moins volumineux et dispersés, cet outil lui permettra d’accéder à l’information directement et immédiatement, selon des critères qu’il aura lui-même défini. Le VÉGA devra posséder plusieurs niveaux de lecture correspondant à chaque utilisateur, de l’amateur au professionnel, de l’étudiant débutant au linguiste comparatiste. L’ensemble de la communauté mondiale de l’égyptologie sera invité à l’enrichir, et à effectuer à travers lui un travail scientifique collaboratif.

La difficulté consiste à intégrer non seulement l’ensemble le plus complet de hiéroglyphes (1200 en Unicode, mais près de 9000 nécessaires pour fixer toutes les formes de l’Égyptien ancien), mais aussi de leurs différentes graphies — les graphies correspondant en quelque sorte à l’orthographe des mots. On recense régulièrement une vingtaine de graphies différentes pour un même signe, ce qui démultiplie les formes à produire. À l’heure actuelle, la transcription de textes hiéroglyphiques pose des problèmes de saisie informatique, d’encodage et de design. Le VÉGA a pour objectif, à moyen terme, de se doter de son propre compositeur de graphies, et d’une base complète de signes — une évolution indispensable pour permettre l’indexation et l’optimisation de la base de données. L’ANRT collaborera à ce niveau pour l’optimisation de la transcription typographique.

ANRT–LORIA. Re-Typograph 2015

En partenariat avec le LORIA (Laboratoire lorrain de recherche en informatique et ses applications) l’école des Mines de Nancy (campus ARTEM) et les Bibliothèques virtuelles humanistes (Centre d’études supérieures sur la Renaissance, Tours)

Ce programme de recherche a été lancé en 2013 (sous l’intitulé Typographie et algorithmie discrète), avec pour objectif d’étudier, à partir de relevés de caractères typographiques imprimés, la pertinence d’un ensemble d’algorithmes fournis, pour la caractérisation géométrique des contours des alphabets. Le but est d’obtenir une forme caractéristique, visant à terme la reconstruction automatique de la typographie de documents anciens. Les premiers résultats ont permis d’expérimenter la « moyennisation » d’échantillons de caractères, compilés à partir de pages numérisées, et de tester différents algorithmes de vectorisation.

Les objectifs de l’année 2014–2015 ont été d’optimiser les outils mis en place, les intégrer dans une interface graphique, et d’expérimenter l’export de ces contours vers des fontes générées automatiquement. Ces fontes pourront être statiques (composées de courbes de Béziers, export en .ufo) ou paramétriques (de type Metafont).

Un séminaire international, Automatic Type Design, a abordé ces problématiques les 6 et 7 mai 2014 à Nancy.

Research Programmes 2016

The Missing Scripts 2016

Arthur Francietta

Standard indispensable à l’échange de textes électroniques, l’Unicode intègre à ce jour 129 systèmes d’écritures différents, et plus de 110 000 caractères: son ambition est de répertorier toutes les écritures de l’humanité. Le site decodeunicode.org conçu dès 2005 par Johannes Bergerhausen, ainsi que son ouvrage decodeunicode, die Schriftzeichen der Welt (éd. Hermann Schmidt) donnent un aperçu de la richesse et de la variété de l’Unicode. Plus d’une centaine de systèmes d’écritures manquent encore à l’Unicode. Jenticha, Kulitan, Garay (Wolof), Ranjana (Lantsa)… des écritures parfois disparues, minoritaires ou même indéchiffrées, qui sont en attente de normalisation par le consortium.

L’objectif du Script Encoding Initiative de l’Université de Berkeley est de réunir l’expertise linguistique nécessaire pour soumettre de nouveaux systèmes d’écriture à l’Unicode. La plupart de ces écritures n’ont jamais eu d’existence typographique et regorgent de formes extraordinaires: elles constituent de nouveaux territoires vierges pour un dessinateur de caractères. L’objectif du projet The Missing Scripts est d’entreprendre la stabilisation typographique de ces écritures manquantes. Pour ce faire, un programme de recherche pluri-annuel est mis en place, à partir d’une classification établie par Johannes Bergerhausen des différents niveaux de complexité de ces écritures.

Un travail en co-création, conjuguant plusieurs niveaux d’expertise (workshops d’initiation, workshops avec des étudiants en type design, interventions de spécialistes des caractères non-latins) va être planifié, réunissant l’expertise linguistique (SEI, Berkeley), le design typographique (ANRT) et la médiation-valorisation (decodeunicode, Hochscule Mayence). Les qualités requises pour intégrer ce programme sont: — une expérience du dessin de caractères latins et non-latins (préciser dans quel système d’écriture) — de bonnes capacités d’organisation — un niveau d’anglais correct.

Professeurs associés:
Pr Johannes Bergerhausen, Hochschule Mainz (DE) / decodeunicode.org
Dr Deborah Anderson, Université de Berkeley (USA) / Script Encoding Initiative The Unicode consortium

Research Programmes 2017

Halbgotische, Gotico-Antiqua, Fere-Humanistica : between blackletter and roman

Alexis Faudot, Rafael Ribas

This research program focuses mainly on two historical periods, 1459-1482 and 1891-1930. The first one corresponds to a time when typefaces emancipate progressively from the forms used in the high Middle Ages towards roman types, which are the typographic transposition of the hand of the Humanists. Starting in Mainz with the work of Peter Schöffer, the humanisation of typography continued on its way towards Italy where in terms of design it ended with Nicolas Jenson in Venice. A lot of types cut during this period show highly interesting formal hesitations.

The second period is a revival movement initiated by William Morris and Emery Walker at the end of the XIXth century as a reaction to the industrialisation and neo-classical typography. English and later German private presses try to revisit typefaces from the beginings of typography. Finally, German type foundries tried to conciliate blackletter, present in Germany since its begining, with the roman emerging type. Numerous hybrid typefaces were designed before being supplanted by roman ones.

This program is based on the research conducted by Jérôme Knebusch, project coordinator, and on the results of workshops conducted in Mulhouse, Valence and Mainz during 2015 and 2016 where each time a reference has been analyzed and redesigned. At the ANRT, for a researcher during session 2016, the aim is to continue the research on a vast body of research, co-organise and participate in workshops in France and Germany, carry out in depth documentation online and to develop and homogenize the different typefaces from the workshops to build up a historic typefaces family, all of hybrid styles.

The Missing scripts 2017

Morgane Pierson

Standard indispensable à l’échange de textes électroniques, l’Unicode intègre à ce jour 129 systèmes d’écritures différents, et plus de 110 000 caractères: son ambition est de répertorier toutes les écritures de l’humanité. Le site decodeunicode.org conçu dès 2005 par Johannes Bergerhausen, ainsi que son ouvrage decodeunicode, die Schriftzeichen der Welt (éd. Hermann Schmidt) donnent un aperçu de la richesse et de la variété de l’Unicode. Plus d’une centaine de systèmes d’écritures manquent encore à l’Unicode. Jenticha, Kulitan, Garay (Wolof), Ranjana (Lantsa)… des écritures parfois disparues, minoritaires ou même indéchiffrées, qui sont en attente de normalisation par le consortium.

L’objectif du Script Encoding Initiative de l’Université de Berkeley est de réunir l’expertise linguistique nécessaire pour soumettre de nouveaux systèmes d’écriture à l’Unicode. La plupart de ces écritures n’ont jamais eu d’existence typographique et regorgent de formes extraordinaires: elles constituent de nouveaux territoires vierges pour un dessinateur de caractères. L’objectif du projet The Missing Scripts est d’entreprendre la stabilisation typographique de ces écritures manquantes. Pour ce faire, un programme de recherche pluri-annuel est mis en place, à partir d’une classification établie par Johannes Bergerhausen des différents niveaux de complexité de ces écritures.

Un travail en co-création, conjuguant plusieurs niveaux d’expertise (workshops d’initiation, workshops avec des étudiants en type design, interventions de spécialistes des caractères non-latins) va être planifié, réunissant l’expertise linguistique (SEI, Berkeley), le design typographique (ANRT) et la médiation-valorisation (decodeunicode, Hochscule Mayence). Les qualités requises pour intégrer ce programme sont: — une expérience du dessin de caractères latins et non-latins (préciser dans quel système d’écriture) — de bonnes capacités d’organisation — un niveau d’anglais correct.

Professeurs associés:
Pr Johannes Bergerhausen, Hochschule Mainz (DE) / decodeunicode.org
Dr Deborah Anderson, Université de Berkeley (USA) / Script Encoding Initiative The Unicode consortium

Research programmes 2018

The online lexical resources of ATILF

François Elain

This research programme proposes a comprehensive study of the typographic interface of the various online lexicographical tools proposed by ATILF (Analyse et Traitement Informatique de la Langue Française), a CNRS laboratory based in Nancy. ATILF houses, among others, FRANTEXT (a textual database allowing searches in a body of 5,000 texts from the Middle Ages to the 21st century), ORTOLANG (lexical resource portal), FEW (Französisches Etymologisches Wörterbuch, pan-lexical dictionary of Gallo-Roman), and the TLFI (Trésor de la Langue Française Informatisé, the reference dictionary for French language).

http://www.atilf.fr

The Missing Scripts 2018

Émilie Aurat

Unicode has become an essential character-encoding standard for exchanging texts electronically. It encompasses to date 129 different writing systems, and more than 110 000 characters: its ambition is to include all the scripts of humanity.

The decodeunicode.org website, started in 2005 by Johannes Bergerhausen, and its associated book « decodeunicode Schriftzeichen die der Welt » (ed. Hermann Schmidt) gives a fascinating insight into the richness and diversity of the scripts covered by Unicode. And yet, more than a hundred writing systems are still missing from Unicode. Jenticha, Kulitan, Garay (Wolof), Ranjana (Lantsa), Mayan Hieroglyphs... minority scripts, sometimes ancient or undeciphered (but not necessarily complex in their design), which are still awaiting to be approved by the Unicode Consortium.

The aim of the Script Encoding Initiative (SEI) at the University of Berkeley is to provide the linguistic expertise required to submit new proposals for these writing systems to Unicode. Many of these scripts have never existed in a typographic form, and display some very interesting shapes: they represent a kind of unexplored territory for type designers. The Missing Scripts project aims to support the SEI’s proposals to Unicode, through the design of typefaces for the missing entries. To achieve this, a multi-year research program is implemented, based on a classification by Johannes Bergerhausen, who established different levels of complexity for these scripts, based on the SEI database. The work will be conducted over a number of years, combining several levels of expertise: linguistics (SEI, Berkeley), type design (ANRT) and graphic design / mediation (decodeunicode, Hochschule Mainz).

Visiting professors & experts:

Pr Johannes Bergerhausen, Hochschule Mainz (DE) / decodeunicode.org

Dr Deborah Anderson, Université de Berkeley (USA) / Script Encoding Initiative The Unicode consortium

2019 research programmes

Problemata 2.0

Ce programme de recherche et de diffusion de la recherche en histoire du design et critical writing comporte deux volets consécutifs des humanités numériques : l’un est la stimulation de la recherche via la diffusion en ligne de corpus relativement conséquents sur 3 ans, l’autre propose une réflexion sur l’ergonomie d’un portail / plateforme dont font partie :

une réflexion poussée sur les usages et services d’une plateforme de recherche

et des propositions concernant l'ergonomie des outils proposés en ligne

un projet particulier de recherche typographique intégrant les questions d’interface écran-print et de créations de caractères typographiques de type « liquide » (« réactive »ou « responsive » ) capables de répondre à une diversité d’usages (responsive et print).

Les qualités requises sont :

une expertise en webdesign et design d'interface

une expertise sur les questions des ergonomies et interfaces écran-print, voire des connaissances sur les questions de css-to-print, de print-on-demand, et de web-to-print. Ainsi qu’un fort intérêt dans le domaine de la création typographique orientée responsive et print.

un intérêt pour l'univers des données textuelles et visuelles, les revues de recherche, les sources primaires et l’indexation archivistique.

En partenariat avec l’axe critique du CRD – ENS Paris-Saclay, le TGIR Huma-Num / CNRS

Projet soutenu et labellisé par la Maison des Sciences de l’Homme de Paris-Saclay. CNRS

Visiting professors:

Jeremy De Barros, Brice Domingues, Catherine Geel, Catherine Guiral, Vincent Maillard, Anthony Masure

The Missing scripts 2019

Unicode has become an essential character-encoding standard for exchanging texts electronically. Unicode 12 encompasses 150 different writing systems, and more than 135 000 characters: its ambition is to include all the scripts of humanity.

The decodeunicode.org website, started in 2005 by Johannes Bergerhausen, and its associated book « decodeunicode Schriftzeichen die der Welt » (ed. Hermann Schmidt) gives a fascinating insight into the richness and diversity of the scripts covered by Unicode. And yet, more than a hundred writing systems are still missing from Unicode. Jenticha, Kulitan, Garay (Wolof), Ranjana (Lantsa), Mayan Hieroglyphs... minority scripts, sometimes ancient or undeciphered (but not necessarily complex in their design), which are still awaiting to be approved by the Unicode Consortium.

The aim of the Script Encoding Initiative (SEI) at the University of Berkeley is to provide the linguistic expertise required to submit new proposals for these writing systems to Unicode. Many of these scripts have never existed in a typographic form, and display some very interesting shapes: they represent a kind of unexplored territory for type designers. The Missing Scripts project aims to support the SEI’s proposals to Unicode, through the design of typefaces for the missing entries. To achieve this, a multi-year research program is implemented, based on a classification by Johannes Bergerhausen, who established different levels of complexity for these scripts, based on the SEI database. The work will be conducted over a number of years, combining several levels of expertise: linguistics (SEI, Berkeley), type design (ANRT) and graphic design / mediation (decodeunicode, Hochschule Mainz).

The website The World's Writing Sytems and the poster show the actual state of research.

Desired profile for the application:

Interest in Latin and non-Latin type design (specify which writing system)

English spoken

Good organisational skills

Visiting professors & experts:

Pr Johannes Bergerhausen, Hochschule Mainz (DE) / decodeunicode.org

Dr Deborah Anderson, Université de Berkeley (USA) / Script Encoding Initiative The Unicode consortium

2020 research programmes

Hans Jürg Hunziker Archives, 1950-2006

How to classify and archive a collection of typographic work and type design from a period spanning more than 5 decades? This research program, based on the personal archives of Hans Jurg Hunziker, will propose a classification methodology in a field that is still little addressed. It will help build an easy-to-access, on-site and online research platform, and a retrospective publication.

Hans Jurg Hunziker, instructor at the ANRT from 1990 to 2006, will help the student-researcher to understand, classify and digitize documents. They will be presented by a notice placing them in their historical, cultural, social and technical context.

In partnership with the Bibliothèque cantonale Vadiana, Saint Gall

Typeface designer and typographer, Hans-Jürg Hunziker trained as a typesetter and typographer in Zurich before attending the Allgemeine Gewerbeschule in Basel in 1965, where he met Jan Tschichold, Emil Ruder, Armin Hoffmann and André Gürtler. He later travelled to Brooklyn to start working for the Mergenthaler Linotype Company, where he developed typefaces for phototypesetting under the direction of Matthew Carter (1967-71). In 1971 he joined Adrian Frutiger’s studio, where he contributed (among other projects) to the Roissy airport signage typeface, later released as Frutiger. In 1974 he designed for Visual Design (Jean Widmer & Ernst Hiestand) the CGP typeface for the identity of the Centre George Pompidou. From 1980-83, as part of a United Nations Development Project, he designed some Arabic typefaces and taught typeface design at Institut de recherche et d’étude pour l’arabisation in Rabat, Morocco. Back in Paris, he worked as a freelance designer and co-founded Atelier H together with Ursula Held in 1998. He designed several books and catalogues for the Centre Georges Pompidou, Cité de la Musique, Institut du Monde Arabe and Bibliothèque nationale de France. Between 1999 and 2002, he designed the corporate typeface for Siemens, a project of exceptional scale: 3 styles, Sans Serif and Slab, in three weights, with accompanying italics. The fonts, developed in collaboration with URW, cover a very large number of writing systems: Latin, Arabic, Greek, Cyrillic, Hebrew, Traditional and Simpli ed Chinese, Korean, Japanese, Thai, etc. Hans-Jürg Hunziker taught at the Hochschule für Gestaltung in Zurich until 2014, as well as Atelier national de recherche typographique between 1990 and 2006. 

The Missing scripts 2020

Unicode has become an essential character-encoding standard for exchanging texts electronically. Unicode 13 encompasses 150 different writing systems, and more than 139 000 characters: its ambition is to include all the scripts of humanity.

The decodeunicode.org website, started in 2005 by Johannes Bergerhausen, and its associated book « decodeunicode Schriftzeichen die der Welt » (ed. Hermann Schmidt) gives a fascinating insight into the richness and diversity of the scripts covered by Unicode. And yet, more than a hundred writing systems are still missing from Unicode. Jenticha, Kulitan, Garay (Wolof), Ranjana (Lantsa), Mayan Hieroglyphs... minority scripts, sometimes ancient or undeciphered (but not necessarily complex in their design), which are still awaiting to be approved by the Unicode Consortium.

The aim of the Script Encoding Initiative (SEI) at the University of Berkeley is to provide the linguistic expertise required to submit new proposals for these writing systems to Unicode. Many of these scripts have never existed in a typographic form, and display some very interesting shapes: they represent a kind of unexplored territory for type designers. The Missing Scripts project aims to support the SEI’s proposals to Unicode, through the design of typefaces for the missing entries. To achieve this, a multi-year research program is implemented, based on a classification by Johannes Bergerhausen, who established different levels of complexity for these scripts, based on the SEI database. The work will be conducted over a number of years, combining several levels of expertise: linguistics (SEI, Berkeley), type design (ANRT) and graphic design / mediation (decodeunicode, Hochschule Mainz).

The website The World's Writing Sytems and the poster show the actual state of research.

The Missing Scripts programme will focus, from Octobe 2020 to March 2022, on the following scripts: YEZIDI, AFÁKA, SHARADA, DIVES AKURU, TOTO, BOOK PAHLAVI.

Desired profile for the application:

Interest in Latin and non-Latin type design (specify which writing system)

English spoken

Good organisational skills

Visiting professors & experts:

Pr Johannes Bergerhausen, Hochschule Mainz (DE) / decodeunicode.org

Dr Deborah Anderson, Université de Berkeley (USA) / Script Encoding Initiative The Unicode consortium

Partenariats

ATILF (Analyse et Traitement Informatique de la Langue Française / CNRS)

Nancy

Professeur associé: Yan Greub, directeur du FEW (Französisches Etymologisches Wörterbuch), dans le cadre du projet FEW. 

atilf​.fr

LORIA (Laboratoire lorrain de recherche en informatique et ses applications)

Nancy

Professeur associé: Bart Lamiroy, dans le cadre du projet Re-​Typographe, qui associe également l'école des Mines et Télécom Nancy.

loria​.fr
qgar​.loria​.fr
mines​-nancy​.univ​-lorraine​.fr

BnF (Bibliothèque nationale de France)

Paris

Département des monnaies, médailles et antiques de la Bibliothèque nationale de France. 

Chercheure associée: Florence Codine (BnF)

Dans le cadre du projet PIM, qui associe la BnF, l’Institut de recherche sur les Archéomatériaux (IRAMAT) et le Centre d’Études Supérieures de Civilisation Médiévale (CESCM) et l'ANRT dans le cadre du plan quadriennal de la recherche 2016-2020.

University of Reading

Department of Typography & Graphic Communication, Univ. of Reading (UK)

typefacedesign​.net

Hochschule Mayence

Gestaltung Hochschule Mainz (DE)
Dans le cadre du projet The Missing Scripts
Professeur associé: Johannes Bergerhausen

University of Berkeley

Berkeley, CA 94720-​2650 (USA)
Dept. of Linguistics

Script Encoding Initiative

Professeur associé: Deborah Anderson

Université Paul Valéry / Montpellier 3

LABEX Archimede «Archéologie et Histoire de la Méditerranée et de l’Égypte anciennes» – et par le laboratoire «Archéologie des sociétés méditerranéennes», unité mixte de recherche (UMR 5140), dans le cadre du projet ANRT/​VEGA 

vega​-vocabulaire​-egyptien​-ancien​.fr