CRE127 TeX und LaTeX

Das perfektionistische Satzsystem setzt auch heute noch den Maßstab für digitalen Schriftsatz

Episode image for CRE127 TeX und LaTeXDer Wunsch, ein Buch digital in perfektem Satz zu publizieren hat Donald Knuth Ende der Siebziger Jahre dazu bewegt, ein Satzprogramm zu erschaffen, dass auch Jahrzehnte nach seiner Fertigstellung noch das Nonplusultra des digitalen Schriftsatzes darstellt. In der Folge ist um diesen "Satzkernel" herum eine mächtige Infrastruktur von Makropaketen und sonstigen Hilfsmitteln entstanden, die TeX zu einem mächtigen Werkzeugen machen.

Im Gespräch mit Tim Pritlove erzählt Joachim Schrod über den historischen Ursprung von TeX und seinen technischen Aufbau. Zur Sprache kommen unter anderem die Person Donald Knuth und sein Perfektionismus, das Prinzip der TeX-Makrosprache, warum digitale Gummibänder der Schlüssel zum Schriftsatz sind, TeX und Schriftarten, die Funktionalität von LaTeX, sonstige TeX-Werkzeuge und Editoren und Stammtische und Konferenzen.

Dauer: 02:13:01

On Air
avatar Joachim Schrod
avatar Tim Pritlove Paypal Bitcoin
Shownotes:
Erstellt von:

Links:

86 Gedanken zu “CRE127 TeX und LaTeX

  1. YEAAAAH! Das ist wohl die Folge auf die ich schon am allerlängsten warte – eigentlich schon so lange, dass ich mich inzwischen schon selbst umfassend informiert habe. Aber die Erfahrung zeigt, dass man bei CRE immer noch etwas Neues lernen kann, bin also gespannt!

  2. Werd mir das CRE dann später anhören, aber was mir gleich in dem Zusammenhang einfällt: Ein CRE über Docbook wäre sicher auch mal interessant. Eventuell sogar interessanter als über LaTeX zumal man Docbook i.d.R. nicht so gut kennt.

  3. Der Editor unter Unix/KDE heißt Kile (http://kile.sourceforge.net/ ), nicht Kyle.

    Ansonsten ein sehr schöner CRE, einen direkteren (einige Nebensätze finden sich ja) Vergleich zwischen LaTeX und Word Processor hätte ich mir noch gewünscht, die Frage, über die ich ständig stolpere ist “Warum TeX lernen wenn ich auch Word benutzen kann.”

  4. Sehr schöne Sendung, obwohl für mich diesmal nicht viel neues dabei war. Insbesondere der Folklore-Teil über Donald Knuth hat aber viel Spaß gemacht. Vielen Dank!

  5. Danke für die schöne Sendung! Und sogar noch pünktlich zum Linuxtag draußen :-)

    Eine Sache, die mir aufgefallen sind (es gab noch ‘ne andere, aber die ist mir grad entfallen):

    Zum einen *ist* Plain TeX ein TeX-Format, genau wie LaTeX und ConTeXt und nicht bloß eine Ansammlung von Primitiven. Allerdings möchte man es heute wirklich keinem Anwender mehr für den produktiven Einsatz empfehlen, wobei es zu Studienzwecken durchaus geeignet ist: Erstens erfährt man bei der Lektüre, wie man ein minimales Format schreiben kann, und zweitens basiert auch das Knuth’sche TeXbook darauf, das immer noch eine empfehlenswerte Lektüre ist.

    Ansonsten eine sehr schöne Sendung, vielen Dank an Tim und Joachim!

  6. Es wurde die These aufgestellt, man könne nicht gleichzeitg für das Web und den Druck mit Freier Software Dokumente schreiben. Ich möchte in dem Zusammenhang auf DocBook, pandoc und WiX verweisen, die unter anderem über TeX lesbare Drucksachen erzeugen und gleichzeitig ganz gutes HTML ausgeben.

  7. Schöne Sendung, in der Tat. Und zum ersten Mal ein Thema, wo ich das Gefühl habe ausreichend informiert zu sein um mitreden zu können :) Aaaaalso:

    Erst einmal möchte ich widersprechen, dass bei LaTeX fast alles out of the box funktioniert, was zwar für jemanden, der sich auskennt durchaus der Fall ist, für Neulinge ist die teilweise komplizierte Syntax (z.B. Tabellen) aber durchaus abschreckend. Und dazu kommt, dass es eine Unzahl an Paketen für alles Mögliche gibt, deren Dokumentation meist so genau und umfangreich ist, dass man sich als Einsteiger schwer zurecht findet. Darüber hinaus haben sich noch keine verbindlichen Standards für Paketauthoren durchgesetzt, wie man als Nutzer mit Paketen zu interagieren hat: Wie werden Makros benannt, wie sind Optionen einzustellen etc. Fazit: ein Riesenchaos, in dem absolute Perlen versteckt sind, die für den Anfänger nicht einfach zu finden sind und fast immer viel Lesen von (meist exzellenter) Dokumentation mit sich bringen. Aber das passt ja gut zu Open Source :)

    Nur ein kleines Beispiel: Für Tabellensatz gibt es zusätzlich zur Standardumgebung “tabular” mindestens drei Pakete, die jeweils unterschiedliche Funktionalität und Syntax bieten: array, tabularx, ctable. Welches nehmen? Da heißt es erstmal viel Doku lesen, oder auf de.comp.text.tex nachfragen. (Ganz abgesehen davon, dass man erst einmal wissen muss, was es alles gibt und was davon aktuell ist – da hilft nur nachfragen)

    Was ich auch relativieren würde ist, dass Opentype-Schriften und UTF8 einfach so out of the box funktionieren: Das funktioniert bei XeTeX (das eine andere TeX-Engine ist, also z.B. pdfTeX ersetzt), nicht jedoch bei pdfTeX. In Abhängigkeit davon, welche Engine man zum Kompilieren des Dokuments verwendet, müssen aber unterschiedliche Pakete geladen werden (für pdfTeX z.B. “inputenc” und “fontenc”, für XeTeX “xltxtra” aber NICHT “inputenc” und “fontenc”). Vergleicht man pdfTeX und XeTeX grob, so bietet letzteres out of the box UTF-8 und OTF-Unterstützung, ist aber nicht mit dem paket “microtype” kompatibel, das unter pdfTeX für noch bessere optische Typographie sorgt. Das ist also ein trade-off, den ich in Kauf nehmen muss (zumindest bis LuaTeX kommt und die Welt zu einem besseren Ort macht).

    Und zuguterletzt hast du, Tim, die fast schon gegebene Antwort auf die einzige technische Frage, die mich wirklich brennend interessiert hätte, abgewürgt :) Wie kann ich Referenzen auf Grafiken und Tabellen in meinen Text so einbinden, dass dort steht “siehe oben” wenn die Grafik auf der gleichen Seite angezeigt wird wie die Referenz, aber “siehe Seite X” wenn sie auf eine andere Seite rutscht?

    Danke vielmals an Tim und Joachim, war trotzdem sehr informativ, etwas über das TeX-Umfeld und die Entwicklung zu hören.

  8. @UTF-8:
    Ich hab schon mal den Fall gehabt das ich unter Linux nur das Encoding “utf-8″ habe, aber ein Teamkollege unter Windows nur das Encoding “utf8″. Also der eine hat immer das Dokument vom anderen entsprechend anpassen müssen (- einfügen oder löschen) damit es kompeliert.

    Auch scheint UTF-8 in BibTeX gar nicht unterstützt zu sein, was echt dumm ist.

  9. Tolle Sendung. Es ist Euch sehr schön gelungen das Thema linear Bottom-up zu umreißen.

    Auch das Thema, welches mich am meisten interessierte habt Ihr angesprochen: Wie schreibe ich Dokumente, die im Web und gedruckt (oder als PDF) gleichsam gut aussehen und funktionieren.
    Ich denke ja, dass gerade die Richtung aus dem Web zum Textsatz besonders interessant ist, da häufig umfangreiche Texte kolaborativ in Wikis erstellt werden und dann als Dokumentation in gedruckter Form oder als PDF funktionieren müssen.

  10. Hallo – sehr nette Sendung!

    Von wegen ein Quelltext (.tex) und zwei output-varianten (html & pdf): es gibt tex4ht, mit dem das schon ganz gut geht. Ganz bestimmt nichts für Anfänger, aber es ist ja auch ein schwierieges Problem?

    Grüße und danke nochmal.

  11. @Anaphyis: Danke für die Korrektur mit Kile. Das Interview war ja ohne Vorbereitung — alles, was ich sagte, war also ohne Unterlagen oder Nachsehen. Da können solche Fehler leider passieren; dafür ist das Format spontaner.

    @olli: Das Plain TeX auch ein Format ist, ist in dem besprochenen
    Kontext (wie arbeitet DEK und will man auch so arbeiten) IMHO egal.
    Ich wollte einfach nur abraten, sich als Autor damit zu beschäftigen.
    (Als TeX-Programmierer ist das was anderes.)

    @panzi: In LaTeX heißt das UTF-8-Encoding immer uft8. Wenn Ihr also
    einfach nur das Encoding mit “inputencoding{utf8}” deklariert hättet, hättet das Dokument im Austausch zwischen Linux und Windows nicht ändern müssen.

    @Matthias: Das LaTeX-Paket, daß Du suchst, heißt varioref und gehört
    zum Tools-Bundle des LaTeX-Kernteams. (Autor ist Frank Mittelbach
    höchstpersönlich.)

    Das XeTeX und pdfTeX neue Entwicklungen sind und gerade erst verfügbar gemacht werden bzw. zusammengeführt werden, habe ich hoffentlich erläutert. (Da ich gestern und heute arbeitete, konnte ich den Podcast selber noch gar nicht anhören. ;-)) Das war mir ja genau wichtig: Auszuführen, daß trotz des stabilen Kerns die Entwicklung der TeX-Software nicht abgeschlossen ist, sondern gerade in den letzten
    Jahren einiges neues und interessantes entstanden ist: pdfTeX / XeTeX
    / LuaTeX. Die sind durch die letzten und nächsten TeX-Live-Releases
    allen Interessenten verfügbar und ihre Integration schreitet auch
    ziemlich schnell voran. Die einzelnen Unterschiede und verbleibenden
    Restprobleme — am Ende des doch einige Zeit dauernden Interviews –
    zu erläutern, hätte IMO den Rahmen gesprengt. Außerdem hätte ich das
    vorher wissen und mich dann darauf vorbereiten müssen; alle
    Informationen im Podcast sind aber nur genau das, was ich auswendig
    wusste…

    So, ich muss jetzt weg; zum Thema Web+Druck-Publishing schreibe ich
    vielleicht morgen noch was, das geht nicht in ein paar Sätzen.

    PS: Was letztendlich eigentlich fehlte, war CTAN — zumal ich da auch Mitgründer und einer der Server-Maintainer bin… :-)

  12. Für das Problem Datenbank->Tabelle gibts übrigens Lösungen. Sie nennen sich “Berichtsgeneratoren”. Bislang hab ich da noch keinen gefunden, der irgendwie gut funktioniert.

  13. Angenehme Sendung, wenn auch leider nicht allzu technisch. :) Nach meiner Erfahrung ist es mit einigem Aufwand verbunden, tatsächlich Texte in außereuropäischen Sprachen zu schreiben. Schwierigkeit ist hier die nicht ganz triviale Schriftinstallation, da der TeX-Kern nur Schriften mit maximal 255 Zeichen unterstützt, sodass etwa für Chinesisch entsprechend größere Schriftarten erst in mehrere kleine Schriften mit jeweils 255 Zeichen umgewandelt werden müssen, auf die dann mit Hilfe entsprechender Sprachpakete gemappt wird. Da die Zahl der Schriften pro Dokument wohl auf 255 beschränkt ist, ist die Verwendung solcher Lösungen mit Problemen behaftet, wenn man noch andere Schriften verwenden möchte. Da die Sprachpakete oft auch interne Kommandos umdefinieren, sind sie zudem nicht immer untereinander kompatibel, sodass die Verwendung verschiedener “exotischer” Sprachen im selben Dokument womöglich nicht ohne weiteres möglich ist. Durch solche inhärenten Beschränkungen ermöglicht das TeX-System hier nur sehr unsaubere Lösungen. Die verkrüppelte Syntax macht die Benutzung auch nicht gerade attraktiv. Programmieren in C ist auch nicht komfortabler.

  14. Sehr interessanter Podcast – ich wollte schon länger mal in TeX einsteigen, aber so ist es doch wesentlich einfacher.

    @Tim: Auf chaosradio.ccc.de ist ein Link kaputt: General Introduction to LaTeX – vielleicht kannst du das noch korrigieren.

  15. Ich fands gut, hab aber 3 Dinge vermisst:

    * Den Vorteil ohne Probleme mit einem dutzend Leuten und einem VCS gleichzeitig an einer Datei arbeiten zu können
    * latex-beamer
    * tikz

  16. Nachdem die TeXniker ja fast alle Elemente der ursprünglichen TeXs durch Zeitgemäßeres ersetzt haben, fehlt eigentlich nur noch, die Auszeichnungssprache durch XSL-FO abzulösen.

  17. @Joachim: danke für die Antwort, varioref funktioniert wie erwartet :)

    Mit meinen Anmerkungen wollte ich nur relativieren, dass alles einfach out of the box funktioniert, was für versierte Benutzer und Profis wohl der Fall ist, Anfänger aber doch vor eine recht steile (und anfangs abschreckende) Lernkurve stellt.

    Web und Druckpublishing interessiert mich auch brennend, die eierlegende Wollmilchsau scheint es da wirklich noch nicht zu geben.

  18. Tikz habe ich wirklich vermisst, vor allem als es darum ging, dass TeX kein Malprogramm sei. Abwohl TikZ von sich behauptet kein Zeichenprogramm zu sein, mache ich inzwischen alle meine Zeichnungen mit TikZ, auch wenn die Bilder nicht für ein LaTeX-Dokument gedacht sind.

    Die Leistungsfähigkeit kann durch Bespiele abgeschätzt werden: http://www.texample.net/tikz/examples/

  19. es wurde ja schon fast alles beantwortet, was so an fragen in den kommentaren kam. die sendung hat mir eher mittel gut gefallen… hätte mich gefreut, wenn etwas detaillierter auf fragen von WYSIWYG vs. Tex bei bildern und tabellen eingeganen worden wäre. Jeder der sich nach diesem podcast an tex versuchen wird, wird nicht finden, dass der satz von tabellen und das platzieren von bildern im text unter Tex einfacher geht als beispiels weise unter Word oder so.

    es bringt wohl nicht viel tools zu empfehlen, da kann jeder sicherlich zig-tausende nennen. ich mache es trotzdem mal:

    LaTeX – Editor:
    Texmaker (wurde nicht genannt – ist aber plattformübergreifend erhältlich (frei unter GPL))

    und zum leichten editieren von quellcode:
    Highlight (konvertiert quelltexte (auch farbig) aus HTML, XHTML, RTF, TeX, LaTeX und xml) ist normaler weise hier zu finden. (leider ist die seite grade nicht erreichbar)

  20. @Joachim: Wir hatten es so:
    usepackage[utf8]{inputenc}
    bzw. so gemacht:
    usepackage[utf-8]{inputenc}

    Gibts irgend einen anderen Unterschied zw. dieser Methode und dem?:
    inputencoding{utf8}

  21. @panzi: usepackage[utf8]{inputenc} funktioniert immer. inputencoding war Unsinn von mir.

    @Christian: Ich bin wirklich der Ansicht, daß die Einbettung einer Graphik mit einer figure-Umgebung und caption viel einfacher ist als den Spaß, daß bei Word nach dem Einfügen eines Graphik-Objekts das immer über dem Text drüber liegt und ohne Gefummele mit Positionierungsrahmen eine Bildunterschrift nicht hinbekommbar ist. Und wehe, man hat das Bild dann relativ auf eine Seite positioniert (und hoffentlich nicht vergessen, es zu verankern) — bei der geringsten Änderung vergisst Word diese Positionierung wieder. Hier bevorzuge ich wirklich figure und includegraphics.

    @Frank: XSL-FO ist vom Modell her nicht mächtig genug, wirklich qualitativen Satz zu machen. Deshalb wird es mit Sicherheit niemals das TeX-Modell ersetzen. Und als Beschreibungssprache ist es im übrigen genauso unleserlich wie TeX-Programmierung, da würde man den Teufel mit dem Beelzebub austreiben.

    Zum Graphiken per Auszeichnungssprachen (Tikz, pstricks, etc.) oder Gleichungssysteme (Metapost) malen: Das ist IMNSHO für die meisten Anwender nicht empfehlenswert. Für die ist ein Mal-Programm wie Dia, GIMP oder Visio besser.

    Bzgl. Präsentationen mit Beamer oder Powerdot: Für das, wofür Powerpoint in Firmen üblicherweise eingesetzt wird (Management-Kommunikation), ist das meiner Erfahrung nach nicht benutzbar, aus fachlichen, technischen und sozialen Gründen. (Es ist Teil meines Jobs als Geschäftsführer eines Beratungsunternehmens, solche Folien zu machen.) Dafür kann man mit Beamer wissenschaftliche Vorträge gut machen, was mit PPT nur unter Schmerzen geht. Das sind einfach verschiedene Welten.

  22. Tolle Sendung, hat mir gut gefallen. Trotzdem habe ich doch einwende. Für meinen Geschmack wurde Latex teilweise als zu leicht dargestellt.
    Nach meiner in Latex gesetzten Bachelorarbeit habe ich mich inzwischen schon fast wieder von Latex abgewendet. Das angebliche schnelle ändern von Layouts (wie z.B. die Schrift von Überschriften, Abständen zwischen Absäzten und Überschriften usw.) ist eine Mär! Jede kleinste Änderung lief meistens auf elende Buch und Internet-Recherche hinaus, die normal so um die halbe Stunde bis hin zu drei Stunden dauern konnte bzw. teilweise zur Aufgabe führte.
    Zwei Dinge möchte ich besonders dabei hervorheben:
    Was mich am meisten geärgert hat war, dass es mir selbst nach Tagen nicht möglich war eine andere Schrift zu verwenden, als die Schriften, die in Latex eingebunden ist. Egal ob TTF oder OFT. Ich wollte Linux Libertine als Schrift verwenden, habe aber irgendwann aufgegeben, weil es einfach nicht funktioniert hat. Foren und HowTos im Netz haben mir bestätigt, dass man besser die Finger davon lassen sollte, neue Schriften in Latex einzubinden, weil es umständlich, kompliziert “und nicht sehr schön ist (die bestehenden Schriften sollten doch jedem reichen)”. Und das ist eines meiner Hauptgründe gegen Latex. Ein Setzsystem, indem ich noch nicht mal ordentlich Schriften verwenden kann ist meiner Meinung nach nicht zureichend.
    Zweiter Punkt ist das, was einer vor mir bereits geschrieben hat. “out of the box” gehen nur die wenigsten Sachen bei Latex. Mal ganz davon abgesehen, dass man für alles und jeden packages einfügen muss (selbst um Zeilen oder Spalten von Tabellen zu vereinen), gibt es für genug Aufgaben gleich mal zwei oder drei Packages (auch nicht gerade praktisch), aber was ich noch viel schlimmer finde ist, dass man für jedes Package gleich noch auf seinem System installieren darf, weil es sonst garnicht erst geht und das in Linux beschriebene Latex-live-Paket hilft da auch nicht besonders viel weiter.

    Generell ist mir aufgefallen, dass Latex dann gut ist, wenn man nichts am Layout verändern möchte. Man tippt ein wenig, Deklariert etwas als Überschrift, Formel, Tabelle, Bild und was weiß ich noch und es geht. Leider hört der Spaß auf, wenn man etwas verändern möchte am Standard-Layout. Für ein und die selbe Aufgabe gibt es dabei mal mindestens zwei Vorgehensweisen (was auch auf die vorher erwähnten Packages zurückzuführen ist, wo es verschieden Packages für die gleiche aufgabe gibt) und dann ist auch noch die Frage, welche davon für einen selber geeignet ist. Unterm Strich habe ich mehr Zeit darin investiert mein Latex-Dokument zu verändern, als wenn ich in OpenOffice Verweise, Überschrift, Bildunterschriften und Bibliothekseinträge alle von Hand gemacht hätte (und dafür gibt es in Offic-Paketen auch Tools).
    Eigentlich finde ich es etwas schade, dass Latex nicht so angenehm zu verwenden ist, wie Latex-Propheten es oft versprechen. Ich hätte es gerne weiter genutzt, doch vermutlich werde ich es nicht mehr für “ernste” Sachen verwenden.

    Was mir im Podcast etwas fehlte war die Erwähnung von KOMA-Script, das vor allem für den deutschen Raum sehr sinnvoll ist. Sonst war der Podcast natürlich gut wie immer. Hat spaß gemacht zuzuhören.

  23. @Crash test dummy: Grade getestet, Linux Libertine ist in meiner Distribution (MacTeX) standardmäßig dabei. Alles was ich tun musste, war sie mit usepackage{libertine} einzubinden. Das (linux-)libertine-Paket scheint auch schon eine ganze Weile zu existieren.

    KOMA-Script wäre in der Tat eine Erwähnung wert gewesen.

  24. ich kann @crash test dummy nur zustimmen. LaTeX mit all seinen Paketen ist das unübersichtlichste und fehlerhaftest dokumentierte System, das ich kenne.

    Ich bin eigentlich ein sehr ruhiger Mensch, die LaTeX-Doku war aber der Grund, der mich in einem von zwei* Fällen gewalttätig gegen Dinge werden lies: Ich wollte einfach nur wissen, wie man den Standardfont ändert (im Jahr 2001): nach viel viel viel zu langer Suche für diese Pillepalle-Einstellung habe ich den Kopka zerrissen!

    (Was zufälligerweise zur Folge hatte, dass das Buch dann in zwei praktische und sinnfällige Teile zerfiel).

    Ein ähnlich gelagertes Problem liegt darin, dass sich die LaTeX-Gemeinde mit ihren Forenbeiträgen selbst zuspamt, womit anscheinend Google nicht umgehen kann. Ich landete regelmäßig auf schrecklich veralteten Seiten (ca. von 1999), die einfach nutz- und funktionsloses Wissen verbreiten.

    Zu einzelnen Fakten:
    * Bilder positionieren ist schlimm, richtig richtig schlimm.
    * Seitenränder einstellen kann einen an den Rand des Wahnsinns bringen.

    Zum Abschluss muss ich natürlich hinzufügen: Ich liebe LaTeX seit 15 Jahren. Aber es macht’s einem manchmal wirklich nicht leicht.

    *Falls es jemanden interessiert: der zweite Fall war ein Nadeldrucker mit schiefem Einzug; ich habe den Druckkopf mit einem Kugelschreiber zerstört, quasi geblendet, und meinen ersten Tintenstrahler gekauft.

  25. Bei dem Beispiel mit “Hallo Welt” in der Mitte der Seite hat sich Joachim geirrt. Probiert es selbst. So geht es aber:

    hsize=210mm
    vsize=297mm
    hoffset=-1in
    voffset=-1in
    nopagenumbers
    vbox tovsize{vfilcenterline{Hallo Welt.}vfil}
    bye

  26. Auch für mich war das ein lang ersehntes Wunschthema. Schön auch, das mit Joachim Schrod ein kompetenter und in der Szene bekannter Interviewpartner gefunden wurde.

    Wer jetzt immer noch nicht genug hat, der kann ja mal beim Podcast “Digitales Grundrauschen” Nr. 12 vom Januar 2009 reinhören. Dort gibt es zwei weitere Stunden zum selben Thema. Thorsten und ich wurden dort per Skype interviewt. Dadurch ist der Gesprächsfluss sicher nicht so schön wie bei Tim, aber dafür kommen noch ein paar andere Aspekte zur Sprache, auch wenn es recht große Überschneidungen gibt.

    > http://digitalesgrundrauschen.de/2009/01/digitales-grundrauschen-12-latex-auf-dem-mac/

    Ich hoffe die technische Qualität ist okay, ich selbst habe mir den Podcast nämlich noch gar nicht angehört.

  27. @max guat
    was soll am bilder positionieren so schlimm sein?
    begin{figure}[htb]
    centering
    includegraphics{deinbild.wasweißich}
    caption{Hier ist ein Bild}
    end{figure}
    und das wars dann auch positionierung funktioniert alles automatisch (latex hat da nen algo der da die optimale position findet abhängig was du statt htb angegeben hast)

    zu den rändern
    usepackage[left=0.5cm,right=0.5cm,top=1cm,bottom=1cm]{geometry}
    fertig

    schönen tag noch ;D

  28. Pingback: SchönSchriften » Hörtipp: »TeX und LaTeX« (Chaosradio Express 127)

  29. Danke! Dieser Podcast wird wohl quasi mein Leben retten. Habe heute unendlich viel Zeit mit Word für ein 20 Seiten Dokument verschwendet und versucht es zu strukturieren. Dabei fragte ich mich, was ich bei meiner Dissertation bloß machen soll (15.000 Wörter). Die Antwort habe ich nun.

  30. Wenn auch verspätet, so möchte auch ich mich für den (wieder mal) sehr guten Podcast bedankten.

    Obwohl ich LaTeX auch schon ewig (gelegentlich) nutze, hat sich mir die Verwendung von TTF/OTF auch noch nicht erschlossen. Ich habe eben mal gesucht und nicht wirklich eine Lösung gefunden, die auch nur annähernd “out of the box” funktioniert. Auf die Postings dazu wurde hier auch nicht nichts geantwortet.

    Wie geht es nun? Wie kann ich eine beliebige OTF-Font z.B. mit dem aktuellen Debian/Ubuntu (pdfTeXk, Version 3.141592-1.40.3 (Web2C 7.5.6)) verwenden?

  31. Was unbedingt erwähnenswert ist: Knuth hat nicht nur TeX “erfunden”, sondern auch den Begriff “Literate Programming” geprägt. Meiner Meinung nach ist diese Technik noch weit bedeutender als TeX und TeX selbst ist auch selbst als lesbares Programm in der WEB Sprache geschrieben, die dann sowohl in TeX Quellcode als auch nach PASCAL übersetzt werden kann.
    Ich selbst benutze CWEB für meine tägliche Arbeit (C/C++ anstatt PASCAL).
    Leider ist diese Technik unter Softwareentwicklern selbst nicht besonders bekannt aber, meiner Meinung nach, ebenso verschieden von “normaler” Programmierung, wie sich das Benutzen von TeX sich von der Benutzung von Office Tools unterscheidet.
    Wenn Ihr noch keine Sendung dazu gemacht habt (ich hab keine gefunden), dann wäre das unbedingt mal angesagt !

  32. Für die ersten Ergebnisse eignen sich LaTeX oder andere Macropakete bestimmt.
    Nach einer Eingewöhnungsphase und dem Lesen des TeXbooks, halte ich plain TeX aber für wesentlich flexibler und ebenso einfach zu bedienen wie LaTeX, obwohl ich einige TeXnichians kenne, die immer nur Macropakete benutzt haben.

  33. Bis jetzt eine sehr interessante Sendung; wenn ihr jetzt noch lernt die Wörte “Revolution” und “unwahrscheinlich” richtig zu benutzen wird alles gut!

  34. Ich habe im Podcast von Joachim gehört, dass es möglich ist XML direkt in LaTeX mittels Zusatzpaket einzugeben (ich gehe mal davon aus, dass damit gemeint war, dass der Code dann auch interpretiert wird, denn sonst wäre es ja kein feature oder?). Welches Paket ist das?

    Kann man damit auch SVG einbinden?

    Falls nicht – Gibt es eine Möglichkeit zum direkten Einbinden von SVG? (EPS, PDF,… konvertierungen sind nicht gut, da die Dateien dann zu groß werden).

    Vielen Dank schonmal jetzt

  35. Super Podcast, aber bitte informiert euch mal über die korrekte Aussprache von “Knuth”! Sehr empfehlenswert ist auch das Buch “Concrete Mathematics” von Knuth…

  36. Wow, die Sendung war genial und voll nach meinem Geschmack.

    FYI: Das TeX eine Programmiersprache ist, wurde letztes Jahr (2008) auf witzige Weise bewiesen. Da hat nämlich jemand beim Programmierwettbewerb der ICFP (den wo Andi und Hannes auch schon gewonnen haben (CRE31)) die Aufgabe in TeX gelöst :) Dafür gab’s dann auch gleich den Judges-Prize :)

    http://web.cecs.pdx.edu/~sheard/2008IcfpContest/results/

  37. Prima podcast!

    Schöne Erinnerungen an eine interessante Zeit, als man eben noch Zeit hatte z.B. Delphi Bibtex (siehe LaTeX companion 1 Aufl. 1994, S. 418) zu bauen…oder Online Bücher aus Texinfo Quellen zu basteln, die man im gewünschten Postscript Font ausdrucken konnte (The EFF’s (extended) Guide to the Internet) http://w2.eff.org/Net_culture/Net_info/EFF_Net_Guide/

    LaTex ist nutzerfreundlich, es sucht sich aber seine Nutzer selber aus, oder wie ging der Spruch noch…da ist der Unterschied nicht groß zu unix, oder?

    Briefe schreiben mit LaTeX geht natürlich. Tipp: Ich würde aber eher vorschlagen Rechnungen damit zu setzen, es gibt Firmen die haben das jahrelang getan, besonders diejenigen, die TeXperten an Bord hatten…und regelmäßig ihr Rechnungsdesign rebranden mußten.

    Und hatte mir Bernd nicht mal sein TUG paper für die EuroTeX ’94 zugeschickt, Titel “Sorting in TeX’s mouth?” Hmm, müßte ich mal im Backup wühlen…ja, in TeX kann man programmieren und die echten Details lesen sich dann so (excerpt aus Bernds paper, mit seinem TExt und meinem Kommentar):

    [..]
    Comparing macros and macro expansion with procedures or functions in a
    procedural programming language, it is important to note that tokens
    building the arguments of a macro are stress{not} expanded at the
    time the macro is expanded.
    % %-) Ahhhh, ja! -joke

    At first glance, the restriction to mouth processing seems to be
    necessary only for expert TeX users writing some high-level macros
    using low-level macros and primitives. Thinking of a LaTeX
    beginner who needs to insert verb+protect+ in some obscure places,
    it seems that the complex interactions between TeX’s eyes, its mouth and the stomach cannot be hidden from ordinary users.
    [..]

    Alles klar? Das ganze Paper, wie man Quicksort in TeX implementiert gibt es als Scientific Commons, hier:
    http://en.scientificcommons.org/42647626

    Hmm, ich sehe das fertige Paper zum erstenmal, aber Bernd hat mich tatsächlich in den Acks erwähnt…dafür nachträglich: vielen Dank!

    Have fun, -joke

    “What do you care what other people think?” -Richard P. Feynman

  38. Super, Tim und Johnny! Da wird das S-Bahnfahren richtig kurzweilig :-).

    @frosch03: TeX ist nicht nur eine Programmiersprache, mit TeX kann man auch andere Programmiersprachen implementieren, was schon deutlich früher als 2008 gezeigt wurde:

    Unter http://www.ctan.org/tex-archive/macros/generic/basix findet man einen BASIC-Interpreter namens basix aus dem Jahr 1990.

    In TUGboat 11/2 (Juni 1990) findet man außerdem den Artikel “Lists in TeX’s Mouth” von Alan Jeffrey (die Makros und die Artikelquelle findet man unter http://www.ctan.org/tex-archive/macros/plain/contrib/lambda/), in dem dieser zeigt, dass man nur mit TeXs Makroprozessor eine Turing-Maschine implementieren kann.

    Viele Grüße,
    -bernd

  39. @Mario: Das TikZ-Paket unterstützt in der Entwicklerversion einen (sehr) geringen Teil der SVG-Syntax (IIRC gehen SVG-Pfade, ich weiß nicht, ob es noch mehr Features unterstützt). Generell würde ich Deine Frage nach nativem SVG in TeX trotzdem verneinen, aber wenn Du daran interessiert bist, kannst Du ja die Entwicklung verfolgen. Aktuelle TikZ-Pakete (Entwicklerversion) und Doku findest Du auf http://www.texample.net.

    Gruß, Chris

  40. Tolle Sendung/Tolles Gespräch!

    Besonders spannend fand ich auch die Überlegungen Richtung tex2web.

    Was mir beim hören leider auch ziemlich schnell aufgefallen ist, dass der Schwierigkeitsgrad von LaTeX in der Praxis doch ziemlich unter den Teppich gekehrt wurde. (Kann es Aufgabe X? Ja, mit Paket Y ist das kein Problem.) Aber das ist ein Stückweit wohl unüberwindbare Betriebsblindheit. Kann man nach den paar Jährchen Auseinandersetzung natürlich verstehen. ;)
    Aber wie gesagt: Tolle Sendung! Surfe gleich mal nen paar der Links ab.

  41. Mittlerweile hab ich den Podcast angehört. Ganz nett, leider spricht Joachim teilweise ziemlich hektisch, was irgendwie den Gedankenfluß teilweise etwas schwieriger zu erfassen macht und so ganz nebenbei etwas anstrengender zuzuhören ist, vor allem wenn man das beim Laufen hört. Und ein paar angefangene Erklärungen sind da leider auch untergegangen.

    Gefehlt hat mir eine klare Abgrenzung zwischen Textverarbeitung und Satzsystem, was ja auch für das LaTeX-HTML-Problem nicht uninteressant ist. tex4html ist grausam, htlatex dagegen recht gut und produziert (abgesehen davon dass eine Website halt ein total anderes Medium ist wie ein Stück Papier und der wirklich kryptischen Konfiguration von htlatex) mMn. sehr brauchbaren Output.

  42. Pingback: Jürgen Fenn (juergenfenn) 's status on Sunday, 05-Jul-09 21:44:13 UTC - Identi.ca

  43. Ja… Hallo Tim,
    heute hab ich mir mal die volle Dröhnung CRE verpasst.
    Erst die Raumfahrt, dann TeX und letzt endlich die längst überfälligen Internet-Meme.

    Ja was soll man da sagen… wie immer SUPER Sendungen.
    Ich denke ich werd mich mal näher mit TeX und co. beschäftigen müssen *Grins*

    Auf dann, bis zum nächsten CRE

    Tig3rch3n

  44. Tolle Sendung wie fast immer. Habe mich allerdings gewundert, das Wort pdfLaTeX nirgendwo gehört zu haben. Sollte das nicht einige Erweiterungen (standardmäßiger pdf-output, Möglichkeit von jpg-Bildern als Import) im Vergleich zu LaTeX haben und dieses ersetzen?

  45. Ich wollte auch nochmal eine Lanze fuer plain TeX brechen, andere haben das ja auch schon getan, aber mir fehlen noch ein paar Aspekte: Was ihr als plain TeX beschreibt, ist eher der Satz der built-ins von initex. Plain TeX ist auch schon ein Makropaket, das auch schon recht maechtig ist, aber in der Tat keine Semantik versteht.

    Bezeichnend ist daher grade einer der Fehler in der zentrierten hello world version: Euer Beispiel haette eine 1 unten als Seitenzahl gehabt, auch wenn Tim Seitenzahlen erst in LaTeX haben wollte.

    Ich selber muss gestehen, dass ich, wenn ich die Wahl habe, viel lieber plain- als La-TeX benutze, da ich da dann das Gefuehl einer viel besseren Kontrolle ueber die Ausgabe habe, unter anderem habe ich Diplomarbeit und Diss so geschrieben. Natuerlich hat sich da ueber die Jahre auch schon eine recht umfangreiche Datei mit eigenen Makros angesammelt und natuerlich habe ich selber welche fuer Ueberschriften, Kapitel etc.

    Der eigentliche Vorteil ist doch aber, das plain durch das TeXbook definiert ist und man im Zweifelsfall dort alles nachschlagen kann (auch wenn man ggf eine Weile braucht, um zu verstehen, was da steht, insbesondere, wenn zwei dangerous bends vor dem Absatz stehen). Fuer LaTeX gibt es kein entsprechendes Dokument, der Companion erklaert zwar vieles, ist aber auf keinen Fall Referenz oder gar Definition. Ich weiss nicht, wie oft ich schon an einem LaTeX-Problem so verzweifelt bin, bis nur noch “Read the Source, Luke” half.

    Zum Thema Spiele, die in TeX geschrieben sind, glaube ich mich an ein in TeX implementiertes game of life zu erinnern, kann es aber mit google-Hilfe nicht mehr finden.

  46. @Tim, evtl. wäre ein CRE über GNU Texinfo ganz sinnvoll, und eine Gegenüberstellung LaTeX vs Texinfo? Wäre aber vmtl. zu “hardcore,” und wer mit den LaTeX STYles spielt nutzt/erweitert sie dann eh in plaintex.

    Und Texinfo versucht eben den Spagat zu schaffen zwischen sinnvoller Bildschirmdarstellung und “schönem” Manual aus dem Laserdrucker. Was mittesl LaTex auch via LaTeX2HTML nur zu bedingt schönen Ergebnissen führt.

    have fun, -joke

  47. Hallo,

    bzgl. parallelem Output nach HTML und LaTeX.

    habe für meine Diplomarbeit vor einigen Jahren tbook verwendet (http://tbookdtd.sourceforge.net/).
    Die Diplomarbeit habe ich in einer so Art XML geschrieben (tbook XML eben), welche sehr stark an die LaTeX Syntax angelegt ist.
    Anschließend wird das Ganze über XML Stylesheets entweder nach HTML oder nach LaTeX übergeführt.

    Habe damit eig. ganz gute Erfahrungen gemacht, auch wenn es beim Formel setzten die eine oder andere Schwierigkeit gab.

    Das coole war sicher die Qualität des HTML Outputs, welche im Falle von Formeln über vorgerenderte eingebettete PNG Files funktionierte.

    Lg

    Gregor

  48. Tolle Sendung mit interessantem Thema.

    Kam mit LaTeX erst vor einem Jahr in Berührung als ich die Bachelorarbeit schreiben musste. Der Anfang war sehr anstrengend, aber jetzt benutze ich es gerne für längere Arbeiten oder Protokolle.

    mfg

  49. Sehr schöne und interessante Sendung. Ich kenne einige Leute, die behaupten, daß LaTeX irgenwas prähistorisches sei und daß man heute ja nur Wysiwyg-Office-programme zum wissenschaftlichen arbeiten nehmen würde. Da kann ich immer nur mit dem Kopf schütteln und frage mich, wie solche Leute ernsthaft wissenschaftliche Artikel ohne LaTeX schreiben können.

    Allerdings würde ich gerne der Behauptung widersprechen, daß man heutzutage vor allem Lyx oder Emacs mit Eingabehilfen benutzen würde. Das kann ich so nicht nachvollziehen. In meinem gesamten Umfeld (Uni und außeruniv. Forschungsinstitut) kenne ich keinen, der Lyx benutzt (diejenigen, die es nutzen wollten, haben schnell wieder die Finger davon gelassen). Und diejenigen, die Emacs nutzen, schreiben die LaTeX-Funktionen immer per Hand hin.

  50. Hab noch was vergessen: ich bevorzuge die Ausgabe als dvi-File, da sich der DVI-Betrachter automatisch aktualisiert. Bei der ausgabe als PDF muß man ja jedesmal erst Acrobat Reader neu starten wenn mann Änderungen sehen will. Daher kann ich die Aussage, daß heute “keiner mehr dvi benutzen” würde, nicht nachvollziehen.

  51. Was ich nicht verstehe:
    Wieso schaffen es moderne WYSIWYG-Textverarbeitungen nicht, ein ähnlich gutes Schriftbild zu Papier zu bringen wie LaTeX. Was Openoffice und MS-Word da abliefern ist im Vergleich zu LaTeX unterirdisch!

  52. Sehr schönes CRE, war sehr informativ.
    Was ich mich beim hören allerdings mal gefragt habe ist Scribus nicht auch so was?
    Wenn nicht, wäre bestimmt auch mal ein CRE wert.

  53. Ich muss immer wieder automatisiert Angebote, Kundenliste etc. erzeugen. Ich habe schon viel probiert, aber zum Schluss bleibt immer wieder nur Latex übrig, auch wenn die Dokumente nicht so schön aufzubereiten sind wie ich mir das wünschen würde.

    Die Sendung hat mir den Mut gegeben mich mal wieder mit frohen Mutes dem Thema zu nähern und es hat recht schön geklappt. Mutmachersendung! Das es eine Alternative zu Latex gibt war mir neu, fand ich spannend.

  54. @pucicu: Es gibt zahlreiche PDF-Reader, die das automatische Neuladen bei Veränderungen des Dokuments beherrschen. Ich benutze unter Linux evince und unter Windows (auf Arbeit) kpdf, Du kannst ja mal hier schauen, ob da was für Dich dabei ist: http://www.pdfreaders.org/

    @cg: Die Office-Programme müssen bei jedem eingegebenen Zeichen den Umbruch berechnen, um direkt eine Bildschirmdarstellung ausgeben zu können. Um das halbwegs schnell machen zu können, bleibt nur ein einfacher Algorithmus (etwa: bin ich schon am Zeilenende ? Zeilenumbruch : kein Zeilenumbruch; oder so). TeX setzt jeden Absatz bis zu 3 mal mit wesentlich aufwendigeren Algorithmen, wenn daraus nach jedem eingegebenen Zeichen eine Bildschirmdarstellung abgeleitet werden müsste, wäre das selbst auf aktuellen Rechnern vergleichsweise langsam (na ja, käme auf einen Versuch an). Außerdem würde der Umbruch ständig »springen«, da TeX den ganzen Absatz zur Umbruchberechnung einbezieht und jedes weitere eingegebene oder korrigierte Zeichen auch Auswirkungen »weiter oben« hat.

  55. Pingback: CRE 127, Eitan M. Gurari, Detexify^2, TeXworks, TeX Live 2009, MacTeX, PDF-Tools, KOMA-Script, Memoir, l2kurz auf Persisch, LuaTeX, ConTeXt, Zotero, Zeitschriftenbeiträge « TeX & Friends

  56. Beim automatischen Generieren von LaTeX-Code sollte man erwähnen, dass ein sauberes Escaping sehr schwierig ist.

    Während man HTML/XML mit 4 bzw. 5 Zeichen sauber escapen kann, ist das in LaTeX deutlich komplexer. Ich habe inzwischen ein recht ausgefeiltes Escaping entwickelt, würde aber meine Hand nicht dafür ins Feuer legen, dass mein Escaping wirklich vollständig ist.

    Hier schaffen jedoch xmltex / pdfxmltex Abhilfe. Das heißt, man generiert XML statt LaTeX, und hat dann eine separate LaTeX-Datei (*.xmt), in der man festlegt, wie die XML-Elemente und -Attribute nach LaTeX zu übersetzen sind.

  57. Ich habe erst jetzt die Zeit gefunden diesen Beitrag zu hören; einfach klasse. Aber vermisst habe ich einen Blick über den Tellerrand, z.B. zum Docbook Format. Die letzten 10 bis 15 Minuten hatte ich gehofft, dass noch was kommt, da der FO-Interpreter von Apache angerissen wurde.
    Ich denke mal, dass Docbook hier ein wenig die Nase vorn hat. Als XML-Vertreter mit der entsprechenden Dokumenten-Typ-Definition (Docbook), werden Dokumente (Bücher und Artikel) genauso semantisch erstellt, wie bei Latex. Die Weiterverarbeitung ist allerdings aus meiner Sicht wesentlich einfacher. Durch die standardisierte XML-Grundstruktur und für die Weiterverarbeitung genutzten XSLTs (Stylesheets) werden in wenigen Sekunden PDF-Dokumente, Webseiten und andere Zielformate übersetzt.
    Das Setzen des Textes wird hier allerdings durch ein Stylesheet übernommen; ob dies nun besser wird als bei Latex kann ich nicht beurteilen. Die Ergebnisse können sich aber sehen lassen und haben alle Vorteile wie bei Latex auch, was z.B. das Erstellen von automatischen Inhalts- und Bilder-Verzeichnissen sowie Indizes angeht. Auch entsprechende Editoren gibt es mittlerweile; ebenfalls auch nur für Autoren, die sich nicht unbedingt mit der XML-Syntax beschäftigen wollen. Vielleicht ist es interessant mal Docbook als Ergänzung zum Tex/Latex-Thema zu betrachten, wo mal gegenübergestellt wird, wo was besser oder schlechter funktioniert?

  58. Von wegen Heiliger Gral: die Syntax von TeX ist so unregelmäßig und unintuitiv daß ich jederzeit XSL-FO vorziehen würde, gäbe es nur vernünftige Implementationen.

  59. Wer weis ob das jemand liest- eine gnadenlos tolle Sendung. Aber das Lied schon am Anfang… genial! Von wen ist das nur???

    Toll – weiter so – Tim ohne dich wären wir noch im Mitelalte °<° naja jedenfalle vom Wissen

  60. Pingback: ypid

  61. Auch Jahre später erfreut dieser Podcast noch die Menschheit :) Da kommt mir natürlich sofort die Frage in den Sinn: Hast du dich mittlerweile in TeX eingearbeitet, Tim? Berichte doch! :)

Add Comment Register

Hinterlasse eine Antwort

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *

Du kannst folgende HTML-Tags benutzen: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <strike> <strong>