12.14 Tokenizer
12.14.1 StreamTokenizer
Die Klasse StreamTokenizer aus dem io-Paket arbeitet noch spezialisierter als die StringTokenizer-Klasse aus dem util-Paket. Denn im Gegensatz zum StringTokenizer arbeitet ein StreamTokenizer nicht auf Strings, sondern auf einem Datenstrom, genauer gesagt, einem Reader1. Damit greifen wir schon einmal ein Stückchen in Richtung Datenverarbeitung vor.
Während des Parsens werden bestimmte Merkmale aus dem Text erkannt, so unter anderem Bezeichner (etwa Schlüsselworte), Zahlen, Strings in Anführungszeichen und verschiedene Kommentararten (C-Stil oder C++-Stil). Verschiedene Java-Tools von Sun verwenden intern einen StreamTokenizer, um ihre Eingabedateien zu verarbeiten, etwa das Policy-Tool für die Rechteverwaltung. Der Erkennungsvorgang wird anhand einer Syntaxtabelle überprüft. Diese Tabelle enthält zum Beispiel die Zeichen, die ein Schlüsselwort identifizieren, oder die Zeichen, die Trennzeichen sind. Jedes gelesene Zeichen wird dann keinem, einem oder mehreren Attributen zugeordnet. Diese Attribute fallen in die Kategorie Trennzeichen, alphanumerische Zeichen, Zahlen, Hochkomma- beziehungsweise Anführungszeichen oder Kommentarzeichen.
Zur Benutzung der Klasse wird zunächst ein StreamTokenizer-Objekt erzeugt, und dann werden die Syntaxtabellen initialisiert. Ob Kommentarzeilen überlesen werden sollen, wird durch
st.slashSlashComments( true ); // Kommentar
st.slashStarComments( true ); /* Kommentar */
gesteuert. Die erste Methode überliest im Eingabestrom alle Zeichen bis zum Return. Die zweite Methode überliest nur alles bis zum Stern/Slash. Geschachtelte Kommentare sind hier nicht möglich.
Beim Lesen des Datenstroms mit nextToken() kann über bestimmte Flags erfragt werden, ob im Stream ein Wort beziehungsweise Bezeichner (TT_WORD), eine Zahl (TT_NUMBER), das Ende der Datei (TT_EOF) oder das Ende der Zeile (TT_EOL) vorliegt. Wichtig ist, eolIsSignificant(true) zu setzen, da andernfalls der StreamTokenizer nie ein TT_EOL findet. Wurde ein Wort erkannt, dann werden alle Zeichen in Kleinbuchstaben konvertiert. Dies lässt sich über die Methode lowerCaseMode(boolean) einstellen. Nach der Initialisierung eines StreamTokenizer-Objekts wird normalerweise so lange nextToken() aufgerufen, bis die Eingabe keine neuen Zeichen mehr hergibt, also ein TT_EOF-Token erkannt wurde.
Beispiel Die folgende Klasse liest die Eingabe aus einer Datei und gibt die erkannten Textteile aus:
|
Listing 12.43 StreamTokenizerDemo.java
import java.io.*;
class StreamTokenizerDemo
{
public static void main( String args[] ) throws IOException
{
String fn = "StreamTokenizerDemo.java";
StreamTokenizer st = new StreamTokenizer(
new FileReader(fn) );
// st.slashSlashComments( true ); */
st.slashStarComments( true );
st.ordinaryChar( '/' );
st.parseNumbers();
st.eolIsSignificant( true );
for ( int tval; (tval = st.nextToken()) != StreamTokenizer.TT_EOF; )
{
if ( tval == StreamTokenizer.TT_NUMBER )
System.out.println( "Nummer: " + st.nval );
else if ( tval == StreamTokenizer.TT_WORD )
System.out.println( "Wort: " + st.sval );
else if ( tval == StreamTokenizer.TT_EOL )
System.out.println( "Ende der Zeile" );
else
System.out.println( "Zeichen: " + (char) st.ttype );
}
}
}
Die Ausgabe des Programms beginnt wie folgt:
Zeichen: /
Zeichen: /
Wort: Version
Nummer: 1.1
Ende der Zeile
Ende der Zeile
Wort: import
Wort: java.io.
Zeichen: *
Zeichen: ;
Ende der Zeile
Ende der Zeile
Wort: class
Wort: StreamTokenizerDemo
Ende der Zeile
Zeichen: {
Ende der Zeile
Wort: public
class java.io.StreamTokenizer
|
|
StreamTokenizer( Reader r )
Erzeugt einen Tokenizer, der den Datenstrom zerlegt. Der Konstruktor, der das Ganze auch mit einem InputStream macht, ist veraltet. |
|
void resetSyntax()
Reinitialisiert die Syntaxtabelle des Tokenizers, so dass kein Zeichen eine Sonderbehandlung genießt. Mit ordinaryChar() lässt sich das Verhalten eines Zeichen bestimmen. |
|
void wordChars( int low, int hi )
Zeichen im Bereich von low <= c <= high werden als Bestandteile von Wörtern erkannt, dementsprechend zusammengefasst und als Word-Token übergeben. |
|
void whitespaceChars( int low, int hi )
Zeichen im Bereich von low <= c <= high werden als Trennzeichen erkannt. |
|
void ordinaryChars( int low, int hi )
Zeichen im Bereich von low <= c <= high genießen keine Sonderbehandlung und werden als normale Zeichen einzeln behandelt. |
|
void ordinaryChar( int ch )
Das Zeichen besitzt keine zusätzliche Funktion, ist zum Beispiel kein Kommentarzeichen, Trennsymbol oder Nummernzeichen. Spezialform für ordinaryChars(ch, ch). |
|
void parseNumbers()
Zahlen (Zahl-Literale) sollen vom Tokenizer erkannt werden. In der Syntaxtabelle gelten die zwölf Zeichen 0, 1, 2, 3, 4, 5, 6, 7, 8, 9, ., - als numerisch. Liegt eine Ganz- oder Fließkommazahl vor, so wird der Zahlenwert in nval abgelegt und das Token ergibt im Attribut ttype den Wert TT_NUMBER. |
|
void commentChar( int ch )
Gibt das Zeichen an, welches einen einzeiligen Kommentar einleitet. Alle nachfolgenden Zeichen werden dann bis zum Zeilenende ignoriert. So ließen sich beispielsweise FORTRAN-Kommentare nach commentChar( 'C' ) überlesen. |
|
void slashStarComments( boolean flag )
Der Tokenizer soll Kommentare im C-Stil (/* Müll */) erkennen oder nicht. |
|
void slashSlashComments( boolean flag )
Der Tokenizer soll Kommentare im C++-Stil (// Zeile ) erkennen oder nicht. |
|
void lowerCaseMode( boolean fl )
Liegt in ttype ein Token vom Typ TT_WORD vor, so wird dies automatisch in Kleinschreibweise konvertiert, falls fl gleich true ist. |
|
int nextToken() throws IOException
Liefert das nächste Token im Datenstrom. Der Typ des Tokens wird im Attribut ttype hinterlegt. Zusätzliche Informationen befinden sich im Attribut nval (Nummer) oder sval (Zeichenkette). In der Regel wird so lange geparst, bis das Token TT_EOF zurückgegeben wird. |
|
void pushBack()
Legt das aktuelle Token in den Eingabestrom zurück. Ein Aufruf von nextToken() liefert erneut den aktuellen Wert im Attribut ttype und ändert nval oder sval nicht. |
|
int lineno()
Liefert die aktuelle Zeilennummer in der Eingabedatei. |
Konsoleneingaben über StreamTokenizer einlesen
Da der StreamTokenizer mit nextToken() Zeichenketten liefert, können wir ihn mit dem Standardeingabestrom des Betriebssystems System.in initialisieren und anschließend von der Konsole in dem Attribut in.sval eingegebene Strings auslesen. So lassen sich Eingaben einfach verarbeiten.
StreamTokenizer in = new StreamTokenizer( System.in );
System.out.print( "Wie heißt du? ");
in.nextToken();
System.out.println( "Hallo " + in.sval );
Erweitern und Schwächen
Obwohl die nextToken()-Funktion eine ganze Menge an Konvertierungen durchführt, erkennt sie keine in der Exponentialdarstellung geschriebenen Zahlen. Bei einer Gleitkommazahl wie -31.415E-1 versagt die Konvertierung und liefert nur -31.415 als Token vom Typ TT_NUMBER. Da StreamTokenizer nicht final ist, kann jedoch jeder die Klasse so erweitern, dass sie zum Beispiel TT_FLOAT_NUMBER bei einer Gleitkommazahl liefert. Dazu ist die öffentliche Funktion nextToken() zu überschreiben und vielleicht auch noch toString(). Die Erweiterung von nextToken() erfordert jedoch etwas Arbeit, da das Original ein wenig unübersichtlich ist.
12.14.2 CSV (Comma Separated Values)-Dateien verarbeiten
Eine CSV-Datei bildet die Zeilen und Spalten einer Tabelle in einer ASCII-Datei ab. Die Zellen sind dabei durch einem Komma oder einem anderen Trennzeichen separiert. Texte können in Anführungszeichen gesetzt werden, um etwa Leerzeichen zu berücksichtigen.
Rodney,King,"Fahrer"
Bryant,Allen,"Gast auf dem Rücksitz"
Auch MS Excel kann Tabellen in das CSV-Format exportieren, nutzt aber in der deutschen Version als Trenner ein Semikolon - CSV wird bei MS also zu einer sprachabhängigen Datei. (Außer, der Export wird über ein englischsprachiges Makro angestoßen. Da ist es wieder ein Komma.) In der ersten Zeile stehen die Tabellenköpfe.
Sollten CSV-Dateien in Java verarbeitet werden, fällt spontan die Klasse StringTokenizer auf. Doch sie ist zum Einlesen nicht besonders gut geeignet. Welches Trennsymbol sollte gewählt werden? Sicherlich das Semikolon. Doch was ist, wenn dieses im Text vorkommt. Dann wird der Text in zwei Tokens aufgeteilt, was falsch ist. Des Weiteren kann der Java StringTokenizer nicht mit Leerstrings umgehen, also auf Zeilenfolgen wie ;; im Datenstrom reagieren; er würde sie überlesen, aber nicht "" zurückgeben.
StringTokenizer hilft hier nicht weiter, aber eine Bibliothek von Stephen Ostermiller unter http://ostermiller.org/utils/CSV.html. Mit dem CSVParser lassen sich leicht CSV-Dateien einlesen, und er behandelt auch Fluchtsymbole korrekt.
CSVParser csvParser = new CSVParser( FileInputStream("datei.csv") );
for ( String t; (t = csvParser.nextValue()) != null; )
System.out.println( csvParser.lastLineNumber() + " " + t );
1 Die Klasse InputStream sollte nicht mehr verwendet werden, da sie nur auf Bytes und nicht auf Unicode-Zeichen arbeitet. Doch beachtet ein StreamTokenizer sowieso keine Unicode-Eingabe, sondern nur Zeichen aus dem Bereich von \u0000 bis \u00FF.
|