]> de.git.xonotic.org Git - xonotic/gmqcc.git/blob - lexer.c
manpage: -Wuninitialized-constant -Wuninitialized-global
[xonotic/gmqcc.git] / lexer.c
1 /*
2  * Copyright (C) 2012
3  *     Wolfgang Bumiller
4  *
5  * Permission is hereby granted, free of charge, to any person obtaining a copy of
6  * this software and associated documentation files (the "Software"), to deal in
7  * the Software without restriction, including without limitation the rights to
8  * use, copy, modify, merge, publish, distribute, sublicense, and/or sell copies
9  * of the Software, and to permit persons to whom the Software is furnished to do
10  * so, subject to the following conditions:
11  *
12  * The above copyright notice and this permission notice shall be included in all
13  * copies or substantial portions of the Software.
14  *
15  * THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS OR
16  * IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF MERCHANTABILITY,
17  * FITNESS FOR A PARTICULAR PURPOSE AND NONINFRINGEMENT. IN NO EVENT SHALL THE
18  * AUTHORS OR COPYRIGHT HOLDERS BE LIABLE FOR ANY CLAIM, DAMAGES OR OTHER
19  * LIABILITY, WHETHER IN AN ACTION OF CONTRACT, TORT OR OTHERWISE, ARISING FROM,
20  * OUT OF OR IN CONNECTION WITH THE SOFTWARE OR THE USE OR OTHER DEALINGS IN THE
21  * SOFTWARE.
22  */
23 #include <stdio.h>
24 #include <stdlib.h>
25 #include <string.h>
26 #include <stdarg.h>
27
28 #include "gmqcc.h"
29 #include "lexer.h"
30
31 /*
32  * List of Keywords
33  */
34
35 /* original */
36 static const char *keywords_qc[] = {
37     "for", "do", "while",
38     "if", "else",
39     "local",
40     "return",
41     "const"
42 };
43 static size_t num_keywords_qc = sizeof(keywords_qc) / sizeof(keywords_qc[0]);
44
45 /* For fte/gmgqcc */
46 static const char *keywords_fg[] = {
47     "switch", "case", "default",
48     "struct", "union",
49     "break", "continue",
50     "typedef",
51     "goto",
52
53     "__builtin_debug_printtype"
54 };
55 static size_t num_keywords_fg = sizeof(keywords_fg) / sizeof(keywords_fg[0]);
56
57 /*
58  * Lexer code
59  */
60
61 char* *lex_filenames;
62
63 void lexerror(lex_file *lex, const char *fmt, ...)
64 {
65     va_list ap;
66
67     va_start(ap, fmt);
68     if (lex)
69         con_vprintmsg(LVL_ERROR, lex->name, lex->sline, "parse error", fmt, ap);
70     else
71         con_vprintmsg(LVL_ERROR, "", 0, "parse error", fmt, ap);
72     va_end(ap);
73 }
74
75 bool lexwarn(lex_file *lex, int warntype, const char *fmt, ...)
76 {
77     bool    r;
78     lex_ctx ctx;
79     va_list ap;
80
81     ctx.file = lex->name;
82     ctx.line = lex->sline;
83
84     va_start(ap, fmt);
85     r = vcompile_warning(ctx, warntype, fmt, ap);
86     va_end(ap);
87     return r;
88 }
89
90
91 #if 0
92 token* token_new()
93 {
94     token *tok = (token*)mem_a(sizeof(token));
95     if (!tok)
96         return NULL;
97     memset(tok, 0, sizeof(*tok));
98     return tok;
99 }
100
101 void token_delete(token *self)
102 {
103     if (self->next && self->next->prev == self)
104         self->next->prev = self->prev;
105     if (self->prev && self->prev->next == self)
106         self->prev->next = self->next;
107     MEM_VECTOR_CLEAR(self, value);
108     mem_d(self);
109 }
110
111 token* token_copy(const token *cp)
112 {
113     token* self = token_new();
114     if (!self)
115         return NULL;
116     /* copy the value */
117     self->value_alloc = cp->value_count + 1;
118     self->value_count = cp->value_count;
119     self->value = (char*)mem_a(self->value_alloc);
120     if (!self->value) {
121         mem_d(self);
122         return NULL;
123     }
124     memcpy(self->value, cp->value, cp->value_count);
125     self->value[self->value_alloc-1] = 0;
126
127     /* rest */
128     self->ctx = cp->ctx;
129     self->ttype = cp->ttype;
130     memcpy(&self->constval, &cp->constval, sizeof(self->constval));
131     return self;
132 }
133
134 void token_delete_all(token *t)
135 {
136     token *n;
137
138     do {
139         n = t->next;
140         token_delete(t);
141         t = n;
142     } while(t);
143 }
144
145 token* token_copy_all(const token *cp)
146 {
147     token *cur;
148     token *out;
149
150     out = cur = token_copy(cp);
151     if (!out)
152         return NULL;
153
154     while (cp->next) {
155         cp = cp->next;
156         cur->next = token_copy(cp);
157         if (!cur->next) {
158             token_delete_all(out);
159             return NULL;
160         }
161         cur->next->prev = cur;
162         cur = cur->next;
163     }
164
165     return out;
166 }
167 #else
168 static void lex_token_new(lex_file *lex)
169 {
170 #if 0
171     if (lex->tok)
172         token_delete(lex->tok);
173     lex->tok = token_new();
174 #else
175     if (lex->tok.value)
176         vec_shrinkto(lex->tok.value, 0);
177     lex->tok.constval.t  = 0;
178     lex->tok.ctx.line = lex->sline;
179     lex->tok.ctx.file = lex->name;
180 #endif
181 }
182 #endif
183
184 lex_file* lex_open(const char *file)
185 {
186     lex_file *lex;
187     FILE *in = file_open(file, "rb");
188
189     if (!in) {
190         lexerror(NULL, "open failed: '%s'\n", file);
191         return NULL;
192     }
193
194     lex = (lex_file*)mem_a(sizeof(*lex));
195     if (!lex) {
196         file_close(in);
197         lexerror(NULL, "out of memory\n");
198         return NULL;
199     }
200
201     memset(lex, 0, sizeof(*lex));
202
203     lex->file = in;
204     lex->name = util_strdup(file);
205     lex->line = 1; /* we start counting at 1 */
206
207     lex->peekpos = 0;
208     lex->eof = false;
209
210     vec_push(lex_filenames, lex->name);
211     return lex;
212 }
213
214 lex_file* lex_open_string(const char *str, size_t len, const char *name)
215 {
216     lex_file *lex;
217
218     lex = (lex_file*)mem_a(sizeof(*lex));
219     if (!lex) {
220         lexerror(NULL, "out of memory\n");
221         return NULL;
222     }
223
224     memset(lex, 0, sizeof(*lex));
225
226     lex->file = NULL;
227     lex->open_string        = str;
228     lex->open_string_length = len;
229     lex->open_string_pos    = 0;
230
231     lex->name = util_strdup(name ? name : "<string-source>");
232     lex->line = 1; /* we start counting at 1 */
233
234     lex->peekpos = 0;
235     lex->eof = false;
236
237     vec_push(lex_filenames, lex->name);
238
239     return lex;
240 }
241
242 void lex_cleanup(void)
243 {
244     size_t i;
245     for (i = 0; i < vec_size(lex_filenames); ++i)
246         mem_d(lex_filenames[i]);
247     vec_free(lex_filenames);
248 }
249
250 void lex_close(lex_file *lex)
251 {
252     size_t i;
253     for (i = 0; i < vec_size(lex->frames); ++i)
254         mem_d(lex->frames[i].name);
255     vec_free(lex->frames);
256
257     if (lex->modelname)
258         vec_free(lex->modelname);
259
260     if (lex->file)
261         file_close(lex->file);
262 #if 0
263     if (lex->tok)
264         token_delete(lex->tok);
265 #else
266     vec_free(lex->tok.value);
267 #endif
268     /* mem_d(lex->name); collected in lex_filenames */
269     mem_d(lex);
270 }
271
272 static int lex_fgetc(lex_file *lex)
273 {
274     if (lex->file)
275         return fgetc(lex->file);
276     if (lex->open_string) {
277         if (lex->open_string_pos >= lex->open_string_length)
278             return EOF;
279         return lex->open_string[lex->open_string_pos++];
280     }
281     return EOF;
282 }
283
284 /* Get or put-back data
285  * The following to functions do NOT understand what kind of data they
286  * are working on.
287  * The are merely wrapping get/put in order to count line numbers.
288  */
289 static void lex_ungetch(lex_file *lex, int ch);
290 static int lex_try_trigraph(lex_file *lex, int old)
291 {
292     int c2, c3;
293     c2 = lex_fgetc(lex);
294     if (c2 != '?') {
295         lex_ungetch(lex, c2);
296         return old;
297     }
298
299     c3 = lex_fgetc(lex);
300     switch (c3) {
301         case '=': return '#';
302         case '/': return '\\';
303         case '\'': return '^';
304         case '(': return '[';
305         case ')': return ']';
306         case '!': return '|';
307         case '<': return '{';
308         case '>': return '}';
309         case '-': return '~';
310         default:
311             lex_ungetch(lex, c3);
312             lex_ungetch(lex, c2);
313             return old;
314     }
315 }
316
317 static int lex_try_digraph(lex_file *lex, int ch)
318 {
319     int c2;
320     c2 = lex_fgetc(lex);
321     /* we just used fgetc() so count lines
322      * need to offset a \n the ungetch would recognize
323      */
324     if (!lex->push_line && c2 == '\n')
325         lex->line++;
326     if      (ch == '<' && c2 == ':')
327         return '[';
328     else if (ch == ':' && c2 == '>')
329         return ']';
330     else if (ch == '<' && c2 == '%')
331         return '{';
332     else if (ch == '%' && c2 == '>')
333         return '}';
334     else if (ch == '%' && c2 == ':')
335         return '#';
336     lex_ungetch(lex, c2);
337     return ch;
338 }
339
340 static int lex_getch(lex_file *lex)
341 {
342     int ch;
343
344     if (lex->peekpos) {
345         lex->peekpos--;
346         if (!lex->push_line && lex->peek[lex->peekpos] == '\n')
347             lex->line++;
348         return lex->peek[lex->peekpos];
349     }
350
351     ch = lex_fgetc(lex);
352     if (!lex->push_line && ch == '\n')
353         lex->line++;
354     else if (ch == '?')
355         return lex_try_trigraph(lex, ch);
356     else if (!lex->flags.nodigraphs && (ch == '<' || ch == ':' || ch == '%'))
357         return lex_try_digraph(lex, ch);
358     return ch;
359 }
360
361 static void lex_ungetch(lex_file *lex, int ch)
362 {
363     lex->peek[lex->peekpos++] = ch;
364     if (!lex->push_line && ch == '\n')
365         lex->line--;
366 }
367
368 /* classify characters
369  * some additions to the is*() functions of ctype.h
370  */
371
372 /* Idents are alphanumberic, but they start with alpha or _ */
373 static bool isident_start(int ch)
374 {
375     return isalpha(ch) || ch == '_';
376 }
377
378 static bool isident(int ch)
379 {
380     return isident_start(ch) || isdigit(ch);
381 }
382
383 /* isxdigit_only is used when we already know it's not a digit
384  * and want to see if it's a hex digit anyway.
385  */
386 static bool isxdigit_only(int ch)
387 {
388     return (ch >= 'a' && ch <= 'f') || (ch >= 'A' && ch <= 'F');
389 }
390
391 /* Append a character to the token buffer */
392 static void lex_tokench(lex_file *lex, int ch)
393 {
394     vec_push(lex->tok.value, ch);
395 }
396
397 /* Append a trailing null-byte */
398 static void lex_endtoken(lex_file *lex)
399 {
400     vec_push(lex->tok.value, 0);
401     vec_shrinkby(lex->tok.value, 1);
402 }
403
404 static bool lex_try_pragma(lex_file *lex)
405 {
406     int ch;
407     char *pragma  = NULL;
408     char *command = NULL;
409     char *param   = NULL;
410     size_t line;
411
412     if (lex->flags.preprocessing)
413         return false;
414
415     line = lex->line;
416
417     ch = lex_getch(lex);
418     if (ch != '#') {
419         lex_ungetch(lex, ch);
420         return false;
421     }
422
423     for (ch = lex_getch(lex); vec_size(pragma) < 8 && ch >= 'a' && ch <= 'z'; ch = lex_getch(lex))
424         vec_push(pragma, ch);
425     vec_push(pragma, 0);
426
427     if (ch != ' ' || strcmp(pragma, "pragma")) {
428         lex_ungetch(lex, ch);
429         goto unroll;
430     }
431
432     for (ch = lex_getch(lex); vec_size(command) < 32 && ch >= 'a' && ch <= 'z'; ch = lex_getch(lex))
433         vec_push(command, ch);
434     vec_push(command, 0);
435
436     if (ch != '(') {
437         lex_ungetch(lex, ch);
438         goto unroll;
439     }
440
441     for (ch = lex_getch(lex); vec_size(param) < 1024 && ch != ')' && ch != '\n'; ch = lex_getch(lex))
442         vec_push(param, ch);
443     vec_push(param, 0);
444
445     if (ch != ')') {
446         lex_ungetch(lex, ch);
447         goto unroll;
448     }
449
450     if (!strcmp(command, "push")) {
451         if (!strcmp(param, "line")) {
452             lex->push_line++;
453             if (lex->push_line == 1)
454                 --line;
455         }
456         else
457             goto unroll;
458     }
459     else if (!strcmp(command, "pop")) {
460         if (!strcmp(param, "line")) {
461             if (lex->push_line)
462                 lex->push_line--;
463             if (lex->push_line == 0)
464                 --line;
465         }
466         else
467             goto unroll;
468     }
469     else if (!strcmp(command, "file")) {
470         lex->name = util_strdup(param);
471         vec_push(lex_filenames, lex->name);
472     }
473     else if (!strcmp(command, "line")) {
474         line = strtol(param, NULL, 0)-1;
475     }
476     else
477         goto unroll;
478
479     lex->line = line;
480     while (ch != '\n' && ch != EOF)
481         ch = lex_getch(lex);
482     return true;
483
484 unroll:
485     if (command) {
486         vec_pop(command);
487         while (vec_size(command)) {
488             lex_ungetch(lex, vec_last(command));
489             vec_pop(command);
490         }
491         vec_free(command);
492         lex_ungetch(lex, ' ');
493     }
494     if (command) {
495         vec_pop(command);
496         while (vec_size(command)) {
497             lex_ungetch(lex, vec_last(command));
498             vec_pop(command);
499         }
500         vec_free(command);
501         lex_ungetch(lex, ' ');
502     }
503     if (pragma) {
504         vec_pop(pragma);
505         while (vec_size(pragma)) {
506             lex_ungetch(lex, vec_last(pragma));
507             vec_pop(pragma);
508         }
509         vec_free(pragma);
510     }
511     lex_ungetch(lex, '#');
512
513     lex->line = line;
514     return false;
515 }
516
517 /* Skip whitespace and comments and return the first
518  * non-white character.
519  * As this makes use of the above getch() ungetch() functions,
520  * we don't need to care at all about line numbering anymore.
521  *
522  * In theory, this function should only be used at the beginning
523  * of lexing, or when we *know* the next character is part of the token.
524  * Otherwise, if the parser throws an error, the linenumber may not be
525  * the line of the error, but the line of the next token AFTER the error.
526  *
527  * This is currently only problematic when using c-like string-continuation,
528  * since comments and whitespaces are allowed between 2 such strings.
529  * Example:
530 printf(   "line one\n"
531 // A comment
532           "A continuation of the previous string"
533 // This line is skipped
534       , foo);
535
536  * In this case, if the parse decides it didn't actually want a string,
537  * and uses lex->line to print an error, it will show the ', foo);' line's
538  * linenumber.
539  *
540  * On the other hand, the parser is supposed to remember the line of the next
541  * token's beginning. In this case we would want skipwhite() to be called
542  * AFTER reading a token, so that the parser, before reading the NEXT token,
543  * doesn't store teh *comment's* linenumber, but the actual token's linenumber.
544  *
545  * THIS SOLUTION
546  *    here is to store the line of the first character after skipping
547  *    the initial whitespace in lex->sline, this happens in lex_do.
548  */
549 static int lex_skipwhite(lex_file *lex, bool hadwhite)
550 {
551     int ch = 0;
552     bool haswhite = hadwhite;
553
554     do
555     {
556         ch = lex_getch(lex);
557         while (ch != EOF && isspace(ch)) {
558             if (ch == '\n') {
559                 if (lex_try_pragma(lex))
560                     continue;
561             }
562             if (lex->flags.preprocessing) {
563                 if (ch == '\n') {
564                     /* end-of-line */
565                     /* see if there was whitespace first */
566                     if (haswhite) { /* (vec_size(lex->tok.value)) { */
567                         lex_ungetch(lex, ch);
568                         lex_endtoken(lex);
569                         return TOKEN_WHITE;
570                     }
571                     /* otherwise return EOL */
572                     return TOKEN_EOL;
573                 }
574                 haswhite = true;
575                 lex_tokench(lex, ch);
576             }
577             ch = lex_getch(lex);
578         }
579
580         if (ch == '/') {
581             ch = lex_getch(lex);
582             if (ch == '/')
583             {
584                 /* one line comment */
585                 ch = lex_getch(lex);
586
587                 if (lex->flags.preprocessing) {
588                     haswhite = true;
589                     /*
590                     lex_tokench(lex, '/');
591                     lex_tokench(lex, '/');
592                     */
593                     lex_tokench(lex, ' ');
594                     lex_tokench(lex, ' ');
595                 }
596
597                 while (ch != EOF && ch != '\n') {
598                     if (lex->flags.preprocessing)
599                         lex_tokench(lex, ' '); /* ch); */
600                     ch = lex_getch(lex);
601                 }
602                 if (lex->flags.preprocessing) {
603                     lex_ungetch(lex, '\n');
604                     lex_endtoken(lex);
605                     return TOKEN_WHITE;
606                 }
607                 continue;
608             }
609             if (ch == '*')
610             {
611                 /* multiline comment */
612                 if (lex->flags.preprocessing) {
613                     haswhite = true;
614                     /*
615                     lex_tokench(lex, '/');
616                     lex_tokench(lex, '*');
617                     */
618                     lex_tokench(lex, ' ');
619                     lex_tokench(lex, ' ');
620                 }
621
622                 while (ch != EOF)
623                 {
624                     ch = lex_getch(lex);
625                     if (ch == '*') {
626                         ch = lex_getch(lex);
627                         if (ch == '/') {
628                             if (lex->flags.preprocessing) {
629                                 /*
630                                 lex_tokench(lex, '*');
631                                 lex_tokench(lex, '/');
632                                 */
633                                 lex_tokench(lex, ' ');
634                                 lex_tokench(lex, ' ');
635                             }
636                             break;
637                         }
638                         lex_ungetch(lex, ch);
639                     }
640                     if (lex->flags.preprocessing) {
641                         if (ch == '\n')
642                             lex_tokench(lex, '\n');
643                         else
644                             lex_tokench(lex, ' '); /* ch); */
645                     }
646                 }
647                 ch = ' '; /* cause TRUE in the isspace check */
648                 continue;
649             }
650             /* Otherwise roll back to the slash and break out of the loop */
651             lex_ungetch(lex, ch);
652             ch = '/';
653             break;
654         }
655     } while (ch != EOF && isspace(ch));
656
657     if (haswhite) {
658         lex_endtoken(lex);
659         lex_ungetch(lex, ch);
660         return TOKEN_WHITE;
661     }
662     return ch;
663 }
664
665 /* Get a token */
666 static bool GMQCC_WARN lex_finish_ident(lex_file *lex)
667 {
668     int ch;
669
670     ch = lex_getch(lex);
671     while (ch != EOF && isident(ch))
672     {
673         lex_tokench(lex, ch);
674         ch = lex_getch(lex);
675     }
676
677     /* last ch was not an ident ch: */
678     lex_ungetch(lex, ch);
679
680     return true;
681 }
682
683 /* read one ident for the frame list */
684 static int lex_parse_frame(lex_file *lex)
685 {
686     int ch;
687
688     lex_token_new(lex);
689
690     ch = lex_getch(lex);
691     while (ch != EOF && ch != '\n' && isspace(ch))
692         ch = lex_getch(lex);
693
694     if (ch == '\n')
695         return 1;
696
697     if (!isident_start(ch)) {
698         lexerror(lex, "invalid framename, must start with one of a-z or _, got %c", ch);
699         return -1;
700     }
701
702     lex_tokench(lex, ch);
703     if (!lex_finish_ident(lex))
704         return -1;
705     lex_endtoken(lex);
706     return 0;
707 }
708
709 /* read a list of $frames */
710 static bool lex_finish_frames(lex_file *lex)
711 {
712     do {
713         size_t i;
714         int    rc;
715         frame_macro m;
716
717         rc = lex_parse_frame(lex);
718         if (rc > 0) /* end of line */
719             return true;
720         if (rc < 0) /* error */
721             return false;
722
723         for (i = 0; i < vec_size(lex->frames); ++i) {
724             if (!strcmp(lex->tok.value, lex->frames[i].name)) {
725                 lex->frames[i].value = lex->framevalue++;
726                 if (lexwarn(lex, WARN_FRAME_MACROS, "duplicate frame macro defined: `%s`", lex->tok.value))
727                     return false;
728                 break;
729             }
730         }
731         if (i < vec_size(lex->frames))
732             continue;
733
734         m.value = lex->framevalue++;
735         m.name = util_strdup(lex->tok.value);
736         vec_shrinkto(lex->tok.value, 0);
737         vec_push(lex->frames, m);
738     } while (true);
739
740     return false;
741 }
742
743 static int GMQCC_WARN lex_finish_string(lex_file *lex, int quote)
744 {
745     int ch = 0;
746     int nextch;
747     bool hex;
748     char u8buf[8]; /* way more than enough */
749     int  u8len, uc;
750
751     while (ch != EOF)
752     {
753         ch = lex_getch(lex);
754         if (ch == quote)
755             return TOKEN_STRINGCONST;
756
757         if (lex->flags.preprocessing && ch == '\\') {
758             lex_tokench(lex, ch);
759             ch = lex_getch(lex);
760             if (ch == EOF) {
761                 lexerror(lex, "unexpected end of file");
762                 lex_ungetch(lex, EOF); /* next token to be TOKEN_EOF */
763                 return (lex->tok.ttype = TOKEN_ERROR);
764             }
765             lex_tokench(lex, ch);
766         }
767         else if (ch == '\\') {
768             ch = lex_getch(lex);
769             if (ch == EOF) {
770                 lexerror(lex, "unexpected end of file");
771                 lex_ungetch(lex, EOF); /* next token to be TOKEN_EOF */
772                 return (lex->tok.ttype = TOKEN_ERROR);
773             }
774
775             switch (ch) {
776             case '\\': break;
777             case '\'': break;
778             case '"':  break;
779             case 'a':  ch = '\a'; break;
780             case 'b':  ch = '\b'; break;
781             case 'r':  ch = '\r'; break;
782             case 'n':  ch = '\n'; break;
783             case 't':  ch = '\t'; break;
784             case 'f':  ch = '\f'; break;
785             case 'v':  ch = '\v'; break;
786             case 'x':
787             case 'X':
788                 /* same procedure as in fteqcc */
789                 ch = 0;
790                 nextch = lex_getch(lex);
791                 if      (nextch >= '0' && nextch <= '9')
792                     ch += nextch - '0';
793                 else if (nextch >= 'a' && nextch <= 'f')
794                     ch += nextch - 'a' + 10;
795                 else if (nextch >= 'A' && nextch <= 'F')
796                     ch += nextch - 'A' + 10;
797                 else {
798                     lexerror(lex, "bad character code");
799                     lex_ungetch(lex, nextch);
800                     return (lex->tok.ttype = TOKEN_ERROR);
801                 }
802
803                 ch *= 0x10;
804                 nextch = lex_getch(lex);
805                 if      (nextch >= '0' && nextch <= '9')
806                     ch += nextch - '0';
807                 else if (nextch >= 'a' && nextch <= 'f')
808                     ch += nextch - 'a' + 10;
809                 else if (nextch >= 'A' && nextch <= 'F')
810                     ch += nextch - 'A' + 10;
811                 else {
812                     lexerror(lex, "bad character code");
813                     lex_ungetch(lex, nextch);
814                     return (lex->tok.ttype = TOKEN_ERROR);
815                 }
816                 break;
817
818             /* fteqcc support */
819             case '0': case '1': case '2': case '3':
820             case '4': case '5': case '6': case '7':
821             case '8': case '9':
822                 ch = 18 + ch - '0';
823                 break;
824             case '<':  ch = 29; break;
825             case '-':  ch = 30; break;
826             case '>':  ch = 31; break;
827             case '[':  ch = 16; break;
828             case ']':  ch = 17; break;
829             case '{':
830                 ch = 0;
831                 nextch = lex_getch(lex);
832                 hex = (nextch == 'x');
833                 if (!hex)
834                     lex_ungetch(lex, nextch);
835                 for (nextch = lex_getch(lex); nextch != '}'; nextch = lex_getch(lex)) {
836                     if (!hex) {
837                         if (nextch >= '0' && nextch <= '9')
838                             ch = ch * 10 + nextch - '0';
839                         else {
840                             lexerror(lex, "bad character code");
841                             return (lex->tok.ttype = TOKEN_ERROR);
842                         }
843                     } else {
844                         if (nextch >= '0' || nextch <= '9')
845                             ch = ch * 16 + nextch - '0';
846                         else if (nextch >= 'a' && nextch <= 'f')
847                             ch = ch * 16 + nextch - 'a' + 10;
848                         else if (nextch >= 'A' && nextch <= 'F')
849                             ch = ch * 16 + nextch - 'A' + 10;
850                         else {
851                             lexerror(lex, "bad character code");
852                             return (lex->tok.ttype = TOKEN_ERROR);
853                         }
854                     }
855                     if ( (!OPTS_FLAG(UTF8) && ch > 255) ||
856                          ( OPTS_FLAG(UTF8) && ch > 0x10FFFF) )
857                     {
858                         lexerror(lex, "character code out of range");
859                         return (lex->tok.ttype = TOKEN_ERROR);
860                     }
861                 }
862                 if (OPTS_FLAG(UTF8) && ch >= 128) {
863                     u8len = u8_fromchar((uchar_t)ch, u8buf, sizeof(u8buf));
864                     if (!u8len)
865                         ch = 0;
866                     else {
867                         --u8len;
868                         for (uc = 0; uc < u8len; ++uc)
869                             lex_tokench(lex, u8buf[uc]);
870                         /* the last character will be inserted with the tokench() call
871                          * below the switch
872                          */
873                         ch = u8buf[uc];
874                     }
875                 }
876                 break;
877             case '\n':  ch = '\n'; break;
878
879             default:
880                 lexwarn(lex, WARN_UNKNOWN_CONTROL_SEQUENCE, "unrecognized control sequence: \\%c", ch);
881                 /* so we just add the character plus backslash no matter what it actually is */
882                 lex_tokench(lex, '\\');
883             }
884             /* add the character finally */
885             lex_tokench(lex, ch);
886         }
887         else
888             lex_tokench(lex, ch);
889     }
890     lexerror(lex, "unexpected end of file within string constant");
891     lex_ungetch(lex, EOF); /* next token to be TOKEN_EOF */
892     return (lex->tok.ttype = TOKEN_ERROR);
893 }
894
895 static int GMQCC_WARN lex_finish_digit(lex_file *lex, int lastch)
896 {
897     bool ishex = false;
898
899     int  ch = lastch;
900
901     /* parse a number... */
902     if (ch == '.')
903         lex->tok.ttype = TOKEN_FLOATCONST;
904     else
905         lex->tok.ttype = TOKEN_INTCONST;
906
907     lex_tokench(lex, ch);
908
909     ch = lex_getch(lex);
910     if (ch != '.' && !isdigit(ch))
911     {
912         if (lastch != '0' || ch != 'x')
913         {
914             /* end of the number or EOF */
915             lex_ungetch(lex, ch);
916             lex_endtoken(lex);
917
918             lex->tok.constval.i = lastch - '0';
919             return lex->tok.ttype;
920         }
921
922         ishex = true;
923     }
924
925     /* EOF would have been caught above */
926
927     if (ch != '.')
928     {
929         lex_tokench(lex, ch);
930         ch = lex_getch(lex);
931         while (isdigit(ch) || (ishex && isxdigit_only(ch)))
932         {
933             lex_tokench(lex, ch);
934             ch = lex_getch(lex);
935         }
936     }
937     /* NOT else, '.' can come from above as well */
938     if (lex->tok.ttype != TOKEN_FLOATCONST && ch == '.' && !ishex)
939     {
940         /* Allow floating comma in non-hex mode */
941         lex->tok.ttype = TOKEN_FLOATCONST;
942         lex_tokench(lex, ch);
943
944         /* continue digits-only */
945         ch = lex_getch(lex);
946         while (isdigit(ch))
947         {
948             lex_tokench(lex, ch);
949             ch = lex_getch(lex);
950         }
951     }
952     /* put back the last character */
953     /* but do not put back the trailing 'f' or a float */
954     if (lex->tok.ttype == TOKEN_FLOATCONST && ch == 'f')
955         ch = lex_getch(lex);
956
957     /* generally we don't want words to follow numbers: */
958     if (isident(ch)) {
959         lexerror(lex, "unexpected trailing characters after number");
960         return (lex->tok.ttype = TOKEN_ERROR);
961     }
962     lex_ungetch(lex, ch);
963
964     lex_endtoken(lex);
965     if (lex->tok.ttype == TOKEN_FLOATCONST)
966         lex->tok.constval.f = strtod(lex->tok.value, NULL);
967     else
968         lex->tok.constval.i = strtol(lex->tok.value, NULL, 0);
969     return lex->tok.ttype;
970 }
971
972 int lex_do(lex_file *lex)
973 {
974     int ch, nextch, thirdch;
975     bool hadwhite = false;
976
977     lex_token_new(lex);
978 #if 0
979     if (!lex->tok)
980         return TOKEN_FATAL;
981 #endif
982
983     while (true) {
984         ch = lex_skipwhite(lex, hadwhite);
985         hadwhite = true;
986         if (!lex->flags.mergelines || ch != '\\')
987             break;
988         ch = lex_getch(lex);
989         if (ch != '\n') {
990             lex_ungetch(lex, ch);
991             ch = '\\';
992             break;
993         }
994         /* we reached a linemerge */
995         lex_tokench(lex, '\n');
996         continue;
997     }
998
999     if (lex->flags.preprocessing && (ch == TOKEN_WHITE || ch == TOKEN_EOL || ch == TOKEN_FATAL)) {
1000         return (lex->tok.ttype = ch);
1001     }
1002
1003     lex->sline = lex->line;
1004     lex->tok.ctx.line = lex->sline;
1005     lex->tok.ctx.file = lex->name;
1006
1007     if (lex->eof)
1008         return (lex->tok.ttype = TOKEN_FATAL);
1009
1010     if (ch == EOF) {
1011         lex->eof = true;
1012         return (lex->tok.ttype = TOKEN_EOF);
1013     }
1014
1015     /* modelgen / spiritgen commands */
1016     if (ch == '$' && !lex->flags.preprocessing) {
1017         const char *v;
1018         size_t frame;
1019
1020         ch = lex_getch(lex);
1021         if (!isident_start(ch)) {
1022             lexerror(lex, "hanging '$' modelgen/spritegen command line");
1023             return lex_do(lex);
1024         }
1025         lex_tokench(lex, ch);
1026         if (!lex_finish_ident(lex))
1027             return (lex->tok.ttype = TOKEN_ERROR);
1028         lex_endtoken(lex);
1029         /* skip the known commands */
1030         v = lex->tok.value;
1031
1032         if (!strcmp(v, "frame") || !strcmp(v, "framesave"))
1033         {
1034             /* frame/framesave command works like an enum
1035              * similar to fteqcc we handle this in the lexer.
1036              * The reason for this is that it is sensitive to newlines,
1037              * which the parser is unaware of
1038              */
1039             if (!lex_finish_frames(lex))
1040                  return (lex->tok.ttype = TOKEN_ERROR);
1041             return lex_do(lex);
1042         }
1043
1044         if (!strcmp(v, "framevalue"))
1045         {
1046             ch = lex_getch(lex);
1047             while (ch != EOF && isspace(ch) && ch != '\n')
1048                 ch = lex_getch(lex);
1049
1050             if (!isdigit(ch)) {
1051                 lexerror(lex, "$framevalue requires an integer parameter");
1052                 return lex_do(lex);
1053             }
1054
1055             lex_token_new(lex);
1056             lex->tok.ttype = lex_finish_digit(lex, ch);
1057             lex_endtoken(lex);
1058             if (lex->tok.ttype != TOKEN_INTCONST) {
1059                 lexerror(lex, "$framevalue requires an integer parameter");
1060                 return lex_do(lex);
1061             }
1062             lex->framevalue = lex->tok.constval.i;
1063             return lex_do(lex);
1064         }
1065
1066         if (!strcmp(v, "framerestore"))
1067         {
1068             int rc;
1069
1070             lex_token_new(lex);
1071
1072             rc = lex_parse_frame(lex);
1073
1074             if (rc > 0) {
1075                 lexerror(lex, "$framerestore requires a framename parameter");
1076                 return lex_do(lex);
1077             }
1078             if (rc < 0)
1079                 return (lex->tok.ttype = TOKEN_FATAL);
1080
1081             v = lex->tok.value;
1082             for (frame = 0; frame < vec_size(lex->frames); ++frame) {
1083                 if (!strcmp(v, lex->frames[frame].name)) {
1084                     lex->framevalue = lex->frames[frame].value;
1085                     return lex_do(lex);
1086                 }
1087             }
1088             lexerror(lex, "unknown framename `%s`", v);
1089             return lex_do(lex);
1090         }
1091
1092         if (!strcmp(v, "modelname"))
1093         {
1094             int rc;
1095
1096             lex_token_new(lex);
1097
1098             rc = lex_parse_frame(lex);
1099
1100             if (rc > 0) {
1101                 lexerror(lex, "$modelname requires a parameter");
1102                 return lex_do(lex);
1103             }
1104             if (rc < 0)
1105                 return (lex->tok.ttype = TOKEN_FATAL);
1106
1107             if (lex->modelname) {
1108                 frame_macro m;
1109                 m.value = lex->framevalue;
1110                 m.name = lex->modelname;
1111                 lex->modelname = NULL;
1112                 vec_push(lex->frames, m);
1113             }
1114             lex->modelname = lex->tok.value;
1115             lex->tok.value = NULL;
1116             return lex_do(lex);
1117         }
1118
1119         if (!strcmp(v, "flush"))
1120         {
1121             size_t fi;
1122             for (fi = 0; fi < vec_size(lex->frames); ++fi)
1123                 mem_d(lex->frames[fi].name);
1124             vec_free(lex->frames);
1125             /* skip line (fteqcc does it too) */
1126             ch = lex_getch(lex);
1127             while (ch != EOF && ch != '\n')
1128                 ch = lex_getch(lex);
1129             return lex_do(lex);
1130         }
1131
1132         if (!strcmp(v, "cd") ||
1133             !strcmp(v, "origin") ||
1134             !strcmp(v, "base") ||
1135             !strcmp(v, "flags") ||
1136             !strcmp(v, "scale") ||
1137             !strcmp(v, "skin"))
1138         {
1139             /* skip line */
1140             ch = lex_getch(lex);
1141             while (ch != EOF && ch != '\n')
1142                 ch = lex_getch(lex);
1143             return lex_do(lex);
1144         }
1145
1146         for (frame = 0; frame < vec_size(lex->frames); ++frame) {
1147             if (!strcmp(v, lex->frames[frame].name)) {
1148                 lex->tok.constval.i = lex->frames[frame].value;
1149                 return (lex->tok.ttype = TOKEN_INTCONST);
1150             }
1151         }
1152
1153         lexerror(lex, "invalid frame macro");
1154         return lex_do(lex);
1155     }
1156
1157     /* single-character tokens */
1158     switch (ch)
1159     {
1160         case '[':
1161             nextch = lex_getch(lex);
1162             if (nextch == '[') {
1163                 lex_tokench(lex, ch);
1164                 lex_tokench(lex, nextch);
1165                 lex_endtoken(lex);
1166                 return (lex->tok.ttype = TOKEN_ATTRIBUTE_OPEN);
1167             }
1168             lex_ungetch(lex, nextch);
1169             /* FALL THROUGH */
1170         case '(':
1171         case ':':
1172         case '?':
1173             lex_tokench(lex, ch);
1174             lex_endtoken(lex);
1175             if (lex->flags.noops)
1176                 return (lex->tok.ttype = ch);
1177             else
1178                 return (lex->tok.ttype = TOKEN_OPERATOR);
1179
1180         case ']':
1181             if (lex->flags.noops) {
1182                 nextch = lex_getch(lex);
1183                 if (nextch == ']') {
1184                     lex_tokench(lex, ch);
1185                     lex_tokench(lex, nextch);
1186                     lex_endtoken(lex);
1187                     return (lex->tok.ttype = TOKEN_ATTRIBUTE_CLOSE);
1188                 }
1189                 lex_ungetch(lex, nextch);
1190             }
1191             /* FALL THROUGH */
1192         case ')':
1193         case ';':
1194         case '{':
1195         case '}':
1196
1197         case '#':
1198             lex_tokench(lex, ch);
1199             lex_endtoken(lex);
1200             return (lex->tok.ttype = ch);
1201         default:
1202             break;
1203     }
1204
1205     if (ch == '.') {
1206         nextch = lex_getch(lex);
1207         /* digits starting with a dot */
1208         if (isdigit(nextch)) {
1209             lex_ungetch(lex, nextch);
1210             lex->tok.ttype = lex_finish_digit(lex, ch);
1211             lex_endtoken(lex);
1212             return lex->tok.ttype;
1213         }
1214         lex_ungetch(lex, nextch);
1215     }
1216
1217     if (lex->flags.noops)
1218     {
1219         /* Detect characters early which are normally
1220          * operators OR PART of an operator.
1221          */
1222         switch (ch)
1223         {
1224             /*
1225             case '+':
1226             case '-':
1227             */
1228             case '*':
1229             case '/':
1230             case '<':
1231             case '>':
1232             case '=':
1233             case '&':
1234             case '|':
1235             case '^':
1236             case '~':
1237             case ',':
1238             case '!':
1239                 lex_tokench(lex, ch);
1240                 lex_endtoken(lex);
1241                 return (lex->tok.ttype = ch);
1242             default:
1243                 break;
1244         }
1245
1246         if (ch == '.')
1247         {
1248             lex_tokench(lex, ch);
1249             /* peak ahead once */
1250             nextch = lex_getch(lex);
1251             if (nextch != '.') {
1252                 lex_ungetch(lex, nextch);
1253                 lex_endtoken(lex);
1254                 return (lex->tok.ttype = ch);
1255             }
1256             /* peak ahead again */
1257             nextch = lex_getch(lex);
1258             if (nextch != '.') {
1259                 lex_ungetch(lex, nextch);
1260                 lex_ungetch(lex, '.');
1261                 lex_endtoken(lex);
1262                 return (lex->tok.ttype = ch);
1263             }
1264             /* fill the token to be "..." */
1265             lex_tokench(lex, ch);
1266             lex_tokench(lex, ch);
1267             lex_endtoken(lex);
1268             return (lex->tok.ttype = TOKEN_DOTS);
1269         }
1270     }
1271
1272     if (ch == ',' || ch == '.') {
1273         lex_tokench(lex, ch);
1274         lex_endtoken(lex);
1275         return (lex->tok.ttype = TOKEN_OPERATOR);
1276     }
1277
1278     if (ch == '+' || ch == '-' || /* ++, --, +=, -=  and -> as well! */
1279         ch == '>' || ch == '<' || /* <<, >>, <=, >= */
1280         ch == '=' || ch == '!' || /* ==, != */
1281         ch == '&' || ch == '|')   /* &&, ||, &=, |= */
1282     {
1283         lex_tokench(lex, ch);
1284
1285         nextch = lex_getch(lex);
1286         if (nextch == '=' || (nextch == ch && ch != '!')) {
1287             lex_tokench(lex, nextch);
1288         } else if (ch == '-' && nextch == '>') {
1289             lex_tokench(lex, nextch);
1290         } else if (ch == '&' && nextch == '~') {
1291             thirdch = lex_getch(lex);
1292             if (thirdch != '=') {
1293                 lex_ungetch(lex, thirdch);
1294                 lex_ungetch(lex, nextch);
1295             }
1296             else {
1297                 lex_tokench(lex, nextch);
1298                 lex_tokench(lex, thirdch);
1299             }
1300         } else
1301             lex_ungetch(lex, nextch);
1302
1303         lex_endtoken(lex);
1304         return (lex->tok.ttype = TOKEN_OPERATOR);
1305     }
1306
1307     /*
1308     if (ch == '^' || ch == '~' || ch == '!')
1309     {
1310         lex_tokench(lex, ch);
1311         lex_endtoken(lex);
1312         return (lex->tok.ttype = TOKEN_OPERATOR);
1313     }
1314     */
1315
1316     if (ch == '*' || ch == '/') /* *=, /= */
1317     {
1318         lex_tokench(lex, ch);
1319
1320         nextch = lex_getch(lex);
1321         if (nextch == '=') {
1322             lex_tokench(lex, nextch);
1323         } else
1324             lex_ungetch(lex, nextch);
1325
1326         lex_endtoken(lex);
1327         return (lex->tok.ttype = TOKEN_OPERATOR);
1328     }
1329
1330     if (isident_start(ch))
1331     {
1332         const char *v;
1333
1334         lex_tokench(lex, ch);
1335         if (!lex_finish_ident(lex)) {
1336             /* error? */
1337             return (lex->tok.ttype = TOKEN_ERROR);
1338         }
1339         lex_endtoken(lex);
1340         lex->tok.ttype = TOKEN_IDENT;
1341
1342         v = lex->tok.value;
1343         if (!strcmp(v, "void")) {
1344             lex->tok.ttype = TOKEN_TYPENAME;
1345             lex->tok.constval.t = TYPE_VOID;
1346         } else if (!strcmp(v, "int")) {
1347             lex->tok.ttype = TOKEN_TYPENAME;
1348             lex->tok.constval.t = TYPE_INTEGER;
1349         } else if (!strcmp(v, "float")) {
1350             lex->tok.ttype = TOKEN_TYPENAME;
1351             lex->tok.constval.t = TYPE_FLOAT;
1352         } else if (!strcmp(v, "string")) {
1353             lex->tok.ttype = TOKEN_TYPENAME;
1354             lex->tok.constval.t = TYPE_STRING;
1355         } else if (!strcmp(v, "entity")) {
1356             lex->tok.ttype = TOKEN_TYPENAME;
1357             lex->tok.constval.t = TYPE_ENTITY;
1358         } else if (!strcmp(v, "vector")) {
1359             lex->tok.ttype = TOKEN_TYPENAME;
1360             lex->tok.constval.t = TYPE_VECTOR;
1361         } else {
1362             size_t kw;
1363             for (kw = 0; kw < num_keywords_qc; ++kw) {
1364                 if (!strcmp(v, keywords_qc[kw]))
1365                     return (lex->tok.ttype = TOKEN_KEYWORD);
1366             }
1367             if (opts.standard != COMPILER_QCC) {
1368                 for (kw = 0; kw < num_keywords_fg; ++kw) {
1369                     if (!strcmp(v, keywords_fg[kw]))
1370                         return (lex->tok.ttype = TOKEN_KEYWORD);
1371                 }
1372             }
1373         }
1374
1375         return lex->tok.ttype;
1376     }
1377
1378     if (ch == '"')
1379     {
1380         lex->flags.nodigraphs = true;
1381         if (lex->flags.preprocessing)
1382             lex_tokench(lex, ch);
1383         lex->tok.ttype = lex_finish_string(lex, '"');
1384         if (lex->flags.preprocessing)
1385             lex_tokench(lex, ch);
1386         while (!lex->flags.preprocessing && lex->tok.ttype == TOKEN_STRINGCONST)
1387         {
1388             /* Allow c style "string" "continuation" */
1389             ch = lex_skipwhite(lex, false);
1390             if (ch != '"') {
1391                 lex_ungetch(lex, ch);
1392                 break;
1393             }
1394
1395             lex->tok.ttype = lex_finish_string(lex, '"');
1396         }
1397         lex->flags.nodigraphs = false;
1398         lex_endtoken(lex);
1399         return lex->tok.ttype;
1400     }
1401
1402     if (ch == '\'')
1403     {
1404         /* we parse character constants like string,
1405          * but return TOKEN_CHARCONST, or a vector type if it fits...
1406          * Likewise actual unescaping has to be done by the parser.
1407          * The difference is we don't allow 'char' 'continuation'.
1408          */
1409         if (lex->flags.preprocessing)
1410             lex_tokench(lex, ch);
1411         lex->tok.ttype = lex_finish_string(lex, '\'');
1412         if (lex->flags.preprocessing)
1413             lex_tokench(lex, ch);
1414         lex_endtoken(lex);
1415
1416         lex->tok.ttype = TOKEN_CHARCONST;
1417          /* It's a vector if we can successfully scan 3 floats */
1418 #ifdef _MSC_VER
1419         if (sscanf_s(lex->tok.value, " %f %f %f ",
1420                    &lex->tok.constval.v.x, &lex->tok.constval.v.y, &lex->tok.constval.v.z) == 3)
1421 #else
1422         if (sscanf(lex->tok.value, " %f %f %f ",
1423                    &lex->tok.constval.v.x, &lex->tok.constval.v.y, &lex->tok.constval.v.z) == 3)
1424 #endif
1425
1426         {
1427              lex->tok.ttype = TOKEN_VECTORCONST;
1428         }
1429         else
1430         {
1431             if (!lex->flags.preprocessing && strlen(lex->tok.value) > 1) {
1432                 uchar_t u8char;
1433                 /* check for a valid utf8 character */
1434                 if (!OPTS_FLAG(UTF8) || !u8_analyze(lex->tok.value, NULL, NULL, &u8char, 8)) {
1435                     if (lexwarn(lex, WARN_MULTIBYTE_CHARACTER,
1436                                 ( OPTS_FLAG(UTF8) ? "invalid multibyte character sequence `%s`"
1437                                                   : "multibyte character: `%s`" ),
1438                                 lex->tok.value))
1439                         return (lex->tok.ttype = TOKEN_ERROR);
1440                 }
1441                 else
1442                     lex->tok.constval.i = u8char;
1443             }
1444             else
1445                 lex->tok.constval.i = lex->tok.value[0];
1446         }
1447
1448         return lex->tok.ttype;
1449     }
1450
1451     if (isdigit(ch))
1452     {
1453         lex->tok.ttype = lex_finish_digit(lex, ch);
1454         lex_endtoken(lex);
1455         return lex->tok.ttype;
1456     }
1457
1458     if (lex->flags.preprocessing) {
1459         lex_tokench(lex, ch);
1460         lex_endtoken(lex);
1461         return (lex->tok.ttype = ch);
1462     }
1463
1464     lexerror(lex, "unknown token");
1465     return (lex->tok.ttype = TOKEN_ERROR);
1466 }