]> de.git.xonotic.org Git - xonotic/gmqcc.git/blob - lexer.c
properly fill the token string for TOKEN_ATTRIBUTE_*
[xonotic/gmqcc.git] / lexer.c
1 /*
2  * Copyright (C) 2012
3  *     Wolfgang Bumiller
4  *
5  * Permission is hereby granted, free of charge, to any person obtaining a copy of
6  * this software and associated documentation files (the "Software"), to deal in
7  * the Software without restriction, including without limitation the rights to
8  * use, copy, modify, merge, publish, distribute, sublicense, and/or sell copies
9  * of the Software, and to permit persons to whom the Software is furnished to do
10  * so, subject to the following conditions:
11  *
12  * The above copyright notice and this permission notice shall be included in all
13  * copies or substantial portions of the Software.
14  *
15  * THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS OR
16  * IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF MERCHANTABILITY,
17  * FITNESS FOR A PARTICULAR PURPOSE AND NONINFRINGEMENT. IN NO EVENT SHALL THE
18  * AUTHORS OR COPYRIGHT HOLDERS BE LIABLE FOR ANY CLAIM, DAMAGES OR OTHER
19  * LIABILITY, WHETHER IN AN ACTION OF CONTRACT, TORT OR OTHERWISE, ARISING FROM,
20  * OUT OF OR IN CONNECTION WITH THE SOFTWARE OR THE USE OR OTHER DEALINGS IN THE
21  * SOFTWARE.
22  */
23 #include <stdio.h>
24 #include <stdlib.h>
25 #include <string.h>
26 #include <stdarg.h>
27
28 #include "gmqcc.h"
29 #include "lexer.h"
30
31 /*
32  * List of Keywords
33  */
34
35 /* original */
36 static const char *keywords_qc[] = {
37     "for", "do", "while",
38     "if", "else",
39     "local",
40     "return",
41     "const"
42 };
43 static size_t num_keywords_qc = sizeof(keywords_qc) / sizeof(keywords_qc[0]);
44
45 /* For fte/gmgqcc */
46 static const char *keywords_fg[] = {
47     "switch", "case", "default",
48     "struct", "union",
49     "break", "continue",
50     "typedef",
51     "goto",
52
53     "__builtin_debug_printtype"
54 };
55 static size_t num_keywords_fg = sizeof(keywords_fg) / sizeof(keywords_fg[0]);
56
57 /*
58  * Lexer code
59  */
60
61 char* *lex_filenames;
62
63 void lexerror(lex_file *lex, const char *fmt, ...)
64 {
65     va_list ap;
66
67     va_start(ap, fmt);
68     if (lex)
69         con_vprintmsg(LVL_ERROR, lex->name, lex->sline, "parse error", fmt, ap);
70     else
71         con_vprintmsg(LVL_ERROR, "", 0, "parse error", fmt, ap);
72     va_end(ap);
73 }
74
75 bool lexwarn(lex_file *lex, int warntype, const char *fmt, ...)
76 {
77     bool    r;
78     lex_ctx ctx;
79     va_list ap;
80
81     ctx.file = lex->name;
82     ctx.line = lex->sline;
83
84     va_start(ap, fmt);
85     r = vcompile_warning(ctx, warntype, fmt, ap);
86     va_end(ap);
87     return r;
88 }
89
90
91 #if 0
92 token* token_new()
93 {
94     token *tok = (token*)mem_a(sizeof(token));
95     if (!tok)
96         return NULL;
97     memset(tok, 0, sizeof(*tok));
98     return tok;
99 }
100
101 void token_delete(token *self)
102 {
103     if (self->next && self->next->prev == self)
104         self->next->prev = self->prev;
105     if (self->prev && self->prev->next == self)
106         self->prev->next = self->next;
107     MEM_VECTOR_CLEAR(self, value);
108     mem_d(self);
109 }
110
111 token* token_copy(const token *cp)
112 {
113     token* self = token_new();
114     if (!self)
115         return NULL;
116     /* copy the value */
117     self->value_alloc = cp->value_count + 1;
118     self->value_count = cp->value_count;
119     self->value = (char*)mem_a(self->value_alloc);
120     if (!self->value) {
121         mem_d(self);
122         return NULL;
123     }
124     memcpy(self->value, cp->value, cp->value_count);
125     self->value[self->value_alloc-1] = 0;
126
127     /* rest */
128     self->ctx = cp->ctx;
129     self->ttype = cp->ttype;
130     memcpy(&self->constval, &cp->constval, sizeof(self->constval));
131     return self;
132 }
133
134 void token_delete_all(token *t)
135 {
136     token *n;
137
138     do {
139         n = t->next;
140         token_delete(t);
141         t = n;
142     } while(t);
143 }
144
145 token* token_copy_all(const token *cp)
146 {
147     token *cur;
148     token *out;
149
150     out = cur = token_copy(cp);
151     if (!out)
152         return NULL;
153
154     while (cp->next) {
155         cp = cp->next;
156         cur->next = token_copy(cp);
157         if (!cur->next) {
158             token_delete_all(out);
159             return NULL;
160         }
161         cur->next->prev = cur;
162         cur = cur->next;
163     }
164
165     return out;
166 }
167 #else
168 static void lex_token_new(lex_file *lex)
169 {
170 #if 0
171     if (lex->tok)
172         token_delete(lex->tok);
173     lex->tok = token_new();
174 #else
175     if (lex->tok.value)
176         vec_shrinkto(lex->tok.value, 0);
177     lex->tok.constval.t  = 0;
178     lex->tok.ctx.line = lex->sline;
179     lex->tok.ctx.file = lex->name;
180 #endif
181 }
182 #endif
183
184 lex_file* lex_open(const char *file)
185 {
186     lex_file *lex;
187     FILE *in = util_fopen(file, "rb");
188
189     if (!in) {
190         lexerror(NULL, "open failed: '%s'\n", file);
191         return NULL;
192     }
193
194     lex = (lex_file*)mem_a(sizeof(*lex));
195     if (!lex) {
196         fclose(in);
197         lexerror(NULL, "out of memory\n");
198         return NULL;
199     }
200
201     memset(lex, 0, sizeof(*lex));
202
203     lex->file = in;
204     lex->name = util_strdup(file);
205     lex->line = 1; /* we start counting at 1 */
206
207     lex->peekpos = 0;
208     lex->eof = false;
209
210     vec_push(lex_filenames, lex->name);
211     return lex;
212 }
213
214 lex_file* lex_open_string(const char *str, size_t len, const char *name)
215 {
216     lex_file *lex;
217
218     lex = (lex_file*)mem_a(sizeof(*lex));
219     if (!lex) {
220         lexerror(NULL, "out of memory\n");
221         return NULL;
222     }
223
224     memset(lex, 0, sizeof(*lex));
225
226     lex->file = NULL;
227     lex->open_string        = str;
228     lex->open_string_length = len;
229     lex->open_string_pos    = 0;
230
231     lex->name = util_strdup(name ? name : "<string-source>");
232     lex->line = 1; /* we start counting at 1 */
233
234     lex->peekpos = 0;
235     lex->eof = false;
236
237     vec_push(lex_filenames, lex->name);
238
239     return lex;
240 }
241
242 void lex_cleanup(void)
243 {
244     size_t i;
245     for (i = 0; i < vec_size(lex_filenames); ++i)
246         mem_d(lex_filenames[i]);
247     vec_free(lex_filenames);
248 }
249
250 void lex_close(lex_file *lex)
251 {
252     size_t i;
253     for (i = 0; i < vec_size(lex->frames); ++i)
254         mem_d(lex->frames[i].name);
255     vec_free(lex->frames);
256
257     if (lex->modelname)
258         vec_free(lex->modelname);
259
260     if (lex->file)
261         fclose(lex->file);
262 #if 0
263     if (lex->tok)
264         token_delete(lex->tok);
265 #else
266     vec_free(lex->tok.value);
267 #endif
268     /* mem_d(lex->name); collected in lex_filenames */
269     mem_d(lex);
270 }
271
272 static int lex_fgetc(lex_file *lex)
273 {
274     if (lex->file)
275         return fgetc(lex->file);
276     if (lex->open_string) {
277         if (lex->open_string_pos >= lex->open_string_length)
278             return EOF;
279         return lex->open_string[lex->open_string_pos++];
280     }
281     return EOF;
282 }
283
284 /* Get or put-back data
285  * The following to functions do NOT understand what kind of data they
286  * are working on.
287  * The are merely wrapping get/put in order to count line numbers.
288  */
289 static void lex_ungetch(lex_file *lex, int ch);
290 static int lex_try_trigraph(lex_file *lex, int old)
291 {
292     int c2, c3;
293     c2 = lex_fgetc(lex);
294     if (c2 != '?') {
295         lex_ungetch(lex, c2);
296         return old;
297     }
298
299     c3 = lex_fgetc(lex);
300     switch (c3) {
301         case '=': return '#';
302         case '/': return '\\';
303         case '\'': return '^';
304         case '(': return '[';
305         case ')': return ']';
306         case '!': return '|';
307         case '<': return '{';
308         case '>': return '}';
309         case '-': return '~';
310         default:
311             lex_ungetch(lex, c3);
312             lex_ungetch(lex, c2);
313             return old;
314     }
315 }
316
317 static int lex_try_digraph(lex_file *lex, int ch)
318 {
319     int c2;
320     c2 = lex_fgetc(lex);
321     /* we just used fgetc() so count lines
322      * need to offset a \n the ungetch would recognize
323      */
324     if (!lex->push_line && c2 == '\n')
325         lex->line++;
326     if      (ch == '<' && c2 == ':')
327         return '[';
328     else if (ch == ':' && c2 == '>')
329         return ']';
330     else if (ch == '<' && c2 == '%')
331         return '{';
332     else if (ch == '%' && c2 == '>')
333         return '}';
334     else if (ch == '%' && c2 == ':')
335         return '#';
336     lex_ungetch(lex, c2);
337     return ch;
338 }
339
340 static int lex_getch(lex_file *lex)
341 {
342     int ch;
343
344     if (lex->peekpos) {
345         lex->peekpos--;
346         if (!lex->push_line && lex->peek[lex->peekpos] == '\n')
347             lex->line++;
348         return lex->peek[lex->peekpos];
349     }
350
351     ch = lex_fgetc(lex);
352     if (!lex->push_line && ch == '\n')
353         lex->line++;
354     else if (ch == '?')
355         return lex_try_trigraph(lex, ch);
356     else if (!lex->flags.nodigraphs && (ch == '<' || ch == ':' || ch == '%'))
357         return lex_try_digraph(lex, ch);
358     return ch;
359 }
360
361 static void lex_ungetch(lex_file *lex, int ch)
362 {
363     lex->peek[lex->peekpos++] = ch;
364     if (!lex->push_line && ch == '\n')
365         lex->line--;
366 }
367
368 /* classify characters
369  * some additions to the is*() functions of ctype.h
370  */
371
372 /* Idents are alphanumberic, but they start with alpha or _ */
373 static bool isident_start(int ch)
374 {
375     return isalpha(ch) || ch == '_';
376 }
377
378 static bool isident(int ch)
379 {
380     return isident_start(ch) || isdigit(ch);
381 }
382
383 /* isxdigit_only is used when we already know it's not a digit
384  * and want to see if it's a hex digit anyway.
385  */
386 static bool isxdigit_only(int ch)
387 {
388     return (ch >= 'a' && ch <= 'f') || (ch >= 'A' && ch <= 'F');
389 }
390
391 /* Append a character to the token buffer */
392 static void lex_tokench(lex_file *lex, int ch)
393 {
394     vec_push(lex->tok.value, ch);
395 }
396
397 /* Append a trailing null-byte */
398 static void lex_endtoken(lex_file *lex)
399 {
400     vec_push(lex->tok.value, 0);
401     vec_shrinkby(lex->tok.value, 1);
402 }
403
404 static bool lex_try_pragma(lex_file *lex)
405 {
406     int ch;
407     char *pragma  = NULL;
408     char *command = NULL;
409     char *param   = NULL;
410     size_t line;
411
412     if (lex->flags.preprocessing)
413         return false;
414
415     line = lex->line;
416
417     ch = lex_getch(lex);
418     if (ch != '#') {
419         lex_ungetch(lex, ch);
420         return false;
421     }
422
423     for (ch = lex_getch(lex); vec_size(pragma) < 8 && ch >= 'a' && ch <= 'z'; ch = lex_getch(lex))
424         vec_push(pragma, ch);
425     vec_push(pragma, 0);
426
427     if (ch != ' ' || strcmp(pragma, "pragma")) {
428         lex_ungetch(lex, ch);
429         goto unroll;
430     }
431
432     for (ch = lex_getch(lex); vec_size(command) < 32 && ch >= 'a' && ch <= 'z'; ch = lex_getch(lex))
433         vec_push(command, ch);
434     vec_push(command, 0);
435
436     if (ch != '(') {
437         lex_ungetch(lex, ch);
438         goto unroll;
439     }
440
441     for (ch = lex_getch(lex); vec_size(param) < 1024 && ch != ')' && ch != '\n'; ch = lex_getch(lex))
442         vec_push(param, ch);
443     vec_push(param, 0);
444
445     if (ch != ')') {
446         lex_ungetch(lex, ch);
447         goto unroll;
448     }
449
450     if (!strcmp(command, "push")) {
451         if (!strcmp(param, "line")) {
452             lex->push_line++;
453             if (lex->push_line == 1)
454                 --line;
455         }
456         else
457             goto unroll;
458     }
459     else if (!strcmp(command, "pop")) {
460         if (!strcmp(param, "line")) {
461             if (lex->push_line)
462                 lex->push_line--;
463             if (lex->push_line == 0)
464                 --line;
465         }
466         else
467             goto unroll;
468     }
469     else if (!strcmp(command, "file")) {
470         lex->name = util_strdup(param);
471         vec_push(lex_filenames, lex->name);
472     }
473     else if (!strcmp(command, "line")) {
474         line = strtol(param, NULL, 0)-1;
475     }
476     else
477         goto unroll;
478
479     lex->line = line;
480     while (ch != '\n' && ch != EOF)
481         ch = lex_getch(lex);
482     return true;
483
484 unroll:
485     if (command) {
486         vec_pop(command);
487         while (vec_size(command)) {
488             lex_ungetch(lex, vec_last(command));
489             vec_pop(command);
490         }
491         vec_free(command);
492         lex_ungetch(lex, ' ');
493     }
494     if (command) {
495         vec_pop(command);
496         while (vec_size(command)) {
497             lex_ungetch(lex, vec_last(command));
498             vec_pop(command);
499         }
500         vec_free(command);
501         lex_ungetch(lex, ' ');
502     }
503     if (pragma) {
504         vec_pop(pragma);
505         while (vec_size(pragma)) {
506             lex_ungetch(lex, vec_last(pragma));
507             vec_pop(pragma);
508         }
509         vec_free(pragma);
510     }
511     lex_ungetch(lex, '#');
512
513     lex->line = line;
514     return false;
515 }
516
517 /* Skip whitespace and comments and return the first
518  * non-white character.
519  * As this makes use of the above getch() ungetch() functions,
520  * we don't need to care at all about line numbering anymore.
521  *
522  * In theory, this function should only be used at the beginning
523  * of lexing, or when we *know* the next character is part of the token.
524  * Otherwise, if the parser throws an error, the linenumber may not be
525  * the line of the error, but the line of the next token AFTER the error.
526  *
527  * This is currently only problematic when using c-like string-continuation,
528  * since comments and whitespaces are allowed between 2 such strings.
529  * Example:
530 printf(   "line one\n"
531 // A comment
532           "A continuation of the previous string"
533 // This line is skipped
534       , foo);
535
536  * In this case, if the parse decides it didn't actually want a string,
537  * and uses lex->line to print an error, it will show the ', foo);' line's
538  * linenumber.
539  *
540  * On the other hand, the parser is supposed to remember the line of the next
541  * token's beginning. In this case we would want skipwhite() to be called
542  * AFTER reading a token, so that the parser, before reading the NEXT token,
543  * doesn't store teh *comment's* linenumber, but the actual token's linenumber.
544  *
545  * THIS SOLUTION
546  *    here is to store the line of the first character after skipping
547  *    the initial whitespace in lex->sline, this happens in lex_do.
548  */
549 static int lex_skipwhite(lex_file *lex, bool hadwhite)
550 {
551     int ch = 0;
552     bool haswhite = hadwhite;
553
554     do
555     {
556         ch = lex_getch(lex);
557         while (ch != EOF && isspace(ch)) {
558             if (ch == '\n') {
559                 if (lex_try_pragma(lex))
560                     continue;
561             }
562             if (lex->flags.preprocessing) {
563                 if (ch == '\n') {
564                     /* end-of-line */
565                     /* see if there was whitespace first */
566                     if (haswhite) { /* (vec_size(lex->tok.value)) { */
567                         lex_ungetch(lex, ch);
568                         lex_endtoken(lex);
569                         return TOKEN_WHITE;
570                     }
571                     /* otherwise return EOL */
572                     return TOKEN_EOL;
573                 }
574                 haswhite = true;
575                 lex_tokench(lex, ch);
576             }
577             ch = lex_getch(lex);
578         }
579
580         if (ch == '/') {
581             ch = lex_getch(lex);
582             if (ch == '/')
583             {
584                 /* one line comment */
585                 ch = lex_getch(lex);
586
587                 if (lex->flags.preprocessing) {
588                     haswhite = true;
589                     /*
590                     lex_tokench(lex, '/');
591                     lex_tokench(lex, '/');
592                     */
593                     lex_tokench(lex, ' ');
594                     lex_tokench(lex, ' ');
595                 }
596
597                 while (ch != EOF && ch != '\n') {
598                     if (lex->flags.preprocessing)
599                         lex_tokench(lex, ' '); /* ch); */
600                     ch = lex_getch(lex);
601                 }
602                 if (lex->flags.preprocessing) {
603                     lex_ungetch(lex, '\n');
604                     lex_endtoken(lex);
605                     return TOKEN_WHITE;
606                 }
607                 continue;
608             }
609             if (ch == '*')
610             {
611                 /* multiline comment */
612                 if (lex->flags.preprocessing) {
613                     haswhite = true;
614                     /*
615                     lex_tokench(lex, '/');
616                     lex_tokench(lex, '*');
617                     */
618                     lex_tokench(lex, ' ');
619                     lex_tokench(lex, ' ');
620                 }
621
622                 while (ch != EOF)
623                 {
624                     ch = lex_getch(lex);
625                     if (ch == '*') {
626                         ch = lex_getch(lex);
627                         if (ch == '/') {
628                             if (lex->flags.preprocessing) {
629                                 /*
630                                 lex_tokench(lex, '*');
631                                 lex_tokench(lex, '/');
632                                 */
633                                 lex_tokench(lex, ' ');
634                                 lex_tokench(lex, ' ');
635                             }
636                             break;
637                         }
638                         lex_ungetch(lex, ch);
639                     }
640                     if (lex->flags.preprocessing) {
641                         if (ch == '\n')
642                             lex_tokench(lex, '\n');
643                         else
644                             lex_tokench(lex, ' '); /* ch); */
645                     }
646                 }
647                 ch = ' '; /* cause TRUE in the isspace check */
648                 continue;
649             }
650             /* Otherwise roll back to the slash and break out of the loop */
651             lex_ungetch(lex, ch);
652             ch = '/';
653             break;
654         }
655     } while (ch != EOF && isspace(ch));
656
657     if (haswhite) {
658         lex_endtoken(lex);
659         lex_ungetch(lex, ch);
660         return TOKEN_WHITE;
661     }
662     return ch;
663 }
664
665 /* Get a token */
666 static bool GMQCC_WARN lex_finish_ident(lex_file *lex)
667 {
668     int ch;
669
670     ch = lex_getch(lex);
671     while (ch != EOF && isident(ch))
672     {
673         lex_tokench(lex, ch);
674         ch = lex_getch(lex);
675     }
676
677     /* last ch was not an ident ch: */
678     lex_ungetch(lex, ch);
679
680     return true;
681 }
682
683 /* read one ident for the frame list */
684 static int lex_parse_frame(lex_file *lex)
685 {
686     int ch;
687
688     lex_token_new(lex);
689
690     ch = lex_getch(lex);
691     while (ch != EOF && ch != '\n' && isspace(ch))
692         ch = lex_getch(lex);
693
694     if (ch == '\n')
695         return 1;
696
697     if (!isident_start(ch)) {
698         lexerror(lex, "invalid framename, must start with one of a-z or _, got %c", ch);
699         return -1;
700     }
701
702     lex_tokench(lex, ch);
703     if (!lex_finish_ident(lex))
704         return -1;
705     lex_endtoken(lex);
706     return 0;
707 }
708
709 /* read a list of $frames */
710 static bool lex_finish_frames(lex_file *lex)
711 {
712     do {
713         size_t i;
714         int    rc;
715         frame_macro m;
716
717         rc = lex_parse_frame(lex);
718         if (rc > 0) /* end of line */
719             return true;
720         if (rc < 0) /* error */
721             return false;
722
723         for (i = 0; i < vec_size(lex->frames); ++i) {
724             if (!strcmp(lex->tok.value, lex->frames[i].name)) {
725                 lex->frames[i].value = lex->framevalue++;
726                 if (lexwarn(lex, WARN_FRAME_MACROS, "duplicate frame macro defined: `%s`", lex->tok.value))
727                     return false;
728                 break;
729             }
730         }
731         if (i < vec_size(lex->frames))
732             continue;
733
734         m.value = lex->framevalue++;
735         m.name = util_strdup(lex->tok.value);
736         vec_shrinkto(lex->tok.value, 0);
737         vec_push(lex->frames, m);
738     } while (true);
739 }
740
741 static int GMQCC_WARN lex_finish_string(lex_file *lex, int quote)
742 {
743     int ch = 0;
744     int nextch;
745
746     while (ch != EOF)
747     {
748         ch = lex_getch(lex);
749         if (ch == quote)
750             return TOKEN_STRINGCONST;
751
752         if (lex->flags.preprocessing && ch == '\\') {
753             lex_tokench(lex, ch);
754             ch = lex_getch(lex);
755             if (ch == EOF) {
756                 lexerror(lex, "unexpected end of file");
757                 lex_ungetch(lex, EOF); /* next token to be TOKEN_EOF */
758                 return (lex->tok.ttype = TOKEN_ERROR);
759             }
760             lex_tokench(lex, ch);
761         }
762         else if (ch == '\\') {
763             ch = lex_getch(lex);
764             if (ch == EOF) {
765                 lexerror(lex, "unexpected end of file");
766                 lex_ungetch(lex, EOF); /* next token to be TOKEN_EOF */
767                 return (lex->tok.ttype = TOKEN_ERROR);
768             }
769
770             switch (ch) {
771             case '\\': break;
772             case '\'': break;
773             case '"':  break;
774             case 'a':  ch = '\a'; break;
775             case 'b':  ch = '\b'; break;
776             case 'r':  ch = '\r'; break;
777             case 'n':  ch = '\n'; break;
778             case 't':  ch = '\t'; break;
779             case 'f':  ch = '\f'; break;
780             case 'v':  ch = '\v'; break;
781             case 'x':
782             case 'X':
783                 /* same procedure as in fteqcc */
784                 ch = 0;
785                 nextch = lex_getch(lex);
786                 if      (nextch >= '0' && nextch <= '9')
787                     ch += nextch - '0';
788                 else if (nextch >= 'a' && nextch <= 'f')
789                     ch += nextch - 'a' + 10;
790                 else if (nextch >= 'A' && nextch <= 'F')
791                     ch += nextch - 'A' + 10;
792                 else {
793                     lexerror(lex, "bad character code");
794                     lex_ungetch(lex, nextch);
795                     return (lex->tok.ttype = TOKEN_ERROR);
796                 }
797
798                 ch *= 0x10;
799                 nextch = lex_getch(lex);
800                 if      (nextch >= '0' && nextch <= '9')
801                     ch += nextch - '0';
802                 else if (nextch >= 'a' && nextch <= 'f')
803                     ch += nextch - 'a' + 10;
804                 else if (nextch >= 'A' && nextch <= 'F')
805                     ch += nextch - 'A' + 10;
806                 else {
807                     lexerror(lex, "bad character code");
808                     lex_ungetch(lex, nextch);
809                     return (lex->tok.ttype = TOKEN_ERROR);
810                 }
811                 break;
812
813             /* fteqcc support */
814             case '0': case '1': case '2': case '3':
815             case '4': case '5': case '6': case '7':
816             case '8': case '9':
817                 ch = 18 + ch - '0';
818                 break;
819             case '<':  ch = 29; break;
820             case '-':  ch = 30; break;
821             case '>':  ch = 31; break;
822             case '[':  ch = 16; break;
823             case ']':  ch = 17; break;
824             case '{':
825                 ch = 0;
826                 for (nextch = lex_getch(lex); nextch != '}'; nextch = lex_getch(lex)) {
827                     ch = ch * 10 + nextch - '0';
828                     if (nextch < '0' || nextch > '9' || ch > 255) {
829                         lexerror(lex, "bad character code");
830                         return (lex->tok.ttype = TOKEN_ERROR);
831                     }
832                 }
833                 break;
834             case '\n':  ch = '\n'; break;
835
836             default:
837                 lexwarn(lex, WARN_UNKNOWN_CONTROL_SEQUENCE, "unrecognized control sequence: \\%c", ch);
838                 /* so we just add the character plus backslash no matter what it actually is */
839                 lex_tokench(lex, '\\');
840             }
841             /* add the character finally */
842             lex_tokench(lex, ch);
843         }
844         else
845             lex_tokench(lex, ch);
846     }
847     lexerror(lex, "unexpected end of file within string constant");
848     lex_ungetch(lex, EOF); /* next token to be TOKEN_EOF */
849     return (lex->tok.ttype = TOKEN_ERROR);
850 }
851
852 static int GMQCC_WARN lex_finish_digit(lex_file *lex, int lastch)
853 {
854     bool ishex = false;
855
856     int  ch = lastch;
857
858     /* parse a number... */
859     if (ch == '.')
860         lex->tok.ttype = TOKEN_FLOATCONST;
861     else
862         lex->tok.ttype = TOKEN_INTCONST;
863
864     lex_tokench(lex, ch);
865
866     ch = lex_getch(lex);
867     if (ch != '.' && !isdigit(ch))
868     {
869         if (lastch != '0' || ch != 'x')
870         {
871             /* end of the number or EOF */
872             lex_ungetch(lex, ch);
873             lex_endtoken(lex);
874
875             lex->tok.constval.i = lastch - '0';
876             return lex->tok.ttype;
877         }
878
879         ishex = true;
880     }
881
882     /* EOF would have been caught above */
883
884     if (ch != '.')
885     {
886         lex_tokench(lex, ch);
887         ch = lex_getch(lex);
888         while (isdigit(ch) || (ishex && isxdigit_only(ch)))
889         {
890             lex_tokench(lex, ch);
891             ch = lex_getch(lex);
892         }
893     }
894     /* NOT else, '.' can come from above as well */
895     if (lex->tok.ttype != TOKEN_FLOATCONST && ch == '.' && !ishex)
896     {
897         /* Allow floating comma in non-hex mode */
898         lex->tok.ttype = TOKEN_FLOATCONST;
899         lex_tokench(lex, ch);
900
901         /* continue digits-only */
902         ch = lex_getch(lex);
903         while (isdigit(ch))
904         {
905             lex_tokench(lex, ch);
906             ch = lex_getch(lex);
907         }
908     }
909     /* put back the last character */
910     /* but do not put back the trailing 'f' or a float */
911     if (lex->tok.ttype == TOKEN_FLOATCONST && ch == 'f')
912         ch = lex_getch(lex);
913
914     /* generally we don't want words to follow numbers: */
915     if (isident(ch)) {
916         lexerror(lex, "unexpected trailing characters after number");
917         return (lex->tok.ttype = TOKEN_ERROR);
918     }
919     lex_ungetch(lex, ch);
920
921     lex_endtoken(lex);
922     if (lex->tok.ttype == TOKEN_FLOATCONST)
923         lex->tok.constval.f = strtod(lex->tok.value, NULL);
924     else
925         lex->tok.constval.i = strtol(lex->tok.value, NULL, 0);
926     return lex->tok.ttype;
927 }
928
929 int lex_do(lex_file *lex)
930 {
931     int ch, nextch, thirdch;
932     bool hadwhite = false;
933
934     lex_token_new(lex);
935 #if 0
936     if (!lex->tok)
937         return TOKEN_FATAL;
938 #endif
939
940     while (true) {
941         ch = lex_skipwhite(lex, hadwhite);
942         hadwhite = true;
943         if (!lex->flags.mergelines || ch != '\\')
944             break;
945         ch = lex_getch(lex);
946         if (ch != '\n') {
947             lex_ungetch(lex, ch);
948             ch = '\\';
949             break;
950         }
951         /* we reached a linemerge */
952         lex_tokench(lex, '\n');
953         continue;
954     }
955
956     if (lex->flags.preprocessing && (ch == TOKEN_WHITE || ch == TOKEN_EOL || ch == TOKEN_FATAL)) {
957         return (lex->tok.ttype = ch);
958     }
959
960     lex->sline = lex->line;
961     lex->tok.ctx.line = lex->sline;
962     lex->tok.ctx.file = lex->name;
963
964     if (lex->eof)
965         return (lex->tok.ttype = TOKEN_FATAL);
966
967     if (ch == EOF) {
968         lex->eof = true;
969         return (lex->tok.ttype = TOKEN_EOF);
970     }
971
972     /* modelgen / spiritgen commands */
973     if (ch == '$' && !lex->flags.preprocessing) {
974         const char *v;
975         size_t frame;
976
977         ch = lex_getch(lex);
978         if (!isident_start(ch)) {
979             lexerror(lex, "hanging '$' modelgen/spritegen command line");
980             return lex_do(lex);
981         }
982         lex_tokench(lex, ch);
983         if (!lex_finish_ident(lex))
984             return (lex->tok.ttype = TOKEN_ERROR);
985         lex_endtoken(lex);
986         /* skip the known commands */
987         v = lex->tok.value;
988
989         if (!strcmp(v, "frame") || !strcmp(v, "framesave"))
990         {
991             /* frame/framesave command works like an enum
992              * similar to fteqcc we handle this in the lexer.
993              * The reason for this is that it is sensitive to newlines,
994              * which the parser is unaware of
995              */
996             if (!lex_finish_frames(lex))
997                  return (lex->tok.ttype = TOKEN_ERROR);
998             return lex_do(lex);
999         }
1000
1001         if (!strcmp(v, "framevalue"))
1002         {
1003             ch = lex_getch(lex);
1004             while (ch != EOF && isspace(ch) && ch != '\n')
1005                 ch = lex_getch(lex);
1006
1007             if (!isdigit(ch)) {
1008                 lexerror(lex, "$framevalue requires an integer parameter");
1009                 return lex_do(lex);
1010             }
1011
1012             lex_token_new(lex);
1013             lex->tok.ttype = lex_finish_digit(lex, ch);
1014             lex_endtoken(lex);
1015             if (lex->tok.ttype != TOKEN_INTCONST) {
1016                 lexerror(lex, "$framevalue requires an integer parameter");
1017                 return lex_do(lex);
1018             }
1019             lex->framevalue = lex->tok.constval.i;
1020             return lex_do(lex);
1021         }
1022
1023         if (!strcmp(v, "framerestore"))
1024         {
1025             int rc;
1026
1027             lex_token_new(lex);
1028
1029             rc = lex_parse_frame(lex);
1030
1031             if (rc > 0) {
1032                 lexerror(lex, "$framerestore requires a framename parameter");
1033                 return lex_do(lex);
1034             }
1035             if (rc < 0)
1036                 return (lex->tok.ttype = TOKEN_FATAL);
1037
1038             v = lex->tok.value;
1039             for (frame = 0; frame < vec_size(lex->frames); ++frame) {
1040                 if (!strcmp(v, lex->frames[frame].name)) {
1041                     lex->framevalue = lex->frames[frame].value;
1042                     return lex_do(lex);
1043                 }
1044             }
1045             lexerror(lex, "unknown framename `%s`", v);
1046             return lex_do(lex);
1047         }
1048
1049         if (!strcmp(v, "modelname"))
1050         {
1051             int rc;
1052
1053             lex_token_new(lex);
1054
1055             rc = lex_parse_frame(lex);
1056
1057             if (rc > 0) {
1058                 lexerror(lex, "$modelname requires a parameter");
1059                 return lex_do(lex);
1060             }
1061             if (rc < 0)
1062                 return (lex->tok.ttype = TOKEN_FATAL);
1063
1064             if (lex->modelname) {
1065                 frame_macro m;
1066                 m.value = lex->framevalue;
1067                 m.name = lex->modelname;
1068                 lex->modelname = NULL;
1069                 vec_push(lex->frames, m);
1070             }
1071             lex->modelname = lex->tok.value;
1072             lex->tok.value = NULL;
1073             return lex_do(lex);
1074         }
1075
1076         if (!strcmp(v, "flush"))
1077         {
1078             size_t fi;
1079             for (fi = 0; fi < vec_size(lex->frames); ++fi)
1080                 mem_d(lex->frames[fi].name);
1081             vec_free(lex->frames);
1082             /* skip line (fteqcc does it too) */
1083             ch = lex_getch(lex);
1084             while (ch != EOF && ch != '\n')
1085                 ch = lex_getch(lex);
1086             return lex_do(lex);
1087         }
1088
1089         if (!strcmp(v, "cd") ||
1090             !strcmp(v, "origin") ||
1091             !strcmp(v, "base") ||
1092             !strcmp(v, "flags") ||
1093             !strcmp(v, "scale") ||
1094             !strcmp(v, "skin"))
1095         {
1096             /* skip line */
1097             ch = lex_getch(lex);
1098             while (ch != EOF && ch != '\n')
1099                 ch = lex_getch(lex);
1100             return lex_do(lex);
1101         }
1102
1103         for (frame = 0; frame < vec_size(lex->frames); ++frame) {
1104             if (!strcmp(v, lex->frames[frame].name)) {
1105                 lex->tok.constval.i = lex->frames[frame].value;
1106                 return (lex->tok.ttype = TOKEN_INTCONST);
1107             }
1108         }
1109
1110         lexerror(lex, "invalid frame macro");
1111         return lex_do(lex);
1112     }
1113
1114     /* single-character tokens */
1115     switch (ch)
1116     {
1117         case '[':
1118             nextch = lex_getch(lex);
1119             if (nextch == '[') {
1120                 lex_tokench(lex, ch);
1121                 lex_tokench(lex, nextch);
1122                 lex_endtoken(lex);
1123                 return (lex->tok.ttype = TOKEN_ATTRIBUTE_OPEN);
1124             }
1125             lex_ungetch(lex, nextch);
1126             /* FALL THROUGH */
1127         case '(':
1128         case ':':
1129         case '?':
1130             lex_tokench(lex, ch);
1131             lex_endtoken(lex);
1132             if (lex->flags.noops)
1133                 return (lex->tok.ttype = ch);
1134             else
1135                 return (lex->tok.ttype = TOKEN_OPERATOR);
1136
1137         case ']':
1138             nextch = lex_getch(lex);
1139             if (nextch == ']') {
1140                 lex_tokench(lex, ch);
1141                 lex_tokench(lex, nextch);
1142                 lex_endtoken(lex);
1143                 return (lex->tok.ttype = TOKEN_ATTRIBUTE_CLOSE);
1144             }
1145             lex_ungetch(lex, nextch);
1146             /* FALL THROUGH */
1147         case ')':
1148         case ';':
1149         case '{':
1150         case '}':
1151
1152         case '#':
1153             lex_tokench(lex, ch);
1154             lex_endtoken(lex);
1155             return (lex->tok.ttype = ch);
1156         default:
1157             break;
1158     }
1159
1160     if (ch == '.') {
1161         nextch = lex_getch(lex);
1162         /* digits starting with a dot */
1163         if (isdigit(nextch)) {
1164             lex_ungetch(lex, nextch);
1165             lex->tok.ttype = lex_finish_digit(lex, ch);
1166             lex_endtoken(lex);
1167             return lex->tok.ttype;
1168         }
1169         lex_ungetch(lex, nextch);
1170     }
1171
1172     if (lex->flags.noops)
1173     {
1174         /* Detect characters early which are normally
1175          * operators OR PART of an operator.
1176          */
1177         switch (ch)
1178         {
1179             /*
1180             case '+':
1181             case '-':
1182             */
1183             case '*':
1184             case '/':
1185             case '<':
1186             case '>':
1187             case '=':
1188             case '&':
1189             case '|':
1190             case '^':
1191             case '~':
1192             case ',':
1193             case '!':
1194                 lex_tokench(lex, ch);
1195                 lex_endtoken(lex);
1196                 return (lex->tok.ttype = ch);
1197             default:
1198                 break;
1199         }
1200
1201         if (ch == '.')
1202         {
1203             lex_tokench(lex, ch);
1204             /* peak ahead once */
1205             nextch = lex_getch(lex);
1206             if (nextch != '.') {
1207                 lex_ungetch(lex, nextch);
1208                 lex_endtoken(lex);
1209                 return (lex->tok.ttype = ch);
1210             }
1211             /* peak ahead again */
1212             nextch = lex_getch(lex);
1213             if (nextch != '.') {
1214                 lex_ungetch(lex, nextch);
1215                 lex_ungetch(lex, '.');
1216                 lex_endtoken(lex);
1217                 return (lex->tok.ttype = ch);
1218             }
1219             /* fill the token to be "..." */
1220             lex_tokench(lex, ch);
1221             lex_tokench(lex, ch);
1222             lex_endtoken(lex);
1223             return (lex->tok.ttype = TOKEN_DOTS);
1224         }
1225     }
1226
1227     if (ch == ',' || ch == '.') {
1228         lex_tokench(lex, ch);
1229         lex_endtoken(lex);
1230         return (lex->tok.ttype = TOKEN_OPERATOR);
1231     }
1232
1233     if (ch == '+' || ch == '-' || /* ++, --, +=, -=  and -> as well! */
1234         ch == '>' || ch == '<' || /* <<, >>, <=, >= */
1235         ch == '=' || ch == '!' || /* ==, != */
1236         ch == '&' || ch == '|')   /* &&, ||, &=, |= */
1237     {
1238         lex_tokench(lex, ch);
1239
1240         nextch = lex_getch(lex);
1241         if (nextch == '=' || (nextch == ch && ch != '!')) {
1242             lex_tokench(lex, nextch);
1243         } else if (ch == '-' && nextch == '>') {
1244             lex_tokench(lex, nextch);
1245         } else if (ch == '&' && nextch == '~') {
1246             thirdch = lex_getch(lex);
1247             if (thirdch != '=') {
1248                 lex_ungetch(lex, thirdch);
1249                 lex_ungetch(lex, nextch);
1250             }
1251             else {
1252                 lex_tokench(lex, nextch);
1253                 lex_tokench(lex, thirdch);
1254             }
1255         } else
1256             lex_ungetch(lex, nextch);
1257
1258         lex_endtoken(lex);
1259         return (lex->tok.ttype = TOKEN_OPERATOR);
1260     }
1261
1262     /*
1263     if (ch == '^' || ch == '~' || ch == '!')
1264     {
1265         lex_tokench(lex, ch);
1266         lex_endtoken(lex);
1267         return (lex->tok.ttype = TOKEN_OPERATOR);
1268     }
1269     */
1270
1271     if (ch == '*' || ch == '/') /* *=, /= */
1272     {
1273         lex_tokench(lex, ch);
1274
1275         nextch = lex_getch(lex);
1276         if (nextch == '=') {
1277             lex_tokench(lex, nextch);
1278         } else
1279             lex_ungetch(lex, nextch);
1280
1281         lex_endtoken(lex);
1282         return (lex->tok.ttype = TOKEN_OPERATOR);
1283     }
1284
1285     if (isident_start(ch))
1286     {
1287         const char *v;
1288
1289         lex_tokench(lex, ch);
1290         if (!lex_finish_ident(lex)) {
1291             /* error? */
1292             return (lex->tok.ttype = TOKEN_ERROR);
1293         }
1294         lex_endtoken(lex);
1295         lex->tok.ttype = TOKEN_IDENT;
1296
1297         v = lex->tok.value;
1298         if (!strcmp(v, "void")) {
1299             lex->tok.ttype = TOKEN_TYPENAME;
1300             lex->tok.constval.t = TYPE_VOID;
1301         } else if (!strcmp(v, "int")) {
1302             lex->tok.ttype = TOKEN_TYPENAME;
1303             lex->tok.constval.t = TYPE_INTEGER;
1304         } else if (!strcmp(v, "float")) {
1305             lex->tok.ttype = TOKEN_TYPENAME;
1306             lex->tok.constval.t = TYPE_FLOAT;
1307         } else if (!strcmp(v, "string")) {
1308             lex->tok.ttype = TOKEN_TYPENAME;
1309             lex->tok.constval.t = TYPE_STRING;
1310         } else if (!strcmp(v, "entity")) {
1311             lex->tok.ttype = TOKEN_TYPENAME;
1312             lex->tok.constval.t = TYPE_ENTITY;
1313         } else if (!strcmp(v, "vector")) {
1314             lex->tok.ttype = TOKEN_TYPENAME;
1315             lex->tok.constval.t = TYPE_VECTOR;
1316         } else {
1317             size_t kw;
1318             for (kw = 0; kw < num_keywords_qc; ++kw) {
1319                 if (!strcmp(v, keywords_qc[kw]))
1320                     return (lex->tok.ttype = TOKEN_KEYWORD);
1321             }
1322             if (opts.standard != COMPILER_QCC) {
1323                 for (kw = 0; kw < num_keywords_fg; ++kw) {
1324                     if (!strcmp(v, keywords_fg[kw]))
1325                         return (lex->tok.ttype = TOKEN_KEYWORD);
1326                 }
1327             }
1328         }
1329
1330         return lex->tok.ttype;
1331     }
1332
1333     if (ch == '"')
1334     {
1335         lex->flags.nodigraphs = true;
1336         if (lex->flags.preprocessing)
1337             lex_tokench(lex, ch);
1338         lex->tok.ttype = lex_finish_string(lex, '"');
1339         if (lex->flags.preprocessing)
1340             lex_tokench(lex, ch);
1341         while (!lex->flags.preprocessing && lex->tok.ttype == TOKEN_STRINGCONST)
1342         {
1343             /* Allow c style "string" "continuation" */
1344             ch = lex_skipwhite(lex, false);
1345             if (ch != '"') {
1346                 lex_ungetch(lex, ch);
1347                 break;
1348             }
1349
1350             lex->tok.ttype = lex_finish_string(lex, '"');
1351         }
1352         lex->flags.nodigraphs = false;
1353         lex_endtoken(lex);
1354         return lex->tok.ttype;
1355     }
1356
1357     if (ch == '\'')
1358     {
1359         /* we parse character constants like string,
1360          * but return TOKEN_CHARCONST, or a vector type if it fits...
1361          * Likewise actual unescaping has to be done by the parser.
1362          * The difference is we don't allow 'char' 'continuation'.
1363          */
1364         if (lex->flags.preprocessing)
1365             lex_tokench(lex, ch);
1366         lex->tok.ttype = lex_finish_string(lex, '\'');
1367         if (lex->flags.preprocessing)
1368             lex_tokench(lex, ch);
1369         lex_endtoken(lex);
1370
1371         lex->tok.ttype = TOKEN_CHARCONST;
1372          /* It's a vector if we can successfully scan 3 floats */
1373 #ifdef _MSC_VER
1374         if (sscanf_s(lex->tok.value, " %f %f %f ",
1375                    &lex->tok.constval.v.x, &lex->tok.constval.v.y, &lex->tok.constval.v.z) == 3)
1376 #else
1377         if (sscanf(lex->tok.value, " %f %f %f ",
1378                    &lex->tok.constval.v.x, &lex->tok.constval.v.y, &lex->tok.constval.v.z) == 3)
1379 #endif
1380
1381         {
1382              lex->tok.ttype = TOKEN_VECTORCONST;
1383         }
1384         else
1385         {
1386             if (!lex->flags.preprocessing && strlen(lex->tok.value) > 1) {
1387                 if (lexwarn(lex, WARN_MULTIBYTE_CHARACTER, "multibyte character: `%s`", lex->tok.value))
1388                     return (lex->tok.ttype = TOKEN_ERROR);
1389             }
1390             lex->tok.constval.i = lex->tok.value[0];
1391         }
1392
1393         return lex->tok.ttype;
1394     }
1395
1396     if (isdigit(ch))
1397     {
1398         lex->tok.ttype = lex_finish_digit(lex, ch);
1399         lex_endtoken(lex);
1400         return lex->tok.ttype;
1401     }
1402
1403     if (lex->flags.preprocessing) {
1404         lex_tokench(lex, ch);
1405         lex_endtoken(lex);
1406         return (lex->tok.ttype = ch);
1407     }
1408
1409     lexerror(lex, "unknown token");
1410     return (lex->tok.ttype = TOKEN_ERROR);
1411 }