OSDN Git Service

Merge 4.4.203 into android-4.4-p
[sagit-ice-cold/kernel_xiaomi_msm8998.git] / kernel / printk / printk.c
1 /*
2  *  linux/kernel/printk.c
3  *
4  *  Copyright (C) 1991, 1992  Linus Torvalds
5  *
6  * Modified to make sys_syslog() more flexible: added commands to
7  * return the last 4k of kernel messages, regardless of whether
8  * they've been read or not.  Added option to suppress kernel printk's
9  * to the console.  Added hook for sending the console messages
10  * elsewhere, in preparation for a serial line console (someday).
11  * Ted Ts'o, 2/11/93.
12  * Modified for sysctl support, 1/8/97, Chris Horn.
13  * Fixed SMP synchronization, 08/08/99, Manfred Spraul
14  *     manfred@colorfullife.com
15  * Rewrote bits to get rid of console_lock
16  *      01Mar01 Andrew Morton
17  */
18
19 #include <linux/kernel.h>
20 #include <linux/mm.h>
21 #include <linux/tty.h>
22 #include <linux/tty_driver.h>
23 #include <linux/console.h>
24 #include <linux/init.h>
25 #include <linux/jiffies.h>
26 #include <linux/nmi.h>
27 #include <linux/module.h>
28 #include <linux/moduleparam.h>
29 #include <linux/interrupt.h>                    /* For in_interrupt() */
30 #include <linux/delay.h>
31 #include <linux/smp.h>
32 #include <linux/security.h>
33 #include <linux/bootmem.h>
34 #include <linux/memblock.h>
35 #include <linux/syscalls.h>
36 #include <linux/kexec.h>
37 #include <linux/kdb.h>
38 #include <linux/ratelimit.h>
39 #include <linux/kmsg_dump.h>
40 #include <linux/syslog.h>
41 #include <linux/cpu.h>
42 #include <linux/notifier.h>
43 #include <linux/rculist.h>
44 #include <linux/poll.h>
45 #include <linux/irq_work.h>
46 #include <linux/utsname.h>
47 #include <linux/ctype.h>
48 #include <linux/uio.h>
49
50 #include <asm/uaccess.h>
51
52 #define CREATE_TRACE_POINTS
53 #include <trace/events/printk.h>
54
55 #include "console_cmdline.h"
56 #include "braille.h"
57
58 #ifdef CONFIG_EARLY_PRINTK_DIRECT
59 extern void printascii(char *);
60 #endif
61
62 int console_printk[4] = {
63         CONSOLE_LOGLEVEL_DEFAULT,       /* console_loglevel */
64         MESSAGE_LOGLEVEL_DEFAULT,       /* default_message_loglevel */
65         CONSOLE_LOGLEVEL_MIN,           /* minimum_console_loglevel */
66         CONSOLE_LOGLEVEL_DEFAULT,       /* default_console_loglevel */
67 };
68
69 /*
70  * Low level drivers may need that to know if they can schedule in
71  * their unblank() callback or not. So let's export it.
72  */
73 int oops_in_progress;
74 EXPORT_SYMBOL(oops_in_progress);
75
76 /*
77  * console_sem protects the console_drivers list, and also
78  * provides serialisation for access to the entire console
79  * driver system.
80  */
81 static DEFINE_SEMAPHORE(console_sem);
82 struct console *console_drivers;
83 EXPORT_SYMBOL_GPL(console_drivers);
84
85 #ifdef CONFIG_LOCKDEP
86 static struct lockdep_map console_lock_dep_map = {
87         .name = "console_lock"
88 };
89 #endif
90
91 /*
92  * Number of registered extended console drivers.
93  *
94  * If extended consoles are present, in-kernel cont reassembly is disabled
95  * and each fragment is stored as a separate log entry with proper
96  * continuation flag so that every emitted message has full metadata.  This
97  * doesn't change the result for regular consoles or /proc/kmsg.  For
98  * /dev/kmsg, as long as the reader concatenates messages according to
99  * consecutive continuation flags, the end result should be the same too.
100  */
101 static int nr_ext_console_drivers;
102
103 /*
104  * Helper macros to handle lockdep when locking/unlocking console_sem. We use
105  * macros instead of functions so that _RET_IP_ contains useful information.
106  */
107 #define down_console_sem() do { \
108         down(&console_sem);\
109         mutex_acquire(&console_lock_dep_map, 0, 0, _RET_IP_);\
110 } while (0)
111
112 static int __down_trylock_console_sem(unsigned long ip)
113 {
114         if (down_trylock(&console_sem))
115                 return 1;
116         mutex_acquire(&console_lock_dep_map, 0, 1, ip);
117         return 0;
118 }
119 #define down_trylock_console_sem() __down_trylock_console_sem(_RET_IP_)
120
121 #define up_console_sem() do { \
122         mutex_release(&console_lock_dep_map, 1, _RET_IP_);\
123         up(&console_sem);\
124 } while (0)
125
126 /*
127  * This is used for debugging the mess that is the VT code by
128  * keeping track if we have the console semaphore held. It's
129  * definitely not the perfect debug tool (we don't know if _WE_
130  * hold it and are racing, but it helps tracking those weird code
131  * paths in the console code where we end up in places I want
132  * locked without the console sempahore held).
133  */
134 static int console_locked, console_suspended;
135
136 /*
137  * If exclusive_console is non-NULL then only this console is to be printed to.
138  */
139 static struct console *exclusive_console;
140
141 /*
142  *      Array of consoles built from command line options (console=)
143  */
144
145 #define MAX_CMDLINECONSOLES 8
146
147 static struct console_cmdline console_cmdline[MAX_CMDLINECONSOLES];
148
149 static int selected_console = -1;
150 static int preferred_console = -1;
151 int console_set_on_cmdline;
152 EXPORT_SYMBOL(console_set_on_cmdline);
153
154 /* Flag: console code may call schedule() */
155 static int console_may_schedule;
156
157 /*
158  * The printk log buffer consists of a chain of concatenated variable
159  * length records. Every record starts with a record header, containing
160  * the overall length of the record.
161  *
162  * The heads to the first and last entry in the buffer, as well as the
163  * sequence numbers of these entries are maintained when messages are
164  * stored.
165  *
166  * If the heads indicate available messages, the length in the header
167  * tells the start next message. A length == 0 for the next message
168  * indicates a wrap-around to the beginning of the buffer.
169  *
170  * Every record carries the monotonic timestamp in microseconds, as well as
171  * the standard userspace syslog level and syslog facility. The usual
172  * kernel messages use LOG_KERN; userspace-injected messages always carry
173  * a matching syslog facility, by default LOG_USER. The origin of every
174  * message can be reliably determined that way.
175  *
176  * The human readable log message directly follows the message header. The
177  * length of the message text is stored in the header, the stored message
178  * is not terminated.
179  *
180  * Optionally, a message can carry a dictionary of properties (key/value pairs),
181  * to provide userspace with a machine-readable message context.
182  *
183  * Examples for well-defined, commonly used property names are:
184  *   DEVICE=b12:8               device identifier
185  *                                b12:8         block dev_t
186  *                                c127:3        char dev_t
187  *                                n8            netdev ifindex
188  *                                +sound:card0  subsystem:devname
189  *   SUBSYSTEM=pci              driver-core subsystem name
190  *
191  * Valid characters in property names are [a-zA-Z0-9.-_]. The plain text value
192  * follows directly after a '=' character. Every property is terminated by
193  * a '\0' character. The last property is not terminated.
194  *
195  * Example of a message structure:
196  *   0000  ff 8f 00 00 00 00 00 00      monotonic time in nsec
197  *   0008  34 00                        record is 52 bytes long
198  *   000a        0b 00                  text is 11 bytes long
199  *   000c              1f 00            dictionary is 23 bytes long
200  *   000e                    03 00      LOG_KERN (facility) LOG_ERR (level)
201  *   0010  69 74 27 73 20 61 20 6c      "it's a l"
202  *         69 6e 65                     "ine"
203  *   001b           44 45 56 49 43      "DEVIC"
204  *         45 3d 62 38 3a 32 00 44      "E=b8:2\0D"
205  *         52 49 56 45 52 3d 62 75      "RIVER=bu"
206  *         67                           "g"
207  *   0032     00 00 00                  padding to next message header
208  *
209  * The 'struct printk_log' buffer header must never be directly exported to
210  * userspace, it is a kernel-private implementation detail that might
211  * need to be changed in the future, when the requirements change.
212  *
213  * /dev/kmsg exports the structured data in the following line format:
214  *   "<level>,<sequnum>,<timestamp>,<contflag>[,additional_values, ... ];<message text>\n"
215  *
216  * Users of the export format should ignore possible additional values
217  * separated by ',', and find the message after the ';' character.
218  *
219  * The optional key/value pairs are attached as continuation lines starting
220  * with a space character and terminated by a newline. All possible
221  * non-prinatable characters are escaped in the "\xff" notation.
222  */
223
224 enum log_flags {
225         LOG_NOCONS      = 1,    /* already flushed, do not print to console */
226         LOG_NEWLINE     = 2,    /* text ended with a newline */
227         LOG_PREFIX      = 4,    /* text started with a prefix */
228         LOG_CONT        = 8,    /* text is a fragment of a continuation line */
229 };
230
231 struct printk_log {
232         u64 ts_nsec;            /* timestamp in nanoseconds */
233         u16 len;                /* length of entire record */
234         u16 text_len;           /* length of text buffer */
235         u16 dict_len;           /* length of dictionary buffer */
236         u8 facility;            /* syslog facility */
237         u8 flags:5;             /* internal record flags */
238         u8 level:3;             /* syslog level */
239 };
240
241 /*
242  * The logbuf_lock protects kmsg buffer, indices, counters.  This can be taken
243  * within the scheduler's rq lock. It must be released before calling
244  * console_unlock() or anything else that might wake up a process.
245  */
246 static DEFINE_RAW_SPINLOCK(logbuf_lock);
247
248 #ifdef CONFIG_PRINTK
249 DECLARE_WAIT_QUEUE_HEAD(log_wait);
250 /* the next printk record to read by syslog(READ) or /proc/kmsg */
251 static u64 syslog_seq;
252 static u32 syslog_idx;
253 static enum log_flags syslog_prev;
254 static size_t syslog_partial;
255
256 /* index and sequence number of the first record stored in the buffer */
257 static u64 log_first_seq;
258 static u32 log_first_idx;
259
260 /* index and sequence number of the next record to store in the buffer */
261 static u64 log_next_seq;
262 static u32 log_next_idx;
263
264 /* the next printk record to write to the console */
265 static u64 console_seq;
266 static u32 console_idx;
267 static enum log_flags console_prev;
268
269 /* the next printk record to read after the last 'clear' command */
270 static u64 clear_seq;
271 static u32 clear_idx;
272
273 #define PREFIX_MAX              32
274 #define LOG_LINE_MAX            (1024 - PREFIX_MAX)
275
276 #define LOG_LEVEL(v)            ((v) & 0x07)
277 #define LOG_FACILITY(v)         ((v) >> 3 & 0xff)
278
279 /* record buffer */
280 #if defined(CONFIG_HAVE_EFFICIENT_UNALIGNED_ACCESS)
281 #define LOG_ALIGN 4
282 #else
283 #define LOG_ALIGN __alignof__(struct printk_log)
284 #endif
285 #define __LOG_BUF_LEN (1 << CONFIG_LOG_BUF_SHIFT)
286 #define LOG_BUF_LEN_MAX (u32)(1 << 31)
287 static char __log_buf[__LOG_BUF_LEN] __aligned(LOG_ALIGN);
288 static char *log_buf = __log_buf;
289 static u32 log_buf_len = __LOG_BUF_LEN;
290
291 /* Return log buffer address */
292 char *log_buf_addr_get(void)
293 {
294         return log_buf;
295 }
296
297 /* Return log buffer size */
298 u32 log_buf_len_get(void)
299 {
300         return log_buf_len;
301 }
302
303 /* human readable text of the record */
304 static char *log_text(const struct printk_log *msg)
305 {
306         return (char *)msg + sizeof(struct printk_log);
307 }
308
309 /* optional key/value pair dictionary attached to the record */
310 static char *log_dict(const struct printk_log *msg)
311 {
312         return (char *)msg + sizeof(struct printk_log) + msg->text_len;
313 }
314
315 /* get record by index; idx must point to valid msg */
316 static struct printk_log *log_from_idx(u32 idx)
317 {
318         struct printk_log *msg = (struct printk_log *)(log_buf + idx);
319
320         /*
321          * A length == 0 record is the end of buffer marker. Wrap around and
322          * read the message at the start of the buffer.
323          */
324         if (!msg->len)
325                 return (struct printk_log *)log_buf;
326         return msg;
327 }
328
329 /* get next record; idx must point to valid msg */
330 static u32 log_next(u32 idx)
331 {
332         struct printk_log *msg = (struct printk_log *)(log_buf + idx);
333
334         /* length == 0 indicates the end of the buffer; wrap */
335         /*
336          * A length == 0 record is the end of buffer marker. Wrap around and
337          * read the message at the start of the buffer as *this* one, and
338          * return the one after that.
339          */
340         if (!msg->len) {
341                 msg = (struct printk_log *)log_buf;
342                 return msg->len;
343         }
344         return idx + msg->len;
345 }
346
347 /*
348  * Check whether there is enough free space for the given message.
349  *
350  * The same values of first_idx and next_idx mean that the buffer
351  * is either empty or full.
352  *
353  * If the buffer is empty, we must respect the position of the indexes.
354  * They cannot be reset to the beginning of the buffer.
355  */
356 static int logbuf_has_space(u32 msg_size, bool empty)
357 {
358         u32 free;
359
360         if (log_next_idx > log_first_idx || empty)
361                 free = max(log_buf_len - log_next_idx, log_first_idx);
362         else
363                 free = log_first_idx - log_next_idx;
364
365         /*
366          * We need space also for an empty header that signalizes wrapping
367          * of the buffer.
368          */
369         return free >= msg_size + sizeof(struct printk_log);
370 }
371
372 static int log_make_free_space(u32 msg_size)
373 {
374         while (log_first_seq < log_next_seq) {
375                 if (logbuf_has_space(msg_size, false))
376                         return 0;
377                 /* drop old messages until we have enough contiguous space */
378                 log_first_idx = log_next(log_first_idx);
379                 log_first_seq++;
380         }
381
382         /* sequence numbers are equal, so the log buffer is empty */
383         if (logbuf_has_space(msg_size, true))
384                 return 0;
385
386         return -ENOMEM;
387 }
388
389 /* compute the message size including the padding bytes */
390 static u32 msg_used_size(u16 text_len, u16 dict_len, u32 *pad_len)
391 {
392         u32 size;
393
394         size = sizeof(struct printk_log) + text_len + dict_len;
395         *pad_len = (-size) & (LOG_ALIGN - 1);
396         size += *pad_len;
397
398         return size;
399 }
400
401 /*
402  * Define how much of the log buffer we could take at maximum. The value
403  * must be greater than two. Note that only half of the buffer is available
404  * when the index points to the middle.
405  */
406 #define MAX_LOG_TAKE_PART 4
407 static const char trunc_msg[] = "<truncated>";
408
409 static u32 truncate_msg(u16 *text_len, u16 *trunc_msg_len,
410                         u16 *dict_len, u32 *pad_len)
411 {
412         /*
413          * The message should not take the whole buffer. Otherwise, it might
414          * get removed too soon.
415          */
416         u32 max_text_len = log_buf_len / MAX_LOG_TAKE_PART;
417         if (*text_len > max_text_len)
418                 *text_len = max_text_len;
419         /* enable the warning message */
420         *trunc_msg_len = strlen(trunc_msg);
421         /* disable the "dict" completely */
422         *dict_len = 0;
423         /* compute the size again, count also the warning message */
424         return msg_used_size(*text_len + *trunc_msg_len, 0, pad_len);
425 }
426
427 /* insert record into the buffer, discard old ones, update heads */
428 static int log_store(int facility, int level,
429                      enum log_flags flags, u64 ts_nsec,
430                      const char *dict, u16 dict_len,
431                      const char *text, u16 text_len)
432 {
433         struct printk_log *msg;
434         u32 size, pad_len;
435         u16 trunc_msg_len = 0;
436
437         /* number of '\0' padding bytes to next message */
438         size = msg_used_size(text_len, dict_len, &pad_len);
439
440         if (log_make_free_space(size)) {
441                 /* truncate the message if it is too long for empty buffer */
442                 size = truncate_msg(&text_len, &trunc_msg_len,
443                                     &dict_len, &pad_len);
444                 /* survive when the log buffer is too small for trunc_msg */
445                 if (log_make_free_space(size))
446                         return 0;
447         }
448
449         if (log_next_idx + size + sizeof(struct printk_log) > log_buf_len) {
450                 /*
451                  * This message + an additional empty header does not fit
452                  * at the end of the buffer. Add an empty header with len == 0
453                  * to signify a wrap around.
454                  */
455                 memset(log_buf + log_next_idx, 0, sizeof(struct printk_log));
456                 log_next_idx = 0;
457         }
458
459         /* fill message */
460         msg = (struct printk_log *)(log_buf + log_next_idx);
461         memcpy(log_text(msg), text, text_len);
462         msg->text_len = text_len;
463         if (trunc_msg_len) {
464                 memcpy(log_text(msg) + text_len, trunc_msg, trunc_msg_len);
465                 msg->text_len += trunc_msg_len;
466         }
467         memcpy(log_dict(msg), dict, dict_len);
468         msg->dict_len = dict_len;
469         msg->facility = facility;
470         msg->level = level & 7;
471         msg->flags = flags & 0x1f;
472         if (ts_nsec > 0)
473                 msg->ts_nsec = ts_nsec;
474         else
475                 msg->ts_nsec = local_clock();
476         memset(log_dict(msg) + dict_len, 0, pad_len);
477         msg->len = size;
478
479         /* insert message */
480         log_next_idx += msg->len;
481         log_next_seq++;
482
483         return msg->text_len;
484 }
485
486 int dmesg_restrict = IS_ENABLED(CONFIG_SECURITY_DMESG_RESTRICT);
487
488 static int syslog_action_restricted(int type)
489 {
490         if (dmesg_restrict)
491                 return 1;
492         /*
493          * Unless restricted, we allow "read all" and "get buffer size"
494          * for everybody.
495          */
496         return type != SYSLOG_ACTION_READ_ALL &&
497                type != SYSLOG_ACTION_SIZE_BUFFER;
498 }
499
500 int check_syslog_permissions(int type, int source)
501 {
502         /*
503          * If this is from /proc/kmsg and we've already opened it, then we've
504          * already done the capabilities checks at open time.
505          */
506         if (source == SYSLOG_FROM_PROC && type != SYSLOG_ACTION_OPEN)
507                 goto ok;
508
509         if (syslog_action_restricted(type)) {
510                 if (capable(CAP_SYSLOG))
511                         goto ok;
512                 /*
513                  * For historical reasons, accept CAP_SYS_ADMIN too, with
514                  * a warning.
515                  */
516                 if (capable(CAP_SYS_ADMIN)) {
517                         pr_warn_once("%s (%d): Attempt to access syslog with "
518                                      "CAP_SYS_ADMIN but no CAP_SYSLOG "
519                                      "(deprecated).\n",
520                                  current->comm, task_pid_nr(current));
521                         goto ok;
522                 }
523                 return -EPERM;
524         }
525 ok:
526         return security_syslog(type);
527 }
528 EXPORT_SYMBOL_GPL(check_syslog_permissions);
529
530 static void append_char(char **pp, char *e, char c)
531 {
532         if (*pp < e)
533                 *(*pp)++ = c;
534 }
535
536 static ssize_t msg_print_ext_header(char *buf, size_t size,
537                                     struct printk_log *msg, u64 seq,
538                                     enum log_flags prev_flags)
539 {
540         u64 ts_usec = msg->ts_nsec;
541         char cont = '-';
542
543         do_div(ts_usec, 1000);
544
545         /*
546          * If we couldn't merge continuation line fragments during the print,
547          * export the stored flags to allow an optional external merge of the
548          * records. Merging the records isn't always neccessarily correct, like
549          * when we hit a race during printing. In most cases though, it produces
550          * better readable output. 'c' in the record flags mark the first
551          * fragment of a line, '+' the following.
552          */
553         if (msg->flags & LOG_CONT && !(prev_flags & LOG_CONT))
554                 cont = 'c';
555         else if ((msg->flags & LOG_CONT) ||
556                  ((prev_flags & LOG_CONT) && !(msg->flags & LOG_PREFIX)))
557                 cont = '+';
558
559         return scnprintf(buf, size, "%u,%llu,%llu,%c;",
560                        (msg->facility << 3) | msg->level, seq, ts_usec, cont);
561 }
562
563 static ssize_t msg_print_ext_body(char *buf, size_t size,
564                                   char *dict, size_t dict_len,
565                                   char *text, size_t text_len)
566 {
567         char *p = buf, *e = buf + size;
568         size_t i;
569
570         /* escape non-printable characters */
571         for (i = 0; i < text_len; i++) {
572                 unsigned char c = text[i];
573
574                 if (c < ' ' || c >= 127 || c == '\\')
575                         p += scnprintf(p, e - p, "\\x%02x", c);
576                 else
577                         append_char(&p, e, c);
578         }
579         append_char(&p, e, '\n');
580
581         if (dict_len) {
582                 bool line = true;
583
584                 for (i = 0; i < dict_len; i++) {
585                         unsigned char c = dict[i];
586
587                         if (line) {
588                                 append_char(&p, e, ' ');
589                                 line = false;
590                         }
591
592                         if (c == '\0') {
593                                 append_char(&p, e, '\n');
594                                 line = true;
595                                 continue;
596                         }
597
598                         if (c < ' ' || c >= 127 || c == '\\') {
599                                 p += scnprintf(p, e - p, "\\x%02x", c);
600                                 continue;
601                         }
602
603                         append_char(&p, e, c);
604                 }
605                 append_char(&p, e, '\n');
606         }
607
608         return p - buf;
609 }
610
611 /* /dev/kmsg - userspace message inject/listen interface */
612 struct devkmsg_user {
613         u64 seq;
614         u32 idx;
615         enum log_flags prev;
616         struct mutex lock;
617         char buf[CONSOLE_EXT_LOG_MAX];
618 };
619
620 static ssize_t devkmsg_write(struct kiocb *iocb, struct iov_iter *from)
621 {
622         char *buf, *line;
623         int level = default_message_loglevel;
624         int facility = 1;       /* LOG_USER */
625         size_t len = iov_iter_count(from);
626         ssize_t ret = len;
627
628         if (len > LOG_LINE_MAX)
629                 return -EINVAL;
630         buf = kmalloc(len+1, GFP_KERNEL);
631         if (buf == NULL)
632                 return -ENOMEM;
633
634         buf[len] = '\0';
635         if (copy_from_iter(buf, len, from) != len) {
636                 kfree(buf);
637                 return -EFAULT;
638         }
639
640         /*
641          * Extract and skip the syslog prefix <[0-9]*>. Coming from userspace
642          * the decimal value represents 32bit, the lower 3 bit are the log
643          * level, the rest are the log facility.
644          *
645          * If no prefix or no userspace facility is specified, we
646          * enforce LOG_USER, to be able to reliably distinguish
647          * kernel-generated messages from userspace-injected ones.
648          */
649         line = buf;
650         if (line[0] == '<') {
651                 char *endp = NULL;
652                 unsigned int u;
653
654                 u = simple_strtoul(line + 1, &endp, 10);
655                 if (endp && endp[0] == '>') {
656                         level = LOG_LEVEL(u);
657                         if (LOG_FACILITY(u) != 0)
658                                 facility = LOG_FACILITY(u);
659                         endp++;
660                         len -= endp - line;
661                         line = endp;
662                 }
663         }
664
665         printk_emit(facility, level, NULL, 0, "%s", line);
666         kfree(buf);
667         return ret;
668 }
669
670 static ssize_t devkmsg_read(struct file *file, char __user *buf,
671                             size_t count, loff_t *ppos)
672 {
673         struct devkmsg_user *user = file->private_data;
674         struct printk_log *msg;
675         size_t len;
676         ssize_t ret;
677
678         if (!user)
679                 return -EBADF;
680
681         ret = mutex_lock_interruptible(&user->lock);
682         if (ret)
683                 return ret;
684         raw_spin_lock_irq(&logbuf_lock);
685         while (user->seq == log_next_seq) {
686                 if (file->f_flags & O_NONBLOCK) {
687                         ret = -EAGAIN;
688                         raw_spin_unlock_irq(&logbuf_lock);
689                         goto out;
690                 }
691
692                 raw_spin_unlock_irq(&logbuf_lock);
693                 ret = wait_event_interruptible(log_wait,
694                                                user->seq != log_next_seq);
695                 if (ret)
696                         goto out;
697                 raw_spin_lock_irq(&logbuf_lock);
698         }
699
700         if (user->seq < log_first_seq) {
701                 /* our last seen message is gone, return error and reset */
702                 user->idx = log_first_idx;
703                 user->seq = log_first_seq;
704                 ret = -EPIPE;
705                 raw_spin_unlock_irq(&logbuf_lock);
706                 goto out;
707         }
708
709         msg = log_from_idx(user->idx);
710         len = msg_print_ext_header(user->buf, sizeof(user->buf),
711                                    msg, user->seq, user->prev);
712         len += msg_print_ext_body(user->buf + len, sizeof(user->buf) - len,
713                                   log_dict(msg), msg->dict_len,
714                                   log_text(msg), msg->text_len);
715
716         user->prev = msg->flags;
717         user->idx = log_next(user->idx);
718         user->seq++;
719         raw_spin_unlock_irq(&logbuf_lock);
720
721         if (len > count) {
722                 ret = -EINVAL;
723                 goto out;
724         }
725
726         if (copy_to_user(buf, user->buf, len)) {
727                 ret = -EFAULT;
728                 goto out;
729         }
730         ret = len;
731 out:
732         mutex_unlock(&user->lock);
733         return ret;
734 }
735
736 static loff_t devkmsg_llseek(struct file *file, loff_t offset, int whence)
737 {
738         struct devkmsg_user *user = file->private_data;
739         loff_t ret = 0;
740
741         if (!user)
742                 return -EBADF;
743         if (offset)
744                 return -ESPIPE;
745
746         raw_spin_lock_irq(&logbuf_lock);
747         switch (whence) {
748         case SEEK_SET:
749                 /* the first record */
750                 user->idx = log_first_idx;
751                 user->seq = log_first_seq;
752                 break;
753         case SEEK_DATA:
754                 /*
755                  * The first record after the last SYSLOG_ACTION_CLEAR,
756                  * like issued by 'dmesg -c'. Reading /dev/kmsg itself
757                  * changes no global state, and does not clear anything.
758                  */
759                 user->idx = clear_idx;
760                 user->seq = clear_seq;
761                 break;
762         case SEEK_END:
763                 /* after the last record */
764                 user->idx = log_next_idx;
765                 user->seq = log_next_seq;
766                 break;
767         default:
768                 ret = -EINVAL;
769         }
770         raw_spin_unlock_irq(&logbuf_lock);
771         return ret;
772 }
773
774 static unsigned int devkmsg_poll(struct file *file, poll_table *wait)
775 {
776         struct devkmsg_user *user = file->private_data;
777         int ret = 0;
778
779         if (!user)
780                 return POLLERR|POLLNVAL;
781
782         poll_wait(file, &log_wait, wait);
783
784         raw_spin_lock_irq(&logbuf_lock);
785         if (user->seq < log_next_seq) {
786                 /* return error when data has vanished underneath us */
787                 if (user->seq < log_first_seq)
788                         ret = POLLIN|POLLRDNORM|POLLERR|POLLPRI;
789                 else
790                         ret = POLLIN|POLLRDNORM;
791         }
792         raw_spin_unlock_irq(&logbuf_lock);
793
794         return ret;
795 }
796
797 static int devkmsg_open(struct inode *inode, struct file *file)
798 {
799         struct devkmsg_user *user;
800         int err;
801
802         /* write-only does not need any file context */
803         if ((file->f_flags & O_ACCMODE) == O_WRONLY)
804                 return 0;
805
806         err = check_syslog_permissions(SYSLOG_ACTION_READ_ALL,
807                                        SYSLOG_FROM_READER);
808         if (err)
809                 return err;
810
811         user = kmalloc(sizeof(struct devkmsg_user), GFP_KERNEL);
812         if (!user)
813                 return -ENOMEM;
814
815         mutex_init(&user->lock);
816
817         raw_spin_lock_irq(&logbuf_lock);
818         user->idx = log_first_idx;
819         user->seq = log_first_seq;
820         raw_spin_unlock_irq(&logbuf_lock);
821
822         file->private_data = user;
823         return 0;
824 }
825
826 static int devkmsg_release(struct inode *inode, struct file *file)
827 {
828         struct devkmsg_user *user = file->private_data;
829
830         if (!user)
831                 return 0;
832
833         mutex_destroy(&user->lock);
834         kfree(user);
835         return 0;
836 }
837
838 const struct file_operations kmsg_fops = {
839         .open = devkmsg_open,
840         .read = devkmsg_read,
841         .write_iter = devkmsg_write,
842         .llseek = devkmsg_llseek,
843         .poll = devkmsg_poll,
844         .release = devkmsg_release,
845 };
846
847 #ifdef CONFIG_KEXEC_CORE
848 /*
849  * This appends the listed symbols to /proc/vmcore
850  *
851  * /proc/vmcore is used by various utilities, like crash and makedumpfile to
852  * obtain access to symbols that are otherwise very difficult to locate.  These
853  * symbols are specifically used so that utilities can access and extract the
854  * dmesg log from a vmcore file after a crash.
855  */
856 void log_buf_kexec_setup(void)
857 {
858         VMCOREINFO_SYMBOL(log_buf);
859         VMCOREINFO_SYMBOL(log_buf_len);
860         VMCOREINFO_SYMBOL(log_first_idx);
861         VMCOREINFO_SYMBOL(log_next_idx);
862         /*
863          * Export struct printk_log size and field offsets. User space tools can
864          * parse it and detect any changes to structure down the line.
865          */
866         VMCOREINFO_STRUCT_SIZE(printk_log);
867         VMCOREINFO_OFFSET(printk_log, ts_nsec);
868         VMCOREINFO_OFFSET(printk_log, len);
869         VMCOREINFO_OFFSET(printk_log, text_len);
870         VMCOREINFO_OFFSET(printk_log, dict_len);
871 }
872 #endif
873
874 /* requested log_buf_len from kernel cmdline */
875 static unsigned long __initdata new_log_buf_len;
876
877 /* we practice scaling the ring buffer by powers of 2 */
878 static void __init log_buf_len_update(u64 size)
879 {
880         if (size > (u64)LOG_BUF_LEN_MAX) {
881                 size = (u64)LOG_BUF_LEN_MAX;
882                 pr_err("log_buf over 2G is not supported.\n");
883         }
884
885         if (size)
886                 size = roundup_pow_of_two(size);
887         if (size > log_buf_len)
888                 new_log_buf_len = (unsigned long)size;
889 }
890
891 /* save requested log_buf_len since it's too early to process it */
892 static int __init log_buf_len_setup(char *str)
893 {
894         u64 size;
895
896         if (!str)
897                 return -EINVAL;
898
899         size = memparse(str, &str);
900
901         log_buf_len_update(size);
902
903         return 0;
904 }
905 early_param("log_buf_len", log_buf_len_setup);
906
907 #ifdef CONFIG_SMP
908 #define __LOG_CPU_MAX_BUF_LEN (1 << CONFIG_LOG_CPU_MAX_BUF_SHIFT)
909
910 static void __init log_buf_add_cpu(void)
911 {
912         unsigned int cpu_extra;
913
914         /*
915          * archs should set up cpu_possible_bits properly with
916          * set_cpu_possible() after setup_arch() but just in
917          * case lets ensure this is valid.
918          */
919         if (num_possible_cpus() == 1)
920                 return;
921
922         cpu_extra = (num_possible_cpus() - 1) * __LOG_CPU_MAX_BUF_LEN;
923
924         /* by default this will only continue through for large > 64 CPUs */
925         if (cpu_extra <= __LOG_BUF_LEN / 2)
926                 return;
927
928         pr_info("log_buf_len individual max cpu contribution: %d bytes\n",
929                 __LOG_CPU_MAX_BUF_LEN);
930         pr_info("log_buf_len total cpu_extra contributions: %d bytes\n",
931                 cpu_extra);
932         pr_info("log_buf_len min size: %d bytes\n", __LOG_BUF_LEN);
933
934         log_buf_len_update(cpu_extra + __LOG_BUF_LEN);
935 }
936 #else /* !CONFIG_SMP */
937 static inline void log_buf_add_cpu(void) {}
938 #endif /* CONFIG_SMP */
939
940 void __init setup_log_buf(int early)
941 {
942         unsigned long flags;
943         char *new_log_buf;
944         int free;
945
946         if (log_buf != __log_buf)
947                 return;
948
949         if (!early && !new_log_buf_len)
950                 log_buf_add_cpu();
951
952         if (!new_log_buf_len)
953                 return;
954
955         if (early) {
956                 new_log_buf =
957                         memblock_virt_alloc(new_log_buf_len, LOG_ALIGN);
958         } else {
959                 new_log_buf = memblock_virt_alloc_nopanic(new_log_buf_len,
960                                                           LOG_ALIGN);
961         }
962
963         if (unlikely(!new_log_buf)) {
964                 pr_err("log_buf_len: %lu bytes not available\n",
965                         new_log_buf_len);
966                 return;
967         }
968
969         raw_spin_lock_irqsave(&logbuf_lock, flags);
970         log_buf_len = new_log_buf_len;
971         log_buf = new_log_buf;
972         new_log_buf_len = 0;
973         free = __LOG_BUF_LEN - log_next_idx;
974         memcpy(log_buf, __log_buf, __LOG_BUF_LEN);
975         raw_spin_unlock_irqrestore(&logbuf_lock, flags);
976
977         pr_info("log_buf_len: %u bytes\n", log_buf_len);
978         pr_info("early log buf free: %u(%u%%)\n",
979                 free, (free * 100) / __LOG_BUF_LEN);
980 }
981
982 static bool __read_mostly ignore_loglevel;
983
984 static int __init ignore_loglevel_setup(char *str)
985 {
986         ignore_loglevel = true;
987         pr_info("debug: ignoring loglevel setting.\n");
988
989         return 0;
990 }
991
992 early_param("ignore_loglevel", ignore_loglevel_setup);
993 module_param(ignore_loglevel, bool, S_IRUGO | S_IWUSR);
994 MODULE_PARM_DESC(ignore_loglevel,
995                  "ignore loglevel setting (prints all kernel messages to the console)");
996
997 #ifdef CONFIG_BOOT_PRINTK_DELAY
998
999 static int boot_delay; /* msecs delay after each printk during bootup */
1000 static unsigned long long loops_per_msec;       /* based on boot_delay */
1001
1002 static int __init boot_delay_setup(char *str)
1003 {
1004         unsigned long lpj;
1005
1006         lpj = preset_lpj ? preset_lpj : 1000000;        /* some guess */
1007         loops_per_msec = (unsigned long long)lpj / 1000 * HZ;
1008
1009         get_option(&str, &boot_delay);
1010         if (boot_delay > 10 * 1000)
1011                 boot_delay = 0;
1012
1013         pr_debug("boot_delay: %u, preset_lpj: %ld, lpj: %lu, "
1014                 "HZ: %d, loops_per_msec: %llu\n",
1015                 boot_delay, preset_lpj, lpj, HZ, loops_per_msec);
1016         return 0;
1017 }
1018 early_param("boot_delay", boot_delay_setup);
1019
1020 static void boot_delay_msec(int level)
1021 {
1022         unsigned long long k;
1023         unsigned long timeout;
1024
1025         if ((boot_delay == 0 || system_state != SYSTEM_BOOTING)
1026                 || (level >= console_loglevel && !ignore_loglevel)) {
1027                 return;
1028         }
1029
1030         k = (unsigned long long)loops_per_msec * boot_delay;
1031
1032         timeout = jiffies + msecs_to_jiffies(boot_delay);
1033         while (k) {
1034                 k--;
1035                 cpu_relax();
1036                 /*
1037                  * use (volatile) jiffies to prevent
1038                  * compiler reduction; loop termination via jiffies
1039                  * is secondary and may or may not happen.
1040                  */
1041                 if (time_after(jiffies, timeout))
1042                         break;
1043                 touch_nmi_watchdog();
1044         }
1045 }
1046 #else
1047 static inline void boot_delay_msec(int level)
1048 {
1049 }
1050 #endif
1051
1052 static bool printk_time = IS_ENABLED(CONFIG_PRINTK_TIME);
1053 module_param_named(time, printk_time, bool, S_IRUGO | S_IWUSR);
1054
1055 static size_t print_time(u64 ts, char *buf)
1056 {
1057         unsigned long rem_nsec;
1058
1059         if (!printk_time)
1060                 return 0;
1061
1062         rem_nsec = do_div(ts, 1000000000);
1063
1064         if (!buf)
1065                 return snprintf(NULL, 0, "[%5lu.000000] ", (unsigned long)ts);
1066
1067         return sprintf(buf, "[%5lu.%06lu] ",
1068                        (unsigned long)ts, rem_nsec / 1000);
1069 }
1070
1071 static size_t print_prefix(const struct printk_log *msg, bool syslog, char *buf)
1072 {
1073         size_t len = 0;
1074         unsigned int prefix = (msg->facility << 3) | msg->level;
1075
1076         if (syslog) {
1077                 if (buf) {
1078                         len += sprintf(buf, "<%u>", prefix);
1079                 } else {
1080                         len += 3;
1081                         if (prefix > 999)
1082                                 len += 3;
1083                         else if (prefix > 99)
1084                                 len += 2;
1085                         else if (prefix > 9)
1086                                 len++;
1087                 }
1088         }
1089
1090         len += print_time(msg->ts_nsec, buf ? buf + len : NULL);
1091         return len;
1092 }
1093
1094 static size_t msg_print_text(const struct printk_log *msg, enum log_flags prev,
1095                              bool syslog, char *buf, size_t size)
1096 {
1097         const char *text = log_text(msg);
1098         size_t text_size = msg->text_len;
1099         bool prefix = true;
1100         bool newline = true;
1101         size_t len = 0;
1102
1103         if ((prev & LOG_CONT) && !(msg->flags & LOG_PREFIX))
1104                 prefix = false;
1105
1106         if (msg->flags & LOG_CONT) {
1107                 if ((prev & LOG_CONT) && !(prev & LOG_NEWLINE))
1108                         prefix = false;
1109
1110                 if (!(msg->flags & LOG_NEWLINE))
1111                         newline = false;
1112         }
1113
1114         do {
1115                 const char *next = memchr(text, '\n', text_size);
1116                 size_t text_len;
1117
1118                 if (next) {
1119                         text_len = next - text;
1120                         next++;
1121                         text_size -= next - text;
1122                 } else {
1123                         text_len = text_size;
1124                 }
1125
1126                 if (buf) {
1127                         if (print_prefix(msg, syslog, NULL) +
1128                             text_len + 1 >= size - len)
1129                                 break;
1130
1131                         if (prefix)
1132                                 len += print_prefix(msg, syslog, buf + len);
1133                         memcpy(buf + len, text, text_len);
1134                         len += text_len;
1135                         if (next || newline)
1136                                 buf[len++] = '\n';
1137                 } else {
1138                         /* SYSLOG_ACTION_* buffer size only calculation */
1139                         if (prefix)
1140                                 len += print_prefix(msg, syslog, NULL);
1141                         len += text_len;
1142                         if (next || newline)
1143                                 len++;
1144                 }
1145
1146                 prefix = true;
1147                 text = next;
1148         } while (text);
1149
1150         return len;
1151 }
1152
1153 static int syslog_print(char __user *buf, int size)
1154 {
1155         char *text;
1156         struct printk_log *msg;
1157         int len = 0;
1158
1159         text = kmalloc(LOG_LINE_MAX + PREFIX_MAX, GFP_KERNEL);
1160         if (!text)
1161                 return -ENOMEM;
1162
1163         while (size > 0) {
1164                 size_t n;
1165                 size_t skip;
1166
1167                 raw_spin_lock_irq(&logbuf_lock);
1168                 if (syslog_seq < log_first_seq) {
1169                         /* messages are gone, move to first one */
1170                         syslog_seq = log_first_seq;
1171                         syslog_idx = log_first_idx;
1172                         syslog_prev = 0;
1173                         syslog_partial = 0;
1174                 }
1175                 if (syslog_seq == log_next_seq) {
1176                         raw_spin_unlock_irq(&logbuf_lock);
1177                         break;
1178                 }
1179
1180                 skip = syslog_partial;
1181                 msg = log_from_idx(syslog_idx);
1182                 n = msg_print_text(msg, syslog_prev, true, text,
1183                                    LOG_LINE_MAX + PREFIX_MAX);
1184                 if (n - syslog_partial <= size) {
1185                         /* message fits into buffer, move forward */
1186                         syslog_idx = log_next(syslog_idx);
1187                         syslog_seq++;
1188                         syslog_prev = msg->flags;
1189                         n -= syslog_partial;
1190                         syslog_partial = 0;
1191                 } else if (!len){
1192                         /* partial read(), remember position */
1193                         n = size;
1194                         syslog_partial += n;
1195                 } else
1196                         n = 0;
1197                 raw_spin_unlock_irq(&logbuf_lock);
1198
1199                 if (!n)
1200                         break;
1201
1202                 if (copy_to_user(buf, text + skip, n)) {
1203                         if (!len)
1204                                 len = -EFAULT;
1205                         break;
1206                 }
1207
1208                 len += n;
1209                 size -= n;
1210                 buf += n;
1211         }
1212
1213         kfree(text);
1214         return len;
1215 }
1216
1217 static int syslog_print_all(char __user *buf, int size, bool clear)
1218 {
1219         char *text;
1220         int len = 0;
1221
1222         text = kmalloc(LOG_LINE_MAX + PREFIX_MAX, GFP_KERNEL);
1223         if (!text)
1224                 return -ENOMEM;
1225
1226         raw_spin_lock_irq(&logbuf_lock);
1227         if (buf) {
1228                 u64 next_seq;
1229                 u64 seq;
1230                 u32 idx;
1231                 enum log_flags prev;
1232
1233                 if (clear_seq < log_first_seq) {
1234                         /* messages are gone, move to first available one */
1235                         clear_seq = log_first_seq;
1236                         clear_idx = log_first_idx;
1237                 }
1238
1239                 /*
1240                  * Find first record that fits, including all following records,
1241                  * into the user-provided buffer for this dump.
1242                  */
1243                 seq = clear_seq;
1244                 idx = clear_idx;
1245                 prev = 0;
1246                 while (seq < log_next_seq) {
1247                         struct printk_log *msg = log_from_idx(idx);
1248
1249                         len += msg_print_text(msg, prev, true, NULL, 0);
1250                         prev = msg->flags;
1251                         idx = log_next(idx);
1252                         seq++;
1253                 }
1254
1255                 /* move first record forward until length fits into the buffer */
1256                 seq = clear_seq;
1257                 idx = clear_idx;
1258                 prev = 0;
1259                 while (len > size && seq < log_next_seq) {
1260                         struct printk_log *msg = log_from_idx(idx);
1261
1262                         len -= msg_print_text(msg, prev, true, NULL, 0);
1263                         prev = msg->flags;
1264                         idx = log_next(idx);
1265                         seq++;
1266                 }
1267
1268                 /* last message fitting into this dump */
1269                 next_seq = log_next_seq;
1270
1271                 len = 0;
1272                 while (len >= 0 && seq < next_seq) {
1273                         struct printk_log *msg = log_from_idx(idx);
1274                         int textlen;
1275
1276                         textlen = msg_print_text(msg, prev, true, text,
1277                                                  LOG_LINE_MAX + PREFIX_MAX);
1278                         if (textlen < 0) {
1279                                 len = textlen;
1280                                 break;
1281                         }
1282                         idx = log_next(idx);
1283                         seq++;
1284                         prev = msg->flags;
1285
1286                         raw_spin_unlock_irq(&logbuf_lock);
1287                         if (copy_to_user(buf + len, text, textlen))
1288                                 len = -EFAULT;
1289                         else
1290                                 len += textlen;
1291                         raw_spin_lock_irq(&logbuf_lock);
1292
1293                         if (seq < log_first_seq) {
1294                                 /* messages are gone, move to next one */
1295                                 seq = log_first_seq;
1296                                 idx = log_first_idx;
1297                                 prev = 0;
1298                         }
1299                 }
1300         }
1301
1302         if (clear) {
1303                 clear_seq = log_next_seq;
1304                 clear_idx = log_next_idx;
1305         }
1306         raw_spin_unlock_irq(&logbuf_lock);
1307
1308         kfree(text);
1309         return len;
1310 }
1311
1312 int do_syslog(int type, char __user *buf, int len, int source)
1313 {
1314         bool clear = false;
1315         static int saved_console_loglevel = LOGLEVEL_DEFAULT;
1316         int error;
1317
1318         error = check_syslog_permissions(type, source);
1319         if (error)
1320                 goto out;
1321
1322         switch (type) {
1323         case SYSLOG_ACTION_CLOSE:       /* Close log */
1324                 break;
1325         case SYSLOG_ACTION_OPEN:        /* Open log */
1326                 break;
1327         case SYSLOG_ACTION_READ:        /* Read from log */
1328                 error = -EINVAL;
1329                 if (!buf || len < 0)
1330                         goto out;
1331                 error = 0;
1332                 if (!len)
1333                         goto out;
1334                 if (!access_ok(VERIFY_WRITE, buf, len)) {
1335                         error = -EFAULT;
1336                         goto out;
1337                 }
1338                 error = wait_event_interruptible(log_wait,
1339                                                  syslog_seq != log_next_seq);
1340                 if (error)
1341                         goto out;
1342                 error = syslog_print(buf, len);
1343                 break;
1344         /* Read/clear last kernel messages */
1345         case SYSLOG_ACTION_READ_CLEAR:
1346                 clear = true;
1347                 /* FALL THRU */
1348         /* Read last kernel messages */
1349         case SYSLOG_ACTION_READ_ALL:
1350                 error = -EINVAL;
1351                 if (!buf || len < 0)
1352                         goto out;
1353                 error = 0;
1354                 if (!len)
1355                         goto out;
1356                 if (!access_ok(VERIFY_WRITE, buf, len)) {
1357                         error = -EFAULT;
1358                         goto out;
1359                 }
1360                 error = syslog_print_all(buf, len, clear);
1361                 break;
1362         /* Clear ring buffer */
1363         case SYSLOG_ACTION_CLEAR:
1364                 syslog_print_all(NULL, 0, true);
1365                 break;
1366         /* Disable logging to console */
1367         case SYSLOG_ACTION_CONSOLE_OFF:
1368                 if (saved_console_loglevel == LOGLEVEL_DEFAULT)
1369                         saved_console_loglevel = console_loglevel;
1370                 console_loglevel = minimum_console_loglevel;
1371                 break;
1372         /* Enable logging to console */
1373         case SYSLOG_ACTION_CONSOLE_ON:
1374                 if (saved_console_loglevel != LOGLEVEL_DEFAULT) {
1375                         console_loglevel = saved_console_loglevel;
1376                         saved_console_loglevel = LOGLEVEL_DEFAULT;
1377                 }
1378                 break;
1379         /* Set level of messages printed to console */
1380         case SYSLOG_ACTION_CONSOLE_LEVEL:
1381                 error = -EINVAL;
1382                 if (len < 1 || len > 8)
1383                         goto out;
1384                 if (len < minimum_console_loglevel)
1385                         len = minimum_console_loglevel;
1386                 console_loglevel = len;
1387                 /* Implicitly re-enable logging to console */
1388                 saved_console_loglevel = LOGLEVEL_DEFAULT;
1389                 error = 0;
1390                 break;
1391         /* Number of chars in the log buffer */
1392         case SYSLOG_ACTION_SIZE_UNREAD:
1393                 raw_spin_lock_irq(&logbuf_lock);
1394                 if (syslog_seq < log_first_seq) {
1395                         /* messages are gone, move to first one */
1396                         syslog_seq = log_first_seq;
1397                         syslog_idx = log_first_idx;
1398                         syslog_prev = 0;
1399                         syslog_partial = 0;
1400                 }
1401                 if (source == SYSLOG_FROM_PROC) {
1402                         /*
1403                          * Short-cut for poll(/"proc/kmsg") which simply checks
1404                          * for pending data, not the size; return the count of
1405                          * records, not the length.
1406                          */
1407                         error = log_next_seq - syslog_seq;
1408                 } else {
1409                         u64 seq = syslog_seq;
1410                         u32 idx = syslog_idx;
1411                         enum log_flags prev = syslog_prev;
1412
1413                         error = 0;
1414                         while (seq < log_next_seq) {
1415                                 struct printk_log *msg = log_from_idx(idx);
1416
1417                                 error += msg_print_text(msg, prev, true, NULL, 0);
1418                                 idx = log_next(idx);
1419                                 seq++;
1420                                 prev = msg->flags;
1421                         }
1422                         error -= syslog_partial;
1423                 }
1424                 raw_spin_unlock_irq(&logbuf_lock);
1425                 break;
1426         /* Size of the log buffer */
1427         case SYSLOG_ACTION_SIZE_BUFFER:
1428                 error = log_buf_len;
1429                 break;
1430         default:
1431                 error = -EINVAL;
1432                 break;
1433         }
1434 out:
1435         return error;
1436 }
1437
1438 SYSCALL_DEFINE3(syslog, int, type, char __user *, buf, int, len)
1439 {
1440         return do_syslog(type, buf, len, SYSLOG_FROM_READER);
1441 }
1442
1443 /*
1444  * Call the console drivers, asking them to write out
1445  * log_buf[start] to log_buf[end - 1].
1446  * The console_lock must be held.
1447  */
1448 static void call_console_drivers(int level,
1449                                  const char *ext_text, size_t ext_len,
1450                                  const char *text, size_t len)
1451 {
1452         struct console *con;
1453
1454         trace_console_rcuidle(text, len);
1455
1456         if (level >= console_loglevel && !ignore_loglevel)
1457                 return;
1458         if (!console_drivers)
1459                 return;
1460
1461         for_each_console(con) {
1462                 if (exclusive_console && con != exclusive_console)
1463                         continue;
1464                 if (!(con->flags & CON_ENABLED))
1465                         continue;
1466                 if (!con->write)
1467                         continue;
1468                 if (!cpu_online(smp_processor_id()) &&
1469                     !(con->flags & CON_ANYTIME))
1470                         continue;
1471                 if (con->flags & CON_EXTENDED)
1472                         con->write(con, ext_text, ext_len);
1473                 else
1474                         con->write(con, text, len);
1475         }
1476 }
1477
1478 /*
1479  * Zap console related locks when oopsing.
1480  * To leave time for slow consoles to print a full oops,
1481  * only zap at most once every 30 seconds.
1482  */
1483 static void zap_locks(void)
1484 {
1485         static unsigned long oops_timestamp;
1486
1487         if (time_after_eq(jiffies, oops_timestamp) &&
1488             !time_after(jiffies, oops_timestamp + 30 * HZ))
1489                 return;
1490
1491         oops_timestamp = jiffies;
1492
1493         debug_locks_off();
1494         /* If a crash is occurring, make sure we can't deadlock */
1495         raw_spin_lock_init(&logbuf_lock);
1496         /* And make sure that we print immediately */
1497         sema_init(&console_sem, 1);
1498 }
1499
1500 /*
1501  * Check if we have any console that is capable of printing while cpu is
1502  * booting or shutting down. Requires console_sem.
1503  */
1504 static int have_callable_console(void)
1505 {
1506         struct console *con;
1507
1508         for_each_console(con)
1509                 if (con->flags & CON_ANYTIME)
1510                         return 1;
1511
1512         return 0;
1513 }
1514
1515 /*
1516  * Can we actually use the console at this time on this cpu?
1517  *
1518  * Console drivers may assume that per-cpu resources have been allocated. So
1519  * unless they're explicitly marked as being able to cope (CON_ANYTIME) don't
1520  * call them until this CPU is officially up.
1521  */
1522 static inline int can_use_console(unsigned int cpu)
1523 {
1524         return cpu_online(cpu) || have_callable_console();
1525 }
1526
1527 /*
1528  * Try to get console ownership to actually show the kernel
1529  * messages from a 'printk'. Return true (and with the
1530  * console_lock held, and 'console_locked' set) if it
1531  * is successful, false otherwise.
1532  */
1533 static int console_trylock_for_printk(void)
1534 {
1535         unsigned int cpu = smp_processor_id();
1536
1537         if (!console_trylock())
1538                 return 0;
1539         /*
1540          * If we can't use the console, we need to release the console
1541          * semaphore by hand to avoid flushing the buffer. We need to hold the
1542          * console semaphore in order to do this test safely.
1543          */
1544         if (!can_use_console(cpu)) {
1545                 console_locked = 0;
1546                 up_console_sem();
1547                 return 0;
1548         }
1549         return 1;
1550 }
1551
1552 int printk_delay_msec __read_mostly;
1553
1554 static inline void printk_delay(void)
1555 {
1556         if (unlikely(printk_delay_msec)) {
1557                 int m = printk_delay_msec;
1558
1559                 while (m--) {
1560                         mdelay(1);
1561                         touch_nmi_watchdog();
1562                 }
1563         }
1564 }
1565
1566 /*
1567  * Continuation lines are buffered, and not committed to the record buffer
1568  * until the line is complete, or a race forces it. The line fragments
1569  * though, are printed immediately to the consoles to ensure everything has
1570  * reached the console in case of a kernel crash.
1571  */
1572 static struct cont {
1573         char buf[LOG_LINE_MAX];
1574         size_t len;                     /* length == 0 means unused buffer */
1575         size_t cons;                    /* bytes written to console */
1576         struct task_struct *owner;      /* task of first print*/
1577         u64 ts_nsec;                    /* time of first print */
1578         u8 level;                       /* log level of first message */
1579         u8 facility;                    /* log facility of first message */
1580         enum log_flags flags;           /* prefix, newline flags */
1581         bool flushed:1;                 /* buffer sealed and committed */
1582 } cont;
1583
1584 static void cont_flush(enum log_flags flags)
1585 {
1586         if (cont.flushed)
1587                 return;
1588         if (cont.len == 0)
1589                 return;
1590
1591         if (cont.cons) {
1592                 /*
1593                  * If a fragment of this line was directly flushed to the
1594                  * console; wait for the console to pick up the rest of the
1595                  * line. LOG_NOCONS suppresses a duplicated output.
1596                  */
1597                 log_store(cont.facility, cont.level, flags | LOG_NOCONS,
1598                           cont.ts_nsec, NULL, 0, cont.buf, cont.len);
1599                 cont.flags = flags;
1600                 cont.flushed = true;
1601         } else {
1602                 /*
1603                  * If no fragment of this line ever reached the console,
1604                  * just submit it to the store and free the buffer.
1605                  */
1606                 log_store(cont.facility, cont.level, flags, 0,
1607                           NULL, 0, cont.buf, cont.len);
1608                 cont.len = 0;
1609         }
1610 }
1611
1612 static bool cont_add(int facility, int level, const char *text, size_t len)
1613 {
1614         if (cont.len && cont.flushed)
1615                 return false;
1616
1617         /*
1618          * If ext consoles are present, flush and skip in-kernel
1619          * continuation.  See nr_ext_console_drivers definition.  Also, if
1620          * the line gets too long, split it up in separate records.
1621          */
1622         if (nr_ext_console_drivers || cont.len + len > sizeof(cont.buf)) {
1623                 cont_flush(LOG_CONT);
1624                 return false;
1625         }
1626
1627         if (!cont.len) {
1628                 cont.facility = facility;
1629                 cont.level = level;
1630                 cont.owner = current;
1631                 cont.ts_nsec = local_clock();
1632                 cont.flags = 0;
1633                 cont.cons = 0;
1634                 cont.flushed = false;
1635         }
1636
1637         memcpy(cont.buf + cont.len, text, len);
1638         cont.len += len;
1639
1640         if (cont.len > (sizeof(cont.buf) * 80) / 100)
1641                 cont_flush(LOG_CONT);
1642
1643         return true;
1644 }
1645
1646 static size_t cont_print_text(char *text, size_t size)
1647 {
1648         size_t textlen = 0;
1649         size_t len;
1650
1651         if (cont.cons == 0 && (console_prev & LOG_NEWLINE)) {
1652                 textlen += print_time(cont.ts_nsec, text);
1653                 size -= textlen;
1654         }
1655
1656         len = cont.len - cont.cons;
1657         if (len > 0) {
1658                 if (len+1 > size)
1659                         len = size-1;
1660                 memcpy(text + textlen, cont.buf + cont.cons, len);
1661                 textlen += len;
1662                 cont.cons = cont.len;
1663         }
1664
1665         if (cont.flushed) {
1666                 if (cont.flags & LOG_NEWLINE)
1667                         text[textlen++] = '\n';
1668                 /* got everything, release buffer */
1669                 cont.len = 0;
1670         }
1671         return textlen;
1672 }
1673
1674 asmlinkage int vprintk_emit(int facility, int level,
1675                             const char *dict, size_t dictlen,
1676                             const char *fmt, va_list args)
1677 {
1678         static int recursion_bug;
1679         static char textbuf[LOG_LINE_MAX];
1680         char *text = textbuf;
1681         size_t text_len = 0;
1682         enum log_flags lflags = 0;
1683         unsigned long flags;
1684         int this_cpu;
1685         int printed_len = 0;
1686         bool in_sched = false;
1687         /* cpu currently holding logbuf_lock in this function */
1688         static unsigned int logbuf_cpu = UINT_MAX;
1689
1690         if (level == LOGLEVEL_SCHED) {
1691                 level = LOGLEVEL_DEFAULT;
1692                 in_sched = true;
1693         }
1694
1695         boot_delay_msec(level);
1696         printk_delay();
1697
1698         /* This stops the holder of console_sem just where we want him */
1699         local_irq_save(flags);
1700         this_cpu = smp_processor_id();
1701
1702         /*
1703          * Ouch, printk recursed into itself!
1704          */
1705         if (unlikely(logbuf_cpu == this_cpu)) {
1706                 /*
1707                  * If a crash is occurring during printk() on this CPU,
1708                  * then try to get the crash message out but make sure
1709                  * we can't deadlock. Otherwise just return to avoid the
1710                  * recursion and return - but flag the recursion so that
1711                  * it can be printed at the next appropriate moment:
1712                  */
1713                 if (!oops_in_progress && !lockdep_recursing(current)) {
1714                         recursion_bug = 1;
1715                         local_irq_restore(flags);
1716                         return 0;
1717                 }
1718                 zap_locks();
1719         }
1720
1721         lockdep_off();
1722         raw_spin_lock(&logbuf_lock);
1723         logbuf_cpu = this_cpu;
1724
1725         if (unlikely(recursion_bug)) {
1726                 static const char recursion_msg[] =
1727                         "BUG: recent printk recursion!";
1728
1729                 recursion_bug = 0;
1730                 /* emit KERN_CRIT message */
1731                 printed_len += log_store(0, 2, LOG_PREFIX|LOG_NEWLINE, 0,
1732                                          NULL, 0, recursion_msg,
1733                                          strlen(recursion_msg));
1734         }
1735
1736         /*
1737          * The printf needs to come first; we need the syslog
1738          * prefix which might be passed-in as a parameter.
1739          */
1740         text_len = vscnprintf(text, sizeof(textbuf), fmt, args);
1741
1742         /* mark and strip a trailing newline */
1743         if (text_len && text[text_len-1] == '\n') {
1744                 text_len--;
1745                 lflags |= LOG_NEWLINE;
1746         }
1747
1748         /* strip kernel syslog prefix and extract log level or control flags */
1749         if (facility == 0) {
1750                 int kern_level = printk_get_level(text);
1751
1752                 if (kern_level) {
1753                         const char *end_of_header = printk_skip_level(text);
1754                         switch (kern_level) {
1755                         case '0' ... '7':
1756                                 if (level == LOGLEVEL_DEFAULT)
1757                                         level = kern_level - '0';
1758                                 /* fallthrough */
1759                         case 'd':       /* KERN_DEFAULT */
1760                                 lflags |= LOG_PREFIX;
1761                         }
1762                         /*
1763                          * No need to check length here because vscnprintf
1764                          * put '\0' at the end of the string. Only valid and
1765                          * newly printed level is detected.
1766                          */
1767                         text_len -= end_of_header - text;
1768                         text = (char *)end_of_header;
1769                 }
1770         }
1771
1772 #ifdef CONFIG_EARLY_PRINTK_DIRECT
1773         printascii(text);
1774 #endif
1775
1776         if (level == LOGLEVEL_DEFAULT)
1777                 level = default_message_loglevel;
1778
1779         if (dict)
1780                 lflags |= LOG_PREFIX|LOG_NEWLINE;
1781
1782         if (!(lflags & LOG_NEWLINE)) {
1783                 /*
1784                  * Flush the conflicting buffer. An earlier newline was missing,
1785                  * or another task also prints continuation lines.
1786                  */
1787                 if (cont.len && (lflags & LOG_PREFIX || cont.owner != current))
1788                         cont_flush(LOG_NEWLINE);
1789
1790                 /* buffer line if possible, otherwise store it right away */
1791                 if (cont_add(facility, level, text, text_len))
1792                         printed_len += text_len;
1793                 else
1794                         printed_len += log_store(facility, level,
1795                                                  lflags | LOG_CONT, 0,
1796                                                  dict, dictlen, text, text_len);
1797         } else {
1798                 bool stored = false;
1799
1800                 /*
1801                  * If an earlier newline was missing and it was the same task,
1802                  * either merge it with the current buffer and flush, or if
1803                  * there was a race with interrupts (prefix == true) then just
1804                  * flush it out and store this line separately.
1805                  * If the preceding printk was from a different task and missed
1806                  * a newline, flush and append the newline.
1807                  */
1808                 if (cont.len) {
1809                         if (cont.owner == current && !(lflags & LOG_PREFIX))
1810                                 stored = cont_add(facility, level, text,
1811                                                   text_len);
1812                         cont_flush(LOG_NEWLINE);
1813                 }
1814
1815                 if (stored)
1816                         printed_len += text_len;
1817                 else
1818                         printed_len += log_store(facility, level, lflags, 0,
1819                                                  dict, dictlen, text, text_len);
1820         }
1821
1822         logbuf_cpu = UINT_MAX;
1823         raw_spin_unlock(&logbuf_lock);
1824         lockdep_on();
1825         local_irq_restore(flags);
1826
1827         /* If called from the scheduler, we can not call up(). */
1828         if (!in_sched) {
1829                 lockdep_off();
1830                 /*
1831                  * Disable preemption to avoid being preempted while holding
1832                  * console_sem which would prevent anyone from printing to
1833                  * console
1834                  */
1835                 preempt_disable();
1836
1837                 /*
1838                  * Try to acquire and then immediately release the console
1839                  * semaphore.  The release will print out buffers and wake up
1840                  * /dev/kmsg and syslog() users.
1841                  */
1842                 if (console_trylock_for_printk())
1843                         console_unlock();
1844                 preempt_enable();
1845                 lockdep_on();
1846         }
1847
1848         return printed_len;
1849 }
1850 EXPORT_SYMBOL(vprintk_emit);
1851
1852 asmlinkage int vprintk(const char *fmt, va_list args)
1853 {
1854         return vprintk_emit(0, LOGLEVEL_DEFAULT, NULL, 0, fmt, args);
1855 }
1856 EXPORT_SYMBOL(vprintk);
1857
1858 asmlinkage int printk_emit(int facility, int level,
1859                            const char *dict, size_t dictlen,
1860                            const char *fmt, ...)
1861 {
1862         va_list args;
1863         int r;
1864
1865         va_start(args, fmt);
1866         r = vprintk_emit(facility, level, dict, dictlen, fmt, args);
1867         va_end(args);
1868
1869         return r;
1870 }
1871 EXPORT_SYMBOL(printk_emit);
1872
1873 int vprintk_default(const char *fmt, va_list args)
1874 {
1875         int r;
1876
1877 #ifdef CONFIG_KGDB_KDB
1878         if (unlikely(kdb_trap_printk)) {
1879                 r = vkdb_printf(KDB_MSGSRC_PRINTK, fmt, args);
1880                 return r;
1881         }
1882 #endif
1883         r = vprintk_emit(0, LOGLEVEL_DEFAULT, NULL, 0, fmt, args);
1884
1885         return r;
1886 }
1887 EXPORT_SYMBOL_GPL(vprintk_default);
1888
1889 /*
1890  * This allows printk to be diverted to another function per cpu.
1891  * This is useful for calling printk functions from within NMI
1892  * without worrying about race conditions that can lock up the
1893  * box.
1894  */
1895 DEFINE_PER_CPU(printk_func_t, printk_func) = vprintk_default;
1896
1897 /**
1898  * printk - print a kernel message
1899  * @fmt: format string
1900  *
1901  * This is printk(). It can be called from any context. We want it to work.
1902  *
1903  * We try to grab the console_lock. If we succeed, it's easy - we log the
1904  * output and call the console drivers.  If we fail to get the semaphore, we
1905  * place the output into the log buffer and return. The current holder of
1906  * the console_sem will notice the new output in console_unlock(); and will
1907  * send it to the consoles before releasing the lock.
1908  *
1909  * One effect of this deferred printing is that code which calls printk() and
1910  * then changes console_loglevel may break. This is because console_loglevel
1911  * is inspected when the actual printing occurs.
1912  *
1913  * See also:
1914  * printf(3)
1915  *
1916  * See the vsnprintf() documentation for format string extensions over C99.
1917  */
1918 asmlinkage __visible int printk(const char *fmt, ...)
1919 {
1920         printk_func_t vprintk_func;
1921         va_list args;
1922         int r;
1923
1924         va_start(args, fmt);
1925
1926         /*
1927          * If a caller overrides the per_cpu printk_func, then it needs
1928          * to disable preemption when calling printk(). Otherwise
1929          * the printk_func should be set to the default. No need to
1930          * disable preemption here.
1931          */
1932         vprintk_func = this_cpu_read(printk_func);
1933         r = vprintk_func(fmt, args);
1934
1935         va_end(args);
1936
1937         return r;
1938 }
1939 EXPORT_SYMBOL(printk);
1940
1941 #else /* CONFIG_PRINTK */
1942
1943 #define LOG_LINE_MAX            0
1944 #define PREFIX_MAX              0
1945
1946 static u64 syslog_seq;
1947 static u32 syslog_idx;
1948 static u64 console_seq;
1949 static u32 console_idx;
1950 static enum log_flags syslog_prev;
1951 static u64 log_first_seq;
1952 static u32 log_first_idx;
1953 static u64 log_next_seq;
1954 static enum log_flags console_prev;
1955 static struct cont {
1956         size_t len;
1957         size_t cons;
1958         u8 level;
1959         bool flushed:1;
1960 } cont;
1961 static char *log_text(const struct printk_log *msg) { return NULL; }
1962 static char *log_dict(const struct printk_log *msg) { return NULL; }
1963 static struct printk_log *log_from_idx(u32 idx) { return NULL; }
1964 static u32 log_next(u32 idx) { return 0; }
1965 static ssize_t msg_print_ext_header(char *buf, size_t size,
1966                                     struct printk_log *msg, u64 seq,
1967                                     enum log_flags prev_flags) { return 0; }
1968 static ssize_t msg_print_ext_body(char *buf, size_t size,
1969                                   char *dict, size_t dict_len,
1970                                   char *text, size_t text_len) { return 0; }
1971 static void call_console_drivers(int level,
1972                                  const char *ext_text, size_t ext_len,
1973                                  const char *text, size_t len) {}
1974 static size_t msg_print_text(const struct printk_log *msg, enum log_flags prev,
1975                              bool syslog, char *buf, size_t size) { return 0; }
1976 static size_t cont_print_text(char *text, size_t size) { return 0; }
1977
1978 /* Still needs to be defined for users */
1979 DEFINE_PER_CPU(printk_func_t, printk_func);
1980
1981 #endif /* CONFIG_PRINTK */
1982
1983 #ifdef CONFIG_EARLY_PRINTK
1984 struct console *early_console;
1985
1986 asmlinkage __visible void early_printk(const char *fmt, ...)
1987 {
1988         va_list ap;
1989         char buf[512];
1990         int n;
1991
1992         if (!early_console)
1993                 return;
1994
1995         va_start(ap, fmt);
1996         n = vscnprintf(buf, sizeof(buf), fmt, ap);
1997         va_end(ap);
1998
1999         early_console->write(early_console, buf, n);
2000 }
2001 #endif
2002
2003 static int __add_preferred_console(char *name, int idx, char *options,
2004                                    char *brl_options)
2005 {
2006         struct console_cmdline *c;
2007         int i;
2008
2009         /*
2010          *      See if this tty is not yet registered, and
2011          *      if we have a slot free.
2012          */
2013         for (i = 0, c = console_cmdline;
2014              i < MAX_CMDLINECONSOLES && c->name[0];
2015              i++, c++) {
2016                 if (strcmp(c->name, name) == 0 && c->index == idx) {
2017                         if (!brl_options)
2018                                 selected_console = i;
2019                         return 0;
2020                 }
2021         }
2022         if (i == MAX_CMDLINECONSOLES)
2023                 return -E2BIG;
2024         if (!brl_options)
2025                 selected_console = i;
2026         strlcpy(c->name, name, sizeof(c->name));
2027         c->options = options;
2028         braille_set_options(c, brl_options);
2029
2030         c->index = idx;
2031         return 0;
2032 }
2033 /*
2034  * Set up a console.  Called via do_early_param() in init/main.c
2035  * for each "console=" parameter in the boot command line.
2036  */
2037 static int __init console_setup(char *str)
2038 {
2039         char buf[sizeof(console_cmdline[0].name) + 4]; /* 4 for "ttyS" */
2040         char *s, *options, *brl_options = NULL;
2041         int idx;
2042
2043         if (_braille_console_setup(&str, &brl_options))
2044                 return 1;
2045
2046         /*
2047          * Decode str into name, index, options.
2048          */
2049         if (str[0] >= '0' && str[0] <= '9') {
2050                 strcpy(buf, "ttyS");
2051                 strncpy(buf + 4, str, sizeof(buf) - 5);
2052         } else {
2053                 strncpy(buf, str, sizeof(buf) - 1);
2054         }
2055         buf[sizeof(buf) - 1] = 0;
2056         options = strchr(str, ',');
2057         if (options)
2058                 *(options++) = 0;
2059 #ifdef __sparc__
2060         if (!strcmp(str, "ttya"))
2061                 strcpy(buf, "ttyS0");
2062         if (!strcmp(str, "ttyb"))
2063                 strcpy(buf, "ttyS1");
2064 #endif
2065         for (s = buf; *s; s++)
2066                 if (isdigit(*s) || *s == ',')
2067                         break;
2068         idx = simple_strtoul(s, NULL, 10);
2069         *s = 0;
2070
2071         __add_preferred_console(buf, idx, options, brl_options);
2072         console_set_on_cmdline = 1;
2073         return 1;
2074 }
2075 __setup("console=", console_setup);
2076
2077 /**
2078  * add_preferred_console - add a device to the list of preferred consoles.
2079  * @name: device name
2080  * @idx: device index
2081  * @options: options for this console
2082  *
2083  * The last preferred console added will be used for kernel messages
2084  * and stdin/out/err for init.  Normally this is used by console_setup
2085  * above to handle user-supplied console arguments; however it can also
2086  * be used by arch-specific code either to override the user or more
2087  * commonly to provide a default console (ie from PROM variables) when
2088  * the user has not supplied one.
2089  */
2090 int add_preferred_console(char *name, int idx, char *options)
2091 {
2092         return __add_preferred_console(name, idx, options, NULL);
2093 }
2094
2095 bool console_suspend_enabled = true;
2096 EXPORT_SYMBOL(console_suspend_enabled);
2097
2098 static int __init console_suspend_disable(char *str)
2099 {
2100         console_suspend_enabled = false;
2101         return 1;
2102 }
2103 __setup("no_console_suspend", console_suspend_disable);
2104 module_param_named(console_suspend, console_suspend_enabled,
2105                 bool, S_IRUGO | S_IWUSR);
2106 MODULE_PARM_DESC(console_suspend, "suspend console during suspend"
2107         " and hibernate operations");
2108
2109 /**
2110  * suspend_console - suspend the console subsystem
2111  *
2112  * This disables printk() while we go into suspend states
2113  */
2114 void suspend_console(void)
2115 {
2116         if (!console_suspend_enabled)
2117                 return;
2118         printk("Suspending console(s) (use no_console_suspend to debug)\n");
2119         console_lock();
2120         console_suspended = 1;
2121         up_console_sem();
2122 }
2123
2124 void resume_console(void)
2125 {
2126         if (!console_suspend_enabled)
2127                 return;
2128         down_console_sem();
2129         console_suspended = 0;
2130         console_unlock();
2131 }
2132
2133 /**
2134  * console_cpu_notify - print deferred console messages after CPU hotplug
2135  * @self: notifier struct
2136  * @action: CPU hotplug event
2137  * @hcpu: unused
2138  *
2139  * If printk() is called from a CPU that is not online yet, the messages
2140  * will be spooled but will not show up on the console.  This function is
2141  * called when a new CPU comes online (or fails to come up), and ensures
2142  * that any such output gets printed.
2143  */
2144 static int console_cpu_notify(struct notifier_block *self,
2145         unsigned long action, void *hcpu)
2146 {
2147         switch (action) {
2148         case CPU_ONLINE:
2149         case CPU_DEAD:
2150         case CPU_DOWN_FAILED:
2151         case CPU_UP_CANCELED:
2152                 console_lock();
2153                 console_unlock();
2154         }
2155         return NOTIFY_OK;
2156 }
2157
2158 /**
2159  * console_lock - lock the console system for exclusive use.
2160  *
2161  * Acquires a lock which guarantees that the caller has
2162  * exclusive access to the console system and the console_drivers list.
2163  *
2164  * Can sleep, returns nothing.
2165  */
2166 void console_lock(void)
2167 {
2168         might_sleep();
2169
2170         down_console_sem();
2171         if (console_suspended)
2172                 return;
2173         console_locked = 1;
2174         console_may_schedule = 1;
2175 }
2176 EXPORT_SYMBOL(console_lock);
2177
2178 /**
2179  * console_trylock - try to lock the console system for exclusive use.
2180  *
2181  * Try to acquire a lock which guarantees that the caller has exclusive
2182  * access to the console system and the console_drivers list.
2183  *
2184  * returns 1 on success, and 0 on failure to acquire the lock.
2185  */
2186 int console_trylock(void)
2187 {
2188         if (down_trylock_console_sem())
2189                 return 0;
2190         if (console_suspended) {
2191                 up_console_sem();
2192                 return 0;
2193         }
2194         console_locked = 1;
2195         console_may_schedule = 0;
2196         return 1;
2197 }
2198 EXPORT_SYMBOL(console_trylock);
2199
2200 int is_console_locked(void)
2201 {
2202         return console_locked;
2203 }
2204
2205 static void console_cont_flush(char *text, size_t size)
2206 {
2207         unsigned long flags;
2208         size_t len;
2209
2210         raw_spin_lock_irqsave(&logbuf_lock, flags);
2211
2212         if (!cont.len)
2213                 goto out;
2214
2215         /*
2216          * We still queue earlier records, likely because the console was
2217          * busy. The earlier ones need to be printed before this one, we
2218          * did not flush any fragment so far, so just let it queue up.
2219          */
2220         if (console_seq < log_next_seq && !cont.cons)
2221                 goto out;
2222
2223         len = cont_print_text(text, size);
2224         raw_spin_unlock(&logbuf_lock);
2225         stop_critical_timings();
2226         call_console_drivers(cont.level, NULL, 0, text, len);
2227         start_critical_timings();
2228         local_irq_restore(flags);
2229         return;
2230 out:
2231         raw_spin_unlock_irqrestore(&logbuf_lock, flags);
2232 }
2233
2234 /**
2235  * console_unlock - unlock the console system
2236  *
2237  * Releases the console_lock which the caller holds on the console system
2238  * and the console driver list.
2239  *
2240  * While the console_lock was held, console output may have been buffered
2241  * by printk().  If this is the case, console_unlock(); emits
2242  * the output prior to releasing the lock.
2243  *
2244  * If there is output waiting, we wake /dev/kmsg and syslog() users.
2245  *
2246  * console_unlock(); may be called from any context.
2247  */
2248 void console_unlock(void)
2249 {
2250         static char ext_text[CONSOLE_EXT_LOG_MAX];
2251         static char text[LOG_LINE_MAX + PREFIX_MAX];
2252         static u64 seen_seq;
2253         unsigned long flags;
2254         bool wake_klogd = false;
2255         bool do_cond_resched, retry;
2256
2257         if (console_suspended) {
2258                 up_console_sem();
2259                 return;
2260         }
2261
2262         /*
2263          * Console drivers are called under logbuf_lock, so
2264          * @console_may_schedule should be cleared before; however, we may
2265          * end up dumping a lot of lines, for example, if called from
2266          * console registration path, and should invoke cond_resched()
2267          * between lines if allowable.  Not doing so can cause a very long
2268          * scheduling stall on a slow console leading to RCU stall and
2269          * softlockup warnings which exacerbate the issue with more
2270          * messages practically incapacitating the system.
2271          */
2272         do_cond_resched = console_may_schedule;
2273         console_may_schedule = 0;
2274
2275         /* flush buffered message fragment immediately to console */
2276         console_cont_flush(text, sizeof(text));
2277 again:
2278         for (;;) {
2279                 struct printk_log *msg;
2280                 size_t ext_len = 0;
2281                 size_t len;
2282                 int level;
2283
2284                 raw_spin_lock_irqsave(&logbuf_lock, flags);
2285                 if (seen_seq != log_next_seq) {
2286                         wake_klogd = true;
2287                         seen_seq = log_next_seq;
2288                 }
2289
2290                 if (console_seq < log_first_seq) {
2291                         len = sprintf(text, "** %u printk messages dropped ** ",
2292                                       (unsigned)(log_first_seq - console_seq));
2293
2294                         /* messages are gone, move to first one */
2295                         console_seq = log_first_seq;
2296                         console_idx = log_first_idx;
2297                         console_prev = 0;
2298                 } else {
2299                         len = 0;
2300                 }
2301 skip:
2302                 if (console_seq == log_next_seq)
2303                         break;
2304
2305                 msg = log_from_idx(console_idx);
2306                 if (msg->flags & LOG_NOCONS) {
2307                         /*
2308                          * Skip record we have buffered and already printed
2309                          * directly to the console when we received it.
2310                          */
2311                         console_idx = log_next(console_idx);
2312                         console_seq++;
2313                         /*
2314                          * We will get here again when we register a new
2315                          * CON_PRINTBUFFER console. Clear the flag so we
2316                          * will properly dump everything later.
2317                          */
2318                         msg->flags &= ~LOG_NOCONS;
2319                         console_prev = msg->flags;
2320                         goto skip;
2321                 }
2322
2323                 level = msg->level;
2324                 len += msg_print_text(msg, console_prev, false,
2325                                       text + len, sizeof(text) - len);
2326                 if (nr_ext_console_drivers) {
2327                         ext_len = msg_print_ext_header(ext_text,
2328                                                 sizeof(ext_text),
2329                                                 msg, console_seq, console_prev);
2330                         ext_len += msg_print_ext_body(ext_text + ext_len,
2331                                                 sizeof(ext_text) - ext_len,
2332                                                 log_dict(msg), msg->dict_len,
2333                                                 log_text(msg), msg->text_len);
2334                 }
2335                 console_idx = log_next(console_idx);
2336                 console_seq++;
2337                 console_prev = msg->flags;
2338                 raw_spin_unlock(&logbuf_lock);
2339
2340                 stop_critical_timings();        /* don't trace print latency */
2341                 call_console_drivers(level, ext_text, ext_len, text, len);
2342                 start_critical_timings();
2343                 local_irq_restore(flags);
2344
2345                 if (do_cond_resched)
2346                         cond_resched();
2347         }
2348         console_locked = 0;
2349
2350         /* Release the exclusive_console once it is used */
2351         if (unlikely(exclusive_console))
2352                 exclusive_console = NULL;
2353
2354         raw_spin_unlock(&logbuf_lock);
2355
2356         up_console_sem();
2357
2358         /*
2359          * Someone could have filled up the buffer again, so re-check if there's
2360          * something to flush. In case we cannot trylock the console_sem again,
2361          * there's a new owner and the console_unlock() from them will do the
2362          * flush, no worries.
2363          */
2364         raw_spin_lock(&logbuf_lock);
2365         retry = console_seq != log_next_seq;
2366         raw_spin_unlock_irqrestore(&logbuf_lock, flags);
2367
2368         if (retry && console_trylock())
2369                 goto again;
2370
2371         if (wake_klogd)
2372                 wake_up_klogd();
2373 }
2374 EXPORT_SYMBOL(console_unlock);
2375
2376 /**
2377  * console_conditional_schedule - yield the CPU if required
2378  *
2379  * If the console code is currently allowed to sleep, and
2380  * if this CPU should yield the CPU to another task, do
2381  * so here.
2382  *
2383  * Must be called within console_lock();.
2384  */
2385 void __sched console_conditional_schedule(void)
2386 {
2387         if (console_may_schedule)
2388                 cond_resched();
2389 }
2390 EXPORT_SYMBOL(console_conditional_schedule);
2391
2392 void console_unblank(void)
2393 {
2394         struct console *c;
2395
2396         /*
2397          * console_unblank can no longer be called in interrupt context unless
2398          * oops_in_progress is set to 1..
2399          */
2400         if (oops_in_progress) {
2401                 if (down_trylock_console_sem() != 0)
2402                         return;
2403         } else
2404                 console_lock();
2405
2406         console_locked = 1;
2407         console_may_schedule = 0;
2408         for_each_console(c)
2409                 if ((c->flags & CON_ENABLED) && c->unblank)
2410                         c->unblank();
2411         console_unlock();
2412 }
2413
2414 /**
2415  * console_flush_on_panic - flush console content on panic
2416  *
2417  * Immediately output all pending messages no matter what.
2418  */
2419 void console_flush_on_panic(void)
2420 {
2421         /*
2422          * If someone else is holding the console lock, trylock will fail
2423          * and may_schedule may be set.  Ignore and proceed to unlock so
2424          * that messages are flushed out.  As this can be called from any
2425          * context and we don't want to get preempted while flushing,
2426          * ensure may_schedule is cleared.
2427          */
2428         console_trylock();
2429         console_may_schedule = 0;
2430         console_unlock();
2431 }
2432
2433 /*
2434  * Return the console tty driver structure and its associated index
2435  */
2436 struct tty_driver *console_device(int *index)
2437 {
2438         struct console *c;
2439         struct tty_driver *driver = NULL;
2440
2441         console_lock();
2442         for_each_console(c) {
2443                 if (!c->device)
2444                         continue;
2445                 driver = c->device(c, index);
2446                 if (driver)
2447                         break;
2448         }
2449         console_unlock();
2450         return driver;
2451 }
2452
2453 /*
2454  * Prevent further output on the passed console device so that (for example)
2455  * serial drivers can disable console output before suspending a port, and can
2456  * re-enable output afterwards.
2457  */
2458 void console_stop(struct console *console)
2459 {
2460         console_lock();
2461         console->flags &= ~CON_ENABLED;
2462         console_unlock();
2463 }
2464 EXPORT_SYMBOL(console_stop);
2465
2466 void console_start(struct console *console)
2467 {
2468         console_lock();
2469         console->flags |= CON_ENABLED;
2470         console_unlock();
2471 }
2472 EXPORT_SYMBOL(console_start);
2473
2474 static int __read_mostly keep_bootcon;
2475
2476 static int __init keep_bootcon_setup(char *str)
2477 {
2478         keep_bootcon = 1;
2479         pr_info("debug: skip boot console de-registration.\n");
2480
2481         return 0;
2482 }
2483
2484 early_param("keep_bootcon", keep_bootcon_setup);
2485
2486 /*
2487  * The console driver calls this routine during kernel initialization
2488  * to register the console printing procedure with printk() and to
2489  * print any messages that were printed by the kernel before the
2490  * console driver was initialized.
2491  *
2492  * This can happen pretty early during the boot process (because of
2493  * early_printk) - sometimes before setup_arch() completes - be careful
2494  * of what kernel features are used - they may not be initialised yet.
2495  *
2496  * There are two types of consoles - bootconsoles (early_printk) and
2497  * "real" consoles (everything which is not a bootconsole) which are
2498  * handled differently.
2499  *  - Any number of bootconsoles can be registered at any time.
2500  *  - As soon as a "real" console is registered, all bootconsoles
2501  *    will be unregistered automatically.
2502  *  - Once a "real" console is registered, any attempt to register a
2503  *    bootconsoles will be rejected
2504  */
2505 void register_console(struct console *newcon)
2506 {
2507         int i;
2508         unsigned long flags;
2509         struct console *bcon = NULL;
2510         struct console_cmdline *c;
2511
2512         if (console_drivers)
2513                 for_each_console(bcon)
2514                         if (WARN(bcon == newcon,
2515                                         "console '%s%d' already registered\n",
2516                                         bcon->name, bcon->index))
2517                                 return;
2518
2519         /*
2520          * before we register a new CON_BOOT console, make sure we don't
2521          * already have a valid console
2522          */
2523         if (console_drivers && newcon->flags & CON_BOOT) {
2524                 /* find the last or real console */
2525                 for_each_console(bcon) {
2526                         if (!(bcon->flags & CON_BOOT)) {
2527                                 pr_info("Too late to register bootconsole %s%d\n",
2528                                         newcon->name, newcon->index);
2529                                 return;
2530                         }
2531                 }
2532         }
2533
2534         if (console_drivers && console_drivers->flags & CON_BOOT)
2535                 bcon = console_drivers;
2536
2537         if (preferred_console < 0 || bcon || !console_drivers)
2538                 preferred_console = selected_console;
2539
2540         /*
2541          *      See if we want to use this console driver. If we
2542          *      didn't select a console we take the first one
2543          *      that registers here.
2544          */
2545         if (preferred_console < 0) {
2546                 if (newcon->index < 0)
2547                         newcon->index = 0;
2548                 if (newcon->setup == NULL ||
2549                     newcon->setup(newcon, NULL) == 0) {
2550                         newcon->flags |= CON_ENABLED;
2551                         if (newcon->device) {
2552                                 newcon->flags |= CON_CONSDEV;
2553                                 preferred_console = 0;
2554                         }
2555                 }
2556         }
2557
2558         /*
2559          *      See if this console matches one we selected on
2560          *      the command line.
2561          */
2562         for (i = 0, c = console_cmdline;
2563              i < MAX_CMDLINECONSOLES && c->name[0];
2564              i++, c++) {
2565                 if (!newcon->match ||
2566                     newcon->match(newcon, c->name, c->index, c->options) != 0) {
2567                         /* default matching */
2568                         BUILD_BUG_ON(sizeof(c->name) != sizeof(newcon->name));
2569                         if (strcmp(c->name, newcon->name) != 0)
2570                                 continue;
2571                         if (newcon->index >= 0 &&
2572                             newcon->index != c->index)
2573                                 continue;
2574                         if (newcon->index < 0)
2575                                 newcon->index = c->index;
2576
2577                         if (_braille_register_console(newcon, c))
2578                                 return;
2579
2580                         if (newcon->setup &&
2581                             newcon->setup(newcon, c->options) != 0)
2582                                 break;
2583                 }
2584
2585                 newcon->flags |= CON_ENABLED;
2586                 if (i == selected_console) {
2587                         newcon->flags |= CON_CONSDEV;
2588                         preferred_console = selected_console;
2589                 }
2590                 break;
2591         }
2592
2593         if (!(newcon->flags & CON_ENABLED))
2594                 return;
2595
2596         /*
2597          * If we have a bootconsole, and are switching to a real console,
2598          * don't print everything out again, since when the boot console, and
2599          * the real console are the same physical device, it's annoying to
2600          * see the beginning boot messages twice
2601          */
2602         if (bcon && ((newcon->flags & (CON_CONSDEV | CON_BOOT)) == CON_CONSDEV))
2603                 newcon->flags &= ~CON_PRINTBUFFER;
2604
2605         /*
2606          *      Put this console in the list - keep the
2607          *      preferred driver at the head of the list.
2608          */
2609         console_lock();
2610         if ((newcon->flags & CON_CONSDEV) || console_drivers == NULL) {
2611                 newcon->next = console_drivers;
2612                 console_drivers = newcon;
2613                 if (newcon->next)
2614                         newcon->next->flags &= ~CON_CONSDEV;
2615         } else {
2616                 newcon->next = console_drivers->next;
2617                 console_drivers->next = newcon;
2618         }
2619
2620         if (newcon->flags & CON_EXTENDED)
2621                 if (!nr_ext_console_drivers++)
2622                         pr_info("printk: continuation disabled due to ext consoles, expect more fragments in /dev/kmsg\n");
2623
2624         if (newcon->flags & CON_PRINTBUFFER) {
2625                 /*
2626                  * console_unlock(); will print out the buffered messages
2627                  * for us.
2628                  */
2629                 raw_spin_lock_irqsave(&logbuf_lock, flags);
2630                 console_seq = syslog_seq;
2631                 console_idx = syslog_idx;
2632                 console_prev = syslog_prev;
2633                 raw_spin_unlock_irqrestore(&logbuf_lock, flags);
2634                 /*
2635                  * We're about to replay the log buffer.  Only do this to the
2636                  * just-registered console to avoid excessive message spam to
2637                  * the already-registered consoles.
2638                  */
2639                 exclusive_console = newcon;
2640         }
2641         console_unlock();
2642         console_sysfs_notify();
2643
2644         /*
2645          * By unregistering the bootconsoles after we enable the real console
2646          * we get the "console xxx enabled" message on all the consoles -
2647          * boot consoles, real consoles, etc - this is to ensure that end
2648          * users know there might be something in the kernel's log buffer that
2649          * went to the bootconsole (that they do not see on the real console)
2650          */
2651         pr_info("%sconsole [%s%d] enabled\n",
2652                 (newcon->flags & CON_BOOT) ? "boot" : "" ,
2653                 newcon->name, newcon->index);
2654         if (bcon &&
2655             ((newcon->flags & (CON_CONSDEV | CON_BOOT)) == CON_CONSDEV) &&
2656             !keep_bootcon) {
2657                 /* We need to iterate through all boot consoles, to make
2658                  * sure we print everything out, before we unregister them.
2659                  */
2660                 for_each_console(bcon)
2661                         if (bcon->flags & CON_BOOT)
2662                                 unregister_console(bcon);
2663         }
2664 }
2665 EXPORT_SYMBOL(register_console);
2666
2667 int unregister_console(struct console *console)
2668 {
2669         struct console *a, *b;
2670         int res;
2671
2672         pr_info("%sconsole [%s%d] disabled\n",
2673                 (console->flags & CON_BOOT) ? "boot" : "" ,
2674                 console->name, console->index);
2675
2676         res = _braille_unregister_console(console);
2677         if (res)
2678                 return res;
2679
2680         res = 1;
2681         console_lock();
2682         if (console_drivers == console) {
2683                 console_drivers=console->next;
2684                 res = 0;
2685         } else if (console_drivers) {
2686                 for (a=console_drivers->next, b=console_drivers ;
2687                      a; b=a, a=b->next) {
2688                         if (a == console) {
2689                                 b->next = a->next;
2690                                 res = 0;
2691                                 break;
2692                         }
2693                 }
2694         }
2695
2696         if (!res && (console->flags & CON_EXTENDED))
2697                 nr_ext_console_drivers--;
2698
2699         /*
2700          * If this isn't the last console and it has CON_CONSDEV set, we
2701          * need to set it on the next preferred console.
2702          */
2703         if (console_drivers != NULL && console->flags & CON_CONSDEV)
2704                 console_drivers->flags |= CON_CONSDEV;
2705
2706         console->flags &= ~CON_ENABLED;
2707         console_unlock();
2708         console_sysfs_notify();
2709         return res;
2710 }
2711 EXPORT_SYMBOL(unregister_console);
2712
2713 static int __init printk_late_init(void)
2714 {
2715         struct console *con;
2716
2717         for_each_console(con) {
2718                 if (!keep_bootcon && con->flags & CON_BOOT) {
2719                         unregister_console(con);
2720                 }
2721         }
2722         hotcpu_notifier(console_cpu_notify, 0);
2723         return 0;
2724 }
2725 late_initcall(printk_late_init);
2726
2727 #if defined CONFIG_PRINTK
2728 /*
2729  * Delayed printk version, for scheduler-internal messages:
2730  */
2731 #define PRINTK_PENDING_WAKEUP   0x01
2732 #define PRINTK_PENDING_OUTPUT   0x02
2733
2734 static DEFINE_PER_CPU(int, printk_pending);
2735
2736 static void wake_up_klogd_work_func(struct irq_work *irq_work)
2737 {
2738         int pending = __this_cpu_xchg(printk_pending, 0);
2739
2740         if (pending & PRINTK_PENDING_OUTPUT) {
2741                 /* If trylock fails, someone else is doing the printing */
2742                 if (console_trylock())
2743                         console_unlock();
2744         }
2745
2746         if (pending & PRINTK_PENDING_WAKEUP)
2747                 wake_up_interruptible(&log_wait);
2748 }
2749
2750 static DEFINE_PER_CPU(struct irq_work, wake_up_klogd_work) = {
2751         .func = wake_up_klogd_work_func,
2752         .flags = IRQ_WORK_LAZY,
2753 };
2754
2755 void wake_up_klogd(void)
2756 {
2757         preempt_disable();
2758         if (waitqueue_active(&log_wait)) {
2759                 this_cpu_or(printk_pending, PRINTK_PENDING_WAKEUP);
2760                 irq_work_queue(this_cpu_ptr(&wake_up_klogd_work));
2761         }
2762         preempt_enable();
2763 }
2764
2765 int printk_deferred(const char *fmt, ...)
2766 {
2767         va_list args;
2768         int r;
2769
2770         preempt_disable();
2771         va_start(args, fmt);
2772         r = vprintk_emit(0, LOGLEVEL_SCHED, NULL, 0, fmt, args);
2773         va_end(args);
2774
2775         __this_cpu_or(printk_pending, PRINTK_PENDING_OUTPUT);
2776         irq_work_queue(this_cpu_ptr(&wake_up_klogd_work));
2777         preempt_enable();
2778
2779         return r;
2780 }
2781
2782 /*
2783  * printk rate limiting, lifted from the networking subsystem.
2784  *
2785  * This enforces a rate limit: not more than 10 kernel messages
2786  * every 5s to make a denial-of-service attack impossible.
2787  */
2788 DEFINE_RATELIMIT_STATE(printk_ratelimit_state, 5 * HZ, 10);
2789
2790 int __printk_ratelimit(const char *func)
2791 {
2792         return ___ratelimit(&printk_ratelimit_state, func);
2793 }
2794 EXPORT_SYMBOL(__printk_ratelimit);
2795
2796 /**
2797  * printk_timed_ratelimit - caller-controlled printk ratelimiting
2798  * @caller_jiffies: pointer to caller's state
2799  * @interval_msecs: minimum interval between prints
2800  *
2801  * printk_timed_ratelimit() returns true if more than @interval_msecs
2802  * milliseconds have elapsed since the last time printk_timed_ratelimit()
2803  * returned true.
2804  */
2805 bool printk_timed_ratelimit(unsigned long *caller_jiffies,
2806                         unsigned int interval_msecs)
2807 {
2808         unsigned long elapsed = jiffies - *caller_jiffies;
2809
2810         if (*caller_jiffies && elapsed <= msecs_to_jiffies(interval_msecs))
2811                 return false;
2812
2813         *caller_jiffies = jiffies;
2814         return true;
2815 }
2816 EXPORT_SYMBOL(printk_timed_ratelimit);
2817
2818 static DEFINE_SPINLOCK(dump_list_lock);
2819 static LIST_HEAD(dump_list);
2820
2821 /**
2822  * kmsg_dump_register - register a kernel log dumper.
2823  * @dumper: pointer to the kmsg_dumper structure
2824  *
2825  * Adds a kernel log dumper to the system. The dump callback in the
2826  * structure will be called when the kernel oopses or panics and must be
2827  * set. Returns zero on success and %-EINVAL or %-EBUSY otherwise.
2828  */
2829 int kmsg_dump_register(struct kmsg_dumper *dumper)
2830 {
2831         unsigned long flags;
2832         int err = -EBUSY;
2833
2834         /* The dump callback needs to be set */
2835         if (!dumper->dump)
2836                 return -EINVAL;
2837
2838         spin_lock_irqsave(&dump_list_lock, flags);
2839         /* Don't allow registering multiple times */
2840         if (!dumper->registered) {
2841                 dumper->registered = 1;
2842                 list_add_tail_rcu(&dumper->list, &dump_list);
2843                 err = 0;
2844         }
2845         spin_unlock_irqrestore(&dump_list_lock, flags);
2846
2847         return err;
2848 }
2849 EXPORT_SYMBOL_GPL(kmsg_dump_register);
2850
2851 /**
2852  * kmsg_dump_unregister - unregister a kmsg dumper.
2853  * @dumper: pointer to the kmsg_dumper structure
2854  *
2855  * Removes a dump device from the system. Returns zero on success and
2856  * %-EINVAL otherwise.
2857  */
2858 int kmsg_dump_unregister(struct kmsg_dumper *dumper)
2859 {
2860         unsigned long flags;
2861         int err = -EINVAL;
2862
2863         spin_lock_irqsave(&dump_list_lock, flags);
2864         if (dumper->registered) {
2865                 dumper->registered = 0;
2866                 list_del_rcu(&dumper->list);
2867                 err = 0;
2868         }
2869         spin_unlock_irqrestore(&dump_list_lock, flags);
2870         synchronize_rcu();
2871
2872         return err;
2873 }
2874 EXPORT_SYMBOL_GPL(kmsg_dump_unregister);
2875
2876 static bool always_kmsg_dump;
2877 module_param_named(always_kmsg_dump, always_kmsg_dump, bool, S_IRUGO | S_IWUSR);
2878
2879 /**
2880  * kmsg_dump - dump kernel log to kernel message dumpers.
2881  * @reason: the reason (oops, panic etc) for dumping
2882  *
2883  * Call each of the registered dumper's dump() callback, which can
2884  * retrieve the kmsg records with kmsg_dump_get_line() or
2885  * kmsg_dump_get_buffer().
2886  */
2887 void kmsg_dump(enum kmsg_dump_reason reason)
2888 {
2889         struct kmsg_dumper *dumper;
2890         unsigned long flags;
2891
2892         if ((reason > KMSG_DUMP_OOPS) && !always_kmsg_dump)
2893                 return;
2894
2895         rcu_read_lock();
2896         list_for_each_entry_rcu(dumper, &dump_list, list) {
2897                 if (dumper->max_reason && reason > dumper->max_reason)
2898                         continue;
2899
2900                 /* initialize iterator with data about the stored records */
2901                 dumper->active = true;
2902
2903                 raw_spin_lock_irqsave(&logbuf_lock, flags);
2904                 dumper->cur_seq = clear_seq;
2905                 dumper->cur_idx = clear_idx;
2906                 dumper->next_seq = log_next_seq;
2907                 dumper->next_idx = log_next_idx;
2908                 raw_spin_unlock_irqrestore(&logbuf_lock, flags);
2909
2910                 /* invoke dumper which will iterate over records */
2911                 dumper->dump(dumper, reason);
2912
2913                 /* reset iterator */
2914                 dumper->active = false;
2915         }
2916         rcu_read_unlock();
2917 }
2918
2919 /**
2920  * kmsg_dump_get_line_nolock - retrieve one kmsg log line (unlocked version)
2921  * @dumper: registered kmsg dumper
2922  * @syslog: include the "<4>" prefixes
2923  * @line: buffer to copy the line to
2924  * @size: maximum size of the buffer
2925  * @len: length of line placed into buffer
2926  *
2927  * Start at the beginning of the kmsg buffer, with the oldest kmsg
2928  * record, and copy one record into the provided buffer.
2929  *
2930  * Consecutive calls will return the next available record moving
2931  * towards the end of the buffer with the youngest messages.
2932  *
2933  * A return value of FALSE indicates that there are no more records to
2934  * read.
2935  *
2936  * The function is similar to kmsg_dump_get_line(), but grabs no locks.
2937  */
2938 bool kmsg_dump_get_line_nolock(struct kmsg_dumper *dumper, bool syslog,
2939                                char *line, size_t size, size_t *len)
2940 {
2941         struct printk_log *msg;
2942         size_t l = 0;
2943         bool ret = false;
2944
2945         if (!dumper->active)
2946                 goto out;
2947
2948         if (dumper->cur_seq < log_first_seq) {
2949                 /* messages are gone, move to first available one */
2950                 dumper->cur_seq = log_first_seq;
2951                 dumper->cur_idx = log_first_idx;
2952         }
2953
2954         /* last entry */
2955         if (dumper->cur_seq >= log_next_seq)
2956                 goto out;
2957
2958         msg = log_from_idx(dumper->cur_idx);
2959         l = msg_print_text(msg, 0, syslog, line, size);
2960
2961         dumper->cur_idx = log_next(dumper->cur_idx);
2962         dumper->cur_seq++;
2963         ret = true;
2964 out:
2965         if (len)
2966                 *len = l;
2967         return ret;
2968 }
2969
2970 /**
2971  * kmsg_dump_get_line - retrieve one kmsg log line
2972  * @dumper: registered kmsg dumper
2973  * @syslog: include the "<4>" prefixes
2974  * @line: buffer to copy the line to
2975  * @size: maximum size of the buffer
2976  * @len: length of line placed into buffer
2977  *
2978  * Start at the beginning of the kmsg buffer, with the oldest kmsg
2979  * record, and copy one record into the provided buffer.
2980  *
2981  * Consecutive calls will return the next available record moving
2982  * towards the end of the buffer with the youngest messages.
2983  *
2984  * A return value of FALSE indicates that there are no more records to
2985  * read.
2986  */
2987 bool kmsg_dump_get_line(struct kmsg_dumper *dumper, bool syslog,
2988                         char *line, size_t size, size_t *len)
2989 {
2990         unsigned long flags;
2991         bool ret;
2992
2993         raw_spin_lock_irqsave(&logbuf_lock, flags);
2994         ret = kmsg_dump_get_line_nolock(dumper, syslog, line, size, len);
2995         raw_spin_unlock_irqrestore(&logbuf_lock, flags);
2996
2997         return ret;
2998 }
2999 EXPORT_SYMBOL_GPL(kmsg_dump_get_line);
3000
3001 /**
3002  * kmsg_dump_get_buffer - copy kmsg log lines
3003  * @dumper: registered kmsg dumper
3004  * @syslog: include the "<4>" prefixes
3005  * @buf: buffer to copy the line to
3006  * @size: maximum size of the buffer
3007  * @len: length of line placed into buffer
3008  *
3009  * Start at the end of the kmsg buffer and fill the provided buffer
3010  * with as many of the the *youngest* kmsg records that fit into it.
3011  * If the buffer is large enough, all available kmsg records will be
3012  * copied with a single call.
3013  *
3014  * Consecutive calls will fill the buffer with the next block of
3015  * available older records, not including the earlier retrieved ones.
3016  *
3017  * A return value of FALSE indicates that there are no more records to
3018  * read.
3019  */
3020 bool kmsg_dump_get_buffer(struct kmsg_dumper *dumper, bool syslog,
3021                           char *buf, size_t size, size_t *len)
3022 {
3023         unsigned long flags;
3024         u64 seq;
3025         u32 idx;
3026         u64 next_seq;
3027         u32 next_idx;
3028         enum log_flags prev;
3029         size_t l = 0;
3030         bool ret = false;
3031
3032         if (!dumper->active)
3033                 goto out;
3034
3035         raw_spin_lock_irqsave(&logbuf_lock, flags);
3036         if (dumper->cur_seq < log_first_seq) {
3037                 /* messages are gone, move to first available one */
3038                 dumper->cur_seq = log_first_seq;
3039                 dumper->cur_idx = log_first_idx;
3040         }
3041
3042         /* last entry */
3043         if (dumper->cur_seq >= dumper->next_seq) {
3044                 raw_spin_unlock_irqrestore(&logbuf_lock, flags);
3045                 goto out;
3046         }
3047
3048         /* calculate length of entire buffer */
3049         seq = dumper->cur_seq;
3050         idx = dumper->cur_idx;
3051         prev = 0;
3052         while (seq < dumper->next_seq) {
3053                 struct printk_log *msg = log_from_idx(idx);
3054
3055                 l += msg_print_text(msg, prev, true, NULL, 0);
3056                 idx = log_next(idx);
3057                 seq++;
3058                 prev = msg->flags;
3059         }
3060
3061         /* move first record forward until length fits into the buffer */
3062         seq = dumper->cur_seq;
3063         idx = dumper->cur_idx;
3064         prev = 0;
3065         while (l >= size && seq < dumper->next_seq) {
3066                 struct printk_log *msg = log_from_idx(idx);
3067
3068                 l -= msg_print_text(msg, prev, true, NULL, 0);
3069                 idx = log_next(idx);
3070                 seq++;
3071                 prev = msg->flags;
3072         }
3073
3074         /* last message in next interation */
3075         next_seq = seq;
3076         next_idx = idx;
3077
3078         l = 0;
3079         while (seq < dumper->next_seq) {
3080                 struct printk_log *msg = log_from_idx(idx);
3081
3082                 l += msg_print_text(msg, prev, syslog, buf + l, size - l);
3083                 idx = log_next(idx);
3084                 seq++;
3085                 prev = msg->flags;
3086         }
3087
3088         dumper->next_seq = next_seq;
3089         dumper->next_idx = next_idx;
3090         ret = true;
3091         raw_spin_unlock_irqrestore(&logbuf_lock, flags);
3092 out:
3093         if (len)
3094                 *len = l;
3095         return ret;
3096 }
3097 EXPORT_SYMBOL_GPL(kmsg_dump_get_buffer);
3098
3099 /**
3100  * kmsg_dump_rewind_nolock - reset the interator (unlocked version)
3101  * @dumper: registered kmsg dumper
3102  *
3103  * Reset the dumper's iterator so that kmsg_dump_get_line() and
3104  * kmsg_dump_get_buffer() can be called again and used multiple
3105  * times within the same dumper.dump() callback.
3106  *
3107  * The function is similar to kmsg_dump_rewind(), but grabs no locks.
3108  */
3109 void kmsg_dump_rewind_nolock(struct kmsg_dumper *dumper)
3110 {
3111         dumper->cur_seq = clear_seq;
3112         dumper->cur_idx = clear_idx;
3113         dumper->next_seq = log_next_seq;
3114         dumper->next_idx = log_next_idx;
3115 }
3116
3117 /**
3118  * kmsg_dump_rewind - reset the interator
3119  * @dumper: registered kmsg dumper
3120  *
3121  * Reset the dumper's iterator so that kmsg_dump_get_line() and
3122  * kmsg_dump_get_buffer() can be called again and used multiple
3123  * times within the same dumper.dump() callback.
3124  */
3125 void kmsg_dump_rewind(struct kmsg_dumper *dumper)
3126 {
3127         unsigned long flags;
3128
3129         raw_spin_lock_irqsave(&logbuf_lock, flags);
3130         kmsg_dump_rewind_nolock(dumper);
3131         raw_spin_unlock_irqrestore(&logbuf_lock, flags);
3132 }
3133 EXPORT_SYMBOL_GPL(kmsg_dump_rewind);
3134
3135 static char dump_stack_arch_desc_str[128];
3136
3137 /**
3138  * dump_stack_set_arch_desc - set arch-specific str to show with task dumps
3139  * @fmt: printf-style format string
3140  * @...: arguments for the format string
3141  *
3142  * The configured string will be printed right after utsname during task
3143  * dumps.  Usually used to add arch-specific system identifiers.  If an
3144  * arch wants to make use of such an ID string, it should initialize this
3145  * as soon as possible during boot.
3146  */
3147 void __init dump_stack_set_arch_desc(const char *fmt, ...)
3148 {
3149         va_list args;
3150
3151         va_start(args, fmt);
3152         vsnprintf(dump_stack_arch_desc_str, sizeof(dump_stack_arch_desc_str),
3153                   fmt, args);
3154         va_end(args);
3155 }
3156
3157 /**
3158  * dump_stack_print_info - print generic debug info for dump_stack()
3159  * @log_lvl: log level
3160  *
3161  * Arch-specific dump_stack() implementations can use this function to
3162  * print out the same debug information as the generic dump_stack().
3163  */
3164 void dump_stack_print_info(const char *log_lvl)
3165 {
3166         printk("%sCPU: %d PID: %d Comm: %.20s %s %s %.*s\n",
3167                log_lvl, raw_smp_processor_id(), current->pid, current->comm,
3168                print_tainted(), init_utsname()->release,
3169                (int)strcspn(init_utsname()->version, " "),
3170                init_utsname()->version);
3171
3172         if (dump_stack_arch_desc_str[0] != '\0')
3173                 printk("%sHardware name: %s\n",
3174                        log_lvl, dump_stack_arch_desc_str);
3175
3176         print_worker_info(log_lvl, current);
3177 }
3178
3179 /**
3180  * show_regs_print_info - print generic debug info for show_regs()
3181  * @log_lvl: log level
3182  *
3183  * show_regs() implementations can use this function to print out generic
3184  * debug information.
3185  */
3186 void show_regs_print_info(const char *log_lvl)
3187 {
3188         dump_stack_print_info(log_lvl);
3189
3190         printk("%stask: %p task.stack: %p\n",
3191                log_lvl, current, task_stack_page(current));
3192 }
3193
3194 #endif