]> git.notmuchmail.org Git - notmuch/blob - test/README
test: Make the --valgrind option useful, (and drop --verbose).
[notmuch] / test / README
1 Notmuch test suite
2 ==================
3 This directory contains the test suite for notmuch.
4
5 When fixing bugs or enhancing notmuch, you are strongly encouraged to
6 add tests in this directory to cover what you are trying to fix or
7 enhance.
8
9 Running Tests
10 -------------
11 The easiest way to run tests is to say "make test", (or simply run the
12 notmuch-test script). Either command will run all available tests.
13
14 Alternately, you can run a specific subset of tests by simply invoking
15 one of the executable scripts in this directory, (such as ./search,
16 ./reply, etc.)
17
18 The following command-line options are available when running tests:
19
20 --debug::
21         This may help the person who is developing a new test.
22         It causes the command defined with test_debug to run.
23
24 --immediate::
25         This causes the test to immediately exit upon the first
26         failed test.
27
28 --valgrind::
29         Execute notmuch with valgrind and exit with status
30         126 on errors (just like regular tests, this will only stop
31         the test script when running under -i).  Valgrind errors
32         go to stderr, so you might want to pass the -v option, too.
33
34         Since it makes no sense to run the tests with --valgrind and
35         not see any output, this option implies --verbose.  For
36         convenience, it also implies --tee.
37
38 --tee::
39         In addition to printing the test output to the terminal,
40         write it to files named 't/test-results/$TEST_NAME.out'.
41         As the names depend on the tests' file names, it is safe to
42         run the tests with this option in parallel.
43
44 When invoking the test suite via "make test" any of the above options
45 can be specified as follows:
46
47         make test OPTIONS="--verbose"
48
49 Skipping Tests
50 --------------
51 If, for any reason, you need to skip one or more tests, you can do so
52 by setting the NOTMUCH_SKIP_TESTS variable to the name of one or more
53 sections of tests.
54
55 For example:
56
57     $ NOTMUCH_SKIP_TESTS="search reply" make test
58
59 Even more fine-grained skipping is possible by appending a test number
60 (or glob pattern) after the section name. For example, the first
61 search test and the second reply test could be skipped with:
62
63     $ NOTMUCH_SKIP_TESTS="search.1 reply.2" make test
64
65 Note that some tests in the existing test suite rely on previous test
66 items, so you cannot arbitrarily skip any test and expect the
67 remaining tests to be unaffected.
68
69 Writing Tests
70 -------------
71 The test script is written as a shell script.  It should start
72 with the standard "#!/bin/bash" with copyright notices, and an
73 assignment to variable 'test_description', like this:
74
75         #!/bin/bash
76         #
77         # Copyright (c) 2005 Junio C Hamano
78         #
79
80         test_description='xxx test (option --frotz)
81
82         This test exercises the "notmuch xxx" command when
83         given the option --frotz.'
84
85 Source 'test-lib.sh'
86 --------------------
87 After assigning test_description, the test script should source
88 test-lib.sh like this:
89
90         . ./test-lib.sh
91
92 This test harness library does the following things:
93
94  - If the script is invoked with command line argument --help
95    (or -h), it shows the test_description and exits.
96
97  - Creates a temporary directory with default notmuch-config and empty
98    mail store. This directory is 'test/tmp.<test-basename>'. The path
99    to notmuch-config is exported in NOTMUCH_CONFIG environment
100    variable and mail store path is stored in MAIL_DIR variable.
101
102  - Defines standard test helper functions for your scripts to
103    use.  These functions are designed to make all scripts behave
104    consistently when command line arguments --verbose (or -v),
105    --debug (or -d), and --immediate (or -i) is given.
106
107 End with test_done
108 ------------------
109 Your script will be a sequence of tests, using helper functions
110 from the test harness library.  At the end of the script, call
111 'test_done'.
112
113 Test harness library
114 --------------------
115 There are a handful helper functions defined in the test harness
116 library for your script to use.
117
118  - test_expect_success <message> <script>
119
120    This takes two strings as parameter, and evaluates the
121    <script>.  If it yields success, test is considered
122    successful.  <message> should state what it is testing.
123
124  - test_expect_failure <message> <script>
125
126    This is NOT the opposite of test_expect_success, but is used
127    to mark a test that demonstrates a known breakage.  Unlike
128    the usual test_expect_success tests, which say "ok" on
129    success and "FAIL" on failure, this will say "FIXED" on
130    success and "still broken" on failure.  Failures from these
131    tests won't cause -i (immediate) to stop.
132
133  - test_begin_subtest <message>
134
135    Set the test description message for a subsequent test_expect_equal
136    invocation (see below).
137
138  - test_expect_equal <output> <expected>
139
140    This is an often-used convenience function built on top of
141    test_expect_success. It uses the message from the last
142    test_begin_subtest call, so call before calling
143    test_expect_equal. This function generates a successful test if
144    both the <output> and <expected> strings are identical. If not, it
145    will generate a failure and print the difference of the two
146    strings.
147
148  - test_debug <script>
149
150    This takes a single argument, <script>, and evaluates it only
151    when the test script is started with --debug command line
152    argument.  This is primarily meant for use during the
153    development of a new test script.
154
155  - test_done
156
157    Your test script must have test_done at the end.  Its purpose
158    is to summarize successes and failures in the test script and
159    exit with an appropriate error code.
160 k