f2499bce780bdda3ae1c17242aab4f00d9ad8252
[notmuch] / test / README
1 Notmuch test suite
2 ==================
3 This directory contains the test suite for notmuch.
4
5 When fixing bugs or enhancing notmuch, you are strongly encouraged to
6 add tests in this directory to cover what you are trying to fix or
7 enhance.
8
9 Prerequisites
10 -------------
11 The test system itself requires:
12
13   - bash(1) version 4.0 or newer
14
15 Without bash 4.0+ the tests just refuse to run.
16
17 Some tests require external dependencies to run. Without them, they
18 will be skipped, or (rarely) marked failed. Please install these, so
19 that you know if you break anything.
20
21   - GNU tar(1)
22   - dtach(1)
23   - emacs(1)
24   - emacsclient(1)
25   - gdb(1)
26   - gpg(1)
27   - python(1)
28
29 If your system lacks these tools or have older, non-upgreable versions
30 of these, please (possibly compile and) install these to some other
31 path, for example /usr/local/bin or /opt/gnu/bin. Then prepend the
32 chosen directory to your PATH before running the tests.
33
34 e.g. env PATH=/opt/gnu/bin:$PATH make test
35
36 For FreeBSD you need to install latest gdb from ports or packages and
37 provide path to it in TEST_GDB environment variable before executing
38 the tests, native FreeBSD gdb does not not work.  If you install
39 coreutils, which provides GNU versions of basic utils like 'date' and
40 'base64' on FreeBSD, the test suite will use these instead of the
41 native ones. This provides robustness against portability issues with
42 these system tools. Most often the tests are written, reviewed and
43 tested on Linux system so such portability issues arise from time to
44 time.
45
46
47 Running Tests
48 -------------
49 The easiest way to run tests is to say "make test", (or simply run the
50 notmuch-test script). Either command will run all available tests.
51
52 Alternately, you can run a specific subset of tests by simply invoking
53 one of the executable scripts in this directory, (such as ./T*-search.sh,
54 ./T*-reply.sh, etc). Note that you will probably want "make test-binaries"
55 before running individual tests.
56
57 The following command-line options are available when running tests:
58
59 --debug::
60         This may help the person who is developing a new test.
61         It causes the command defined with test_debug to run.
62
63 --immediate::
64         This causes the test to immediately exit upon the first
65         failed test.
66
67 --valgrind::
68         Execute notmuch with valgrind and exit with status
69         126 on errors (just like regular tests, this will only stop
70         the test script when running under -i).  Valgrind errors
71         go to stderr, so you might want to pass the -v option, too.
72
73         Since it makes no sense to run the tests with --valgrind and
74         not see any output, this option implies --verbose.  For
75         convenience, it also implies --tee.
76
77 --tee::
78         In addition to printing the test output to the terminal,
79         write it to files named 't/test-results/$TEST_NAME.out'.
80         As the names depend on the tests' file names, it is safe to
81         run the tests with this option in parallel.
82
83 --root=<dir>::
84         This runs the testsuites specified under a separate directory.
85         However, caution is advised, as not all tests are maintained
86         with this relocation in mind, so some tests may behave
87         differently.
88
89         Pointing this argument at a tmpfs filesystem can improve the
90         speed of the test suite for some users.
91
92 Certain tests require precomputed databases to complete. You can fetch these
93 databases with
94
95         make download-test-databases
96
97 If you do not download the test databases, the relevant tests will be
98 skipped.
99
100 When invoking the test suite via "make test" any of the above options
101 can be specified as follows:
102
103         make test OPTIONS="--verbose"
104
105 You can choose an emacs binary (and corresponding emacsclient) to run
106 the tests in one of the following ways.
107
108         TEST_EMACS=my-emacs TEST_EMACSCLIENT=my-emacsclient make test
109         TEST_EMACS=my-emacs TEST_EMACSCLIENT=my-emacsclient ./T*-emacs.sh
110         make test TEST_EMACS=my-emacs TEST_EMACSCLIENT=my-emacsclient
111
112 Some tests may require a c compiler. You can choose the name and flags similarly
113 to with emacs, e.g.
114
115      make test TEST_CC=gcc TEST_CFLAGS="-g -O2"
116
117 Quiet Execution
118 ---------------
119
120 Normally, when new script starts and when test PASSes you get a message
121 printed on screen. This printing can be disabled by setting the
122 NOTMUCH_TEST_QUIET variable to a non-null value. Message on test
123 failures and skips are still printed.
124
125 Skipping Tests
126 --------------
127 If, for any reason, you need to skip one or more tests, you can do so
128 by setting the NOTMUCH_SKIP_TESTS variable to the name of one or more
129 sections of tests.
130
131 For example:
132
133     $ NOTMUCH_SKIP_TESTS="search reply" make test
134
135 Even more fine-grained skipping is possible by appending a test number
136 (or glob pattern) after the section name. For example, the first
137 search test and the second reply test could be skipped with:
138
139     $ NOTMUCH_SKIP_TESTS="search.1 reply.2" make test
140
141 Note that some tests in the existing test suite rely on previous test
142 items, so you cannot arbitrarily skip any test and expect the
143 remaining tests to be unaffected.
144
145 Currently we do not consider skipped tests as build failures. For
146 maximum robustness, when setting up automated build processes, you
147 should explicitely skip tests, rather than relying on notmuch's
148 detection of missing prerequisites. In the future we may treat tests
149 unable to run because of missing prerequisites, but not explicitely
150 skipped by the user, as failures.
151
152 Writing Tests
153 -------------
154 The test script is written as a shell script. It is to be named as
155 Tddd-testname.sh where 'ddd' is three digits and 'testname' the "bare"
156 name of your test. Tests will be run in order the 'ddd' part determines.
157
158 The test script should start with the standard "#!/usr/bin/env bash"
159 and an assignment to variable 'test_description', like this:
160
161         #!/usr/bin/env bash
162
163         test_description='xxx test (option --frotz)
164
165         This test exercises the "notmuch xxx" command when
166         given the option --frotz.'
167
168 Source 'test-lib.sh'
169 --------------------
170 After assigning test_description, the test script should source
171 test-lib.sh like this:
172
173         . ./test-lib.sh || exit 1
174
175 This test harness library does the following things:
176
177  - If the script is invoked with command line argument --help
178    (or -h), it shows the test_description and exits.
179
180  - Creates a temporary directory with default notmuch-config and a
181    mail store with a corpus of mail, (initially, 50 early messages
182    sent to the notmuch list). This directory is
183    test/tmp.<test-basename>. The path to notmuch-config is exported in
184    NOTMUCH_CONFIG environment variable and mail store path is stored
185    in MAIL_DIR variable.
186
187  - Defines standard test helper functions for your scripts to
188    use.  These functions are designed to make all scripts behave
189    consistently when command line arguments --verbose (or -v),
190    --debug (or -d), and --immediate (or -i) is given.
191
192 End with test_done
193 ------------------
194 Your script will be a sequence of tests, using helper functions
195 from the test harness library.  At the end of the script, call
196 'test_done'.
197
198 Test harness library
199 --------------------
200 There are a handful helper functions defined in the test harness
201 library for your script to use.
202
203  test_begin_subtest <message>
204
205    Set the test description message for a subsequent test_expect_*
206    invocation (see below).
207
208  test_expect_success <script>
209
210    This takes a string as parameter, and evaluates the
211    <script>.  If it yields success, test is considered
212    successful.
213
214  test_expect_code <code> <script>
215
216    This takes two strings as parameter, and evaluates the <script>.
217    If it yields <code> exit status, test is considered successful.
218
219  test_subtest_known_broken
220
221    Mark the current test as broken.  Such tests are expected to fail.
222    Unlike the normal tests, which say "PASS" on success and "FAIL" on
223    failure, these will say "FIXED" on success and "BROKEN" on failure.
224    Failures from these tests won't cause -i (immediate) to stop.  A
225    test must call this before any test_expect_* function.
226
227  test_expect_equal <output> <expected>
228
229    This is an often-used convenience function built on top of
230    test_expect_success. It uses the message from the last
231    test_begin_subtest call, so call before calling
232    test_expect_equal. This function generates a successful test if
233    both the <output> and <expected> strings are identical. If not, it
234    will generate a failure and print the difference of the two
235    strings.
236
237  test_expect_equal_file <file1> <file2>
238
239    Identical to test_expect_equal, except that <file1> and <file2>
240    are files instead of strings.  This is a much more robust method to
241    compare formatted textual information, since it also notices
242    whitespace and closing newline differences.
243
244  test_expect_equal_json <output> <expected>
245
246    Identical to test_expect_equal, except that the two strings are
247    treated as JSON and canonicalized before equality testing.  This is
248    useful to abstract away from whitespace differences in the expected
249    output and that generated by running a notmuch command.
250
251  test_debug <script>
252
253    This takes a single argument, <script>, and evaluates it only
254    when the test script is started with --debug command line
255    argument.  This is primarily meant for use during the
256    development of a new test script.
257
258  test_emacs <emacs-lisp-expressions>
259
260    This function executes the provided emacs lisp script within
261    emacs. The script can be a sequence of emacs lisp expressions,
262    (that is, they will be evaluated within a progn form). Emacs
263    stdout and stderr is not available, the common way to get output
264    is to save it to a file. There are some auxiliary functions
265    useful in emacs tests provided in test-lib.el. Do not use `setq'
266    for setting variables in Emacs tests because it affects other
267    tests that may run in the same Emacs instance.  Use `let' instead
268    so the scope of the changed variables is limited to a single test.
269
270  test_emacs_expect_t <emacs-lisp-expressions>
271
272   This function executes the provided emacs lisp script within
273   emacs in a manner similar to 'test_emacs'. The expressions should
274   return the value `t' to indicate that the test has passed. If the
275   test does not return `t' then it is considered failed and all data
276   returned by the test is reported to the tester.
277
278  test_done
279
280    Your test script must have test_done at the end.  Its purpose
281    is to summarize successes and failures in the test script and
282    exit with an appropriate error code.
283
284 There are also a number of notmuch-specific auxiliary functions and
285 variables which are useful in writing tests:
286
287   generate_message
288
289     Generates a message with an optional template. Most tests will
290     actually prefer to call add_message. See below.
291
292   add_message
293
294     Generate a message and add it to the database (by calling "notmuch
295     new"). It is sufficient to simply call add_message with no
296     arguments if you don't care about the content of the message. If
297     more control is needed, arguments can be provide to specify many
298     different header values for the new message. See the documentation
299     within test-lib.sh or refer to many example calls within existing
300     tests.
301
302   add_email_corpus
303
304     This function should be called at the beginning of a test file
305     when a test needs to operate on a non-empty body of messages. It
306     will initialize the mail database to a known state of 50 sample
307     messages, (culled from the early history of the notmuch mailing
308     list).
309
310   notmuch_counter_reset
311   $notmuch_counter_command
312   notmuch_counter_value
313
314     These allow to count how many times notmuch binary is called.
315     notmuch_counter_reset() function generates a script that counts
316     how many times it is called and resets the counter to zero.  The
317     function sets $notmuch_counter_command variable to the path to the
318     generated script that should be called instead of notmuch to do
319     the counting.  The notmuch_counter_value() function prints the
320     current counter value.
321
322 There are also functions which remove various environment-dependent
323 values from notmuch output; these are useful to ensure that test
324 results remain consistent across different machines.
325
326  notmuch_search_sanitize
327  notmuch_show_sanitize
328  notmuch_show_sanitize_all
329  notmuch_json_show_sanitize
330
331    All these functions should receive the text to be sanitized as the
332    input of a pipe, e.g.
333    output=`notmuch search "..." | notmuch_search_sanitize`