Bug 17600: Standardize our EXPORT_OK
[srvgit] / Koha / SearchEngine / Elasticsearch / Search.pm
index 0950139..3afcf75 100644 (file)
@@ -4,27 +4,27 @@ package Koha::SearchEngine::Elasticsearch::Search;
 #
 # This file is part of Koha.
 #
-# Koha is free software; you can redistribute it and/or modify it under the
-# terms of the GNU General Public License as published by the Free Software
-# Foundation; either version 3 of the License, or (at your option) any later
-# version.
+# Koha is free software; you can redistribute it and/or modify it
+# under the terms of the GNU General Public License as published by
+# the Free Software Foundation; either version 3 of the License, or
+# (at your option) any later version.
 #
-# Koha is distributed in the hope that it will be useful, but WITHOUT ANY
-# WARRANTY; without even the implied warranty of MERCHANTABILITY or FITNESS FOR
-# A PARTICULAR PURPOSE.  See the GNU General Public License for more details.
+# Koha is distributed in the hope that it will be useful, but
+# WITHOUT ANY WARRANTY; without even the implied warranty of
+# MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE. See the
+# GNU General Public License for more details.
 #
-# You should have received a copy of the GNU General Public License along
-# with Koha; if not, write to the Free Software Foundation, Inc.,
-# 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA.
+# You should have received a copy of the GNU General Public License
+# along with Koha; if not, see <http://www.gnu.org/licenses>.
 
 =head1 NAME
 
-Koha::SearchEngine::ElasticSearch::Search - search functions for Elasticsearch
+Koha::SearchEngine::Elasticsearch::Search - search functions for Elasticsearch
 
 =head1 SYNOPSIS
 
     my $searcher =
-      Koha::SearchEngine::ElasticSearch::Search->new( { index => $index } );
+      Koha::SearchEngine::Elasticsearch::Search->new( { index => $index } );
     my $builder = Koha::SearchEngine::Elasticsearch::QueryBuilder->new(
         { index => $index } );
     my $query = $builder->build_query('perl');
@@ -38,16 +38,19 @@ Koha::SearchEngine::ElasticSearch::Search - search functions for Elasticsearch
 
 =cut
 
-use base qw(Koha::ElasticSearch);
+use Modern::Perl;
+
+use base qw(Koha::SearchEngine::Elasticsearch);
 use C4::Context;
+use C4::AuthoritiesMarc;
 use Koha::ItemTypes;
 use Koha::AuthorisedValues;
 use Koha::SearchEngine::QueryBuilder;
-
-use Catmandu::Store::ElasticSearch;
-
-use Data::Dumper; #TODO remove
-use Carp qw(cluck);
+use Koha::SearchEngine::Search;
+use Koha::Exceptions::Elasticsearch;
+use MARC::Record;
+use MARC::File::XML;
+use MIME::Base64 qw( decode_base64 );
 
 Koha::SearchEngine::Elasticsearch::Search->mk_accessors(qw( store ));
 
@@ -77,25 +80,21 @@ Returns
 sub search {
     my ($self, $query, $page, $count, %options) = @_;
 
-    my $params = $self->get_elasticsearch_params();
-    my %paging;
     # 20 is the default number of results per page
-    $paging{limit} = $count || 20;
-    # ES/Catmandu doesn't want pages, it wants a record to start from.
+    $query->{size} = $count // 20;
+    # ES doesn't want pages, it wants a record to start from.
     if (exists $options{offset}) {
-        $paging{start} = $options{offset};
+        $query->{from} = $options{offset};
     } else {
         $page = (!defined($page) || ($page <= 0)) ? 0 : $page - 1;
-        $paging{start} = $page * $paging{limit};
+        $query->{from} = $page * $query->{size};
     }
-    $self->store(
-        Catmandu::Store::ElasticSearch->new(
-            %$params,
-        )
-    ) unless $self->store;
-    my $error;
+    my $elasticsearch = $self->get_elasticsearch();
     my $results = eval {
-        $self->store->bag->search( %$query, %paging );
+        $elasticsearch->search(
+            index => $self->index_name,
+            body => $query
+        );
     };
     if ($@) {
         die $self->process_error($@);
@@ -108,28 +107,29 @@ sub search {
     my $count = $searcher->count($query);
 
 This mimics a search request, but just gets the result count instead. That's
-faster than pulling all the data in, ususally.
+faster than pulling all the data in, usually.
 
 =cut
 
 sub count {
     my ( $self, $query ) = @_;
+    my $elasticsearch = $self->get_elasticsearch();
 
-    my $params = $self->get_elasticsearch_params();
-    $self->store(
-        Catmandu::Store::ElasticSearch->new( %$params, trace_calls => 0, ) )
-      unless $self->store;
+    # TODO: Probably possible to exclude results
+    # and just return number of hits
+    my $result = $elasticsearch->search(
+        index => $self->index_name,
+        body => $query
+    );
 
-    my $searcher = $self->store->bag->searcher(query => $query);
-    my $count = $searcher->count();
-    return $count;
+    return $result->{hits}->{total};
 }
 
 =head2 search_compat
 
     my ( $error, $results, $facets ) = $search->search_compat(
         $query,            $simple_query, \@sort_by,       \@servers,
-        $results_per_page, $offset,       $expanded_facet, $branches,
+        $results_per_page, $offset,       undef,           $item_types,
         $query_type,       $scan
       )
 
@@ -141,38 +141,44 @@ get ignored here, along with some other things (like C<@servers>.)
 
 sub search_compat {
     my (
-        $self,     $query,            $simple_query, $sort_by,
-        $servers,  $results_per_page, $offset,       $expanded_facet,
-        $branches, $query_type,       $scan
+        $self,       $query,            $simple_query, $sort_by,
+        $servers,    $results_per_page, $offset,       $branches,
+        $item_types, $query_type,       $scan
     ) = @_;
 
+    if ( $scan ) {
+        return $self->_aggregation_scan( $query, $results_per_page, $offset );
+    }
+
     my %options;
+    if ( !defined $offset or $offset < 0 ) {
+        $offset = 0;
+    }
     $options{offset} = $offset;
-    $options{expanded_facet} = $expanded_facet;
     my $results = $self->search($query, undef, $results_per_page, %options);
 
     # Convert each result into a MARC::Record
-    my (@records, $index);
-    $index = $offset; # opac-search expects results to be put in the
-        # right place in the array, according to $offset
-    $results->each(sub {
-            # The results come in an array for some reason
-            my $marc_json = @_[0]->{record};
-            my $marc = $self->json2marc($marc_json);
-            $records[$index++] = $marc;
-        });
+    my @records;
+    # opac-search expects results to be put in the
+    # right place in the array, according to $offset
+    my $index = $offset;
+    my $hits = $results->{'hits'};
+    foreach my $es_record (@{$hits->{'hits'}}) {
+        $records[$index++] = $self->decode_record_from_result($es_record->{'_source'});
+    }
+
     # consumers of this expect a name-spaced result, we provide the default
     # configuration.
     my %result;
-    $result{biblioserver}{hits} = $results->total;
+    $result{biblioserver}{hits} = $hits->{'total'};
     $result{biblioserver}{RECORDS} = \@records;
-    return (undef, \%result, $self->_convert_facets($results->{facets}, $expanded_facet));
+    return (undef, \%result, $self->_convert_facets($results->{aggregations}));
 }
 
 =head2 search_auth_compat
 
     my ( $results, $total ) =
-      $searcher->search_auth_compat( $query, $page, $count, %options );
+      $searcher->search_auth_compat( $query, $offset, $count, $skipmetadata, %options );
 
 This has a similar calling convention to L<search>, however it returns its
 results in a form the same as L<C4::AuthoritiesMarc::SearchAuthorities>.
@@ -180,32 +186,37 @@ results in a form the same as L<C4::AuthoritiesMarc::SearchAuthorities>.
 =cut
 
 sub search_auth_compat {
-    my $self = shift;
+    my ($self, $query, $offset, $count, $skipmetadata, %options) = @_;
 
-    # TODO handle paging
+    if ( !defined $offset or $offset <= 0 ) {
+        $offset = 1;
+    }
+    # Uh, authority search uses 1-based offset..
+    $options{offset} = $offset - 1;
     my $database = Koha::Database->new();
     my $schema   = $database->schema();
-    my $res      = $self->search(@_);
+    my $res      = $self->search($query, undef, $count, %options);
+
     my $bib_searcher = Koha::SearchEngine::Elasticsearch::Search->new({index => 'biblios'});
     my @records;
-    $res->each(
-        sub {
-            my %result;
-            my $record    = @_[0];
-            my $marc_json = $record->{record};
-
-            # I wonder if these should be real values defined in the mapping
-            # rather than hard-coded conversions.
-            # Our results often come through as nested arrays, to fix this
-            # requires changes in catmandu.
-            my $authid = $record->{ 'Local-number' }[0][0];
-            $result{authid} = $authid;
+    my $hits = $res->{'hits'};
+    foreach my $es_record (@{$hits->{'hits'}}) {
+        my $record = $es_record->{'_source'};
+        my %result;
+
+        # We are using the authid to create links, we should honor the authid as stored in the db, not
+        # the 001 which, in some circumstances, can contain other data
+        my $authid = $es_record->{_id};
+
+
+        $result{authid} = $authid;
 
+        if (!defined $skipmetadata || !$skipmetadata) {
             # TODO put all this info into the record at index time so we
             # don't have to go and sort it all out now.
             my $authtypecode = $record->{authtype};
             my $rs           = $schema->resultset('AuthType')
-              ->search( { authtypecode => $authtypecode } );
+            ->search( { authtypecode => $authtypecode } );
 
             # FIXME there's an assumption here that we will get a result.
             # the original code also makes an assumption that some provided
@@ -213,8 +224,8 @@ sub search_auth_compat {
             # with the record. It's not documented why this is the case, so
             # it's not reproduced here yet.
             my $authtype           = $rs->single;
-            my $auth_tag_to_report = $authtype->auth_tag_to_report;
-            my $marc               = $self->json2marc($marc_json);
+            my $auth_tag_to_report = $authtype ? $authtype->auth_tag_to_report : "";
+            my $marc               = $self->decode_record_from_result($record);
             my $mainentry          = $marc->field($auth_tag_to_report);
             my $reported_tag;
             if ($mainentry) {
@@ -223,22 +234,18 @@ sub search_auth_compat {
                 }
             }
             # Turn the resultset into a hash
-            my %authtype_cols;
-            foreach my $col ($authtype->result_source->columns) {
-                $authtype_cols{$col} = $authtype->get_column($col);
-            }
-            $result{authtype}     = $authtype->authtypetext;
+            $result{authtype}     = $authtype ? $authtype->authtypetext : $authtypecode;
             $result{reported_tag} = $reported_tag;
 
             # Reimplementing BuildSummary is out of scope because it'll be hard
             $result{summary} =
-              C4::AuthoritiesMarc::BuildSummary( $marc, $result{authid},
+            C4::AuthoritiesMarc::BuildSummary( $marc, $result{authid},
                 $authtypecode );
             $result{used} = $self->count_auth_use($bib_searcher, $authid);
-            push @records, \%result;
         }
-    );
-    return ( \@records, $res->total );
+        push @records, \%result;
+    }
+    return ( \@records, $hits->{'total'} );
 }
 
 =head2 count_auth_use
@@ -256,9 +263,9 @@ sub count_auth_use {
 
     my $query = {
         query => {
-            filtered => {
-                query  => { match_all => {} },
-                filter => { term      => { an => $authid } }
+            bool => {
+#                query  => { match_all => {} },
+                filter => { term      => { 'koha-auth-number' => $authid } }
             }
         }
     };
@@ -268,7 +275,7 @@ sub count_auth_use {
 =head2 simple_search_compat
 
     my ( $error, $marcresults, $total_hits ) =
-      $searcher->simple_search( $query, $offset, $max_results );
+      $searcher->simple_search( $query, $offset, $max_results, %options );
 
 This is a simpler interface to the searching, intended to be similar enough to
 L<C4::Search::SimpleSearch>.
@@ -291,6 +298,10 @@ How many results to skip from the start of the results.
 The max number of results to return. The default is 100 (because unlimited
 is a pretty terrible thing to do.)
 
+=item C<%options>
+
+These options are unused by Elasticsearch
+
 =back
 
 Returns:
@@ -321,7 +332,8 @@ sub simple_search_compat {
     return ('No query entered', undef, undef) unless $query;
 
     my %options;
-    $options{offset} = $offset // 0;
+    $offset = 0 if not defined $offset or $offset < 0;
+    $options{offset} = $offset;
     $max_results //= 100;
 
     unless (ref $query) {
@@ -331,105 +343,148 @@ sub simple_search_compat {
     }
     my $results = $self->search($query, undef, $max_results, %options);
     my @records;
-    $results->each(sub {
-            # The results come in an array for some reason
-            my $marc_json = @_[0]->{record};
-            my $marc = $self->json2marc($marc_json);
-            push @records, $marc;
-        });
-    return (undef, \@records, $results->total);
+    my $hits = $results->{'hits'};
+    foreach my $es_record (@{$hits->{'hits'}}) {
+        push @records, $self->decode_record_from_result($es_record->{'_source'});
+    }
+    return (undef, \@records, $hits->{'total'});
 }
 
-=head2 json2marc
+=head2 extract_biblionumber
+
+    my $biblionumber = $searcher->extract_biblionumber( $searchresult );
 
-    my $marc = $self->json2marc($marc_json);
+$searchresult comes from simple_search_compat.
 
-Converts the form of marc (based on its JSON, but as a Perl structure) that
-Catmandu stores into a MARC::Record object.
+Returns the biblionumber from the search result record.
 
 =cut
 
-sub json2marc {
-    my ( $self, $marcjson ) = @_;
+sub extract_biblionumber {
+    my ( $self, $searchresultrecord ) = @_;
+    return Koha::SearchEngine::Search::extract_biblionumber( $searchresultrecord );
+}
 
-    my $marc = MARC::Record->new();
-    $marc->encoding('UTF-8');
+=head2 decode_record_from_result
+    my $marc_record = $self->decode_record_from_result(@result);
 
-    # fields are like:
-    # [ '245', '1', '2', 'a' => 'Title', 'b' => 'Subtitle' ]
-    # conveniently, this is the form that MARC::Field->new() likes
-    foreach $field (@$marcjson) {
-        next if @$field < 5;    # Shouldn't be possible, but...
-        if ( $field->[0] eq 'LDR' ) {
-            $marc->leader( $field->[4] );
-        }
-        else {
-            my $marc_field = MARC::Field->new(@$field);
-            $marc->append_fields($marc_field);
-        }
+Extracts marc data from Elasticsearch result and decodes to MARC::Record object
+
+=cut
+
+sub decode_record_from_result {
+    # Result is passed in as array, will get flattened
+    # and first element will be $result
+    my ( $self, $result ) = @_;
+    if ($result->{marc_format} eq 'base64ISO2709') {
+        return MARC::Record->new_from_usmarc(decode_base64($result->{marc_data}));
+    }
+    elsif ($result->{marc_format} eq 'MARCXML') {
+        return MARC::Record->new_from_xml($result->{marc_data}, 'UTF-8', uc C4::Context->preference('marcflavour'));
+    }
+    elsif ($result->{marc_format} eq 'ARRAY') {
+        return $self->_array_to_marc($result->{marc_data_array});
+    }
+    else {
+        Koha::Exceptions::Elasticsearch->throw("Missing marc_format field in Elasticsearch result");
     }
-    return $marc;
+}
+
+=head2 max_result_window
+
+Returns the maximum number of results that can be fetched
+
+This directly requests Elasticsearch for the setting index.max_result_window (or
+the default value for this setting in case it is not set)
+
+=cut
+
+sub max_result_window {
+    my ($self) = @_;
+
+    my $elasticsearch = $self->get_elasticsearch();
+
+    my $response = $elasticsearch->indices->get_settings(
+        index => $self->index_name,
+        flat_settings => 'true',
+        include_defaults => 'true'
+    );
+
+    my $max_result_window = $response->{$self->index_name}->{settings}->{'index.max_result_window'};
+    $max_result_window //= $response->{$self->index_name}->{defaults}->{'index.max_result_window'};
+
+    return $max_result_window;
 }
 
 =head2 _convert_facets
 
-    my $koha_facets = _convert_facets($es_facets, $expanded_facet);
+    my $koha_facets = _convert_facets($es_facets);
 
 Converts elasticsearch facets types to the form that Koha expects.
 It expects the ES facet name to match the Koha type, for example C<itype>,
 C<au>, C<su-to>, etc.
 
-C<$expanded_facet> is the facet that we want to show FacetMaxCount entries for, rather
-than just 5 like normal.
-
 =cut
 
 sub _convert_facets {
     my ( $self, $es, $exp_facet ) = @_;
 
-    return undef if !$es;
+    return if !$es;
 
     # These should correspond to the ES field names, as opposed to the CCL
     # things that zebra uses.
-    # TODO let the library define the order using the interface.
-    my %type_to_label = (
-        author   => { order => 1, label => 'Authors', },
-        itype    => { order => 2, label => 'ItemTypes', },
-        location => { order => 3, label => 'Location', },
-        'su-geo' => { order => 4, label => 'Places', },
-        se       => { order => 5, label => 'Series', },
-        subject  => { order => 6, label => 'Topics', },
+    my %type_to_label;
+    my %label = (
+        author         => 'Authors',
+        itype          => 'ItemTypes',
+        location       => 'Location',
+        'su-geo'       => 'Places',
+        'title-series' => 'Series',
+        subject        => 'Topics',
+        ccode          => 'CollectionCodes',
+        holdingbranch  => 'HoldingLibrary',
+        homebranch     => 'HomeLibrary',
+        ln             => 'Language',
     );
+    my @facetable_fields =
+      Koha::SearchEngine::Elasticsearch->get_facetable_fields;
+    for my $f (@facetable_fields) {
+        next unless defined $f->facet_order;
+        $type_to_label{ $f->name } =
+          { order => $f->facet_order, label => $label{ $f->name } };
+    }
 
     # We also have some special cases, e.g. itypes that need to show the
     # value rather than the code.
     my @itypes = Koha::ItemTypes->search;
+    my @libraries = Koha::Libraries->search;
+    my $library_names = { map { $_->branchcode => $_->branchname } @libraries };
     my @locations = Koha::AuthorisedValues->search( { category => 'LOC' } );
     my $opac = C4::Context->interface eq 'opac' ;
     my %special = (
         itype    => { map { $_->itemtype         => $_->description } @itypes },
         location => { map { $_->authorised_value => ( $opac ? ( $_->lib_opac || $_->lib ) : $_->lib ) } @locations },
+        holdingbranch => $library_names,
+        homebranch => $library_names
     );
     my @facets;
     $exp_facet //= '';
-    while ( ( $type, $data ) = each %$es ) {
+    while ( my ( $type, $data ) = each %$es ) {
         next if !exists( $type_to_label{$type} );
 
         # We restrict to the most popular $limit !results
-        my $limit = ( $type eq $exp_facet ) ? C4::Context->preference('FacetMaxCount') : 5;
+        my $limit = C4::Context->preference('FacetMaxCount');
         my $facet = {
             type_id    => $type . '_id',
-            expand     => $type,
-            expandable => ( $type ne $exp_facet )
-              && ( @{ $data->{terms} } > $limit ),
             "type_label_$type_to_label{$type}{label}" => 1,
             type_link_value                    => $type,
             order      => $type_to_label{$type}{order},
         };
-        $limit = @{ $data->{terms} } if ( $limit > @{ $data->{terms} } );
-        foreach my $term ( @{ $data->{terms} }[ 0 .. $limit - 1 ] ) {
-            my $t = $term->{term};
-            my $c = $term->{count};
+        $limit = @{ $data->{buckets} } if ( $limit > @{ $data->{buckets} } );
+        foreach my $term ( @{ $data->{buckets} }[ 0 .. $limit - 1 ] ) {
+            my $t = $term->{key};
+            my $c = $term->{doc_count};
+            my $label;
             if ( exists( $special{$type} ) ) {
                 $label = $special{$type}->{$t} // $t;
             }
@@ -448,9 +503,71 @@ sub _convert_facets {
         push @facets, $facet if exists $facet->{facets};
     }
 
-    @facets = sort { $a->{order} cmp $b->{order} } @facets;
+    @facets = sort { $a->{order} <=> $b->{order} } @facets;
     return \@facets;
 }
 
+=head2 _aggregation_scan
+
+    my $result = $self->_aggregration_scan($query, 10, 0);
+
+Perform an aggregation request for scan purposes.
+
+=cut
+
+sub _aggregation_scan {
+    my ($self, $query, $results_per_page, $offset) = @_;
+
+    if (!scalar(keys %{$query->{aggregations}})) {
+        my %result = {
+            biblioserver => {
+                hits => 0,
+                RECORDS => undef
+            }
+        };
+        return (undef, \%result, undef);
+    }
+    my ($field) = keys %{$query->{aggregations}};
+    $query->{aggregations}{$field}{terms}{size} = 1000;
+    my $results = $self->search($query, 1, 0);
+
+    # Convert each result into a MARC::Record
+    my (@records, $index);
+    # opac-search expects results to be put in the
+    # right place in the array, according to $offset
+    $index = $offset - 1;
+
+    my $count = scalar(@{$results->{aggregations}{$field}{buckets}});
+    for (my $index = $offset; $index - $offset < $results_per_page && $index < $count; $index++) {
+        my $bucket = $results->{aggregations}{$field}{buckets}->[$index];
+        # Scan values are expressed as:
+        # - MARC21: 100a (count) and 245a (term)
+        # - UNIMARC: 200f (count) and 200a (term)
+        my $marc = MARC::Record->new;
+        $marc->encoding('UTF-8');
+        if (C4::Context->preference('marcflavour') eq 'UNIMARC') {
+            $marc->append_fields(
+                MARC::Field->new((200, ' ',  ' ', 'f' => $bucket->{doc_count}))
+            );
+            $marc->append_fields(
+                MARC::Field->new((200, ' ',  ' ', 'a' => $bucket->{key}))
+            );
+        } else {
+            $marc->append_fields(
+                MARC::Field->new((100, ' ',  ' ', 'a' => $bucket->{doc_count}))
+            );
+            $marc->append_fields(
+                MARC::Field->new((245, ' ',  ' ', 'a' => $bucket->{key}))
+            );
+        }
+        $records[$index] = $marc->as_usmarc();
+    };
+    # consumers of this expect a namespaced result, we provide the default
+    # configuration.
+    my %result;
+    $result{biblioserver}{hits} = $count;
+    $result{biblioserver}{RECORDS} = \@records;
+    return (undef, \%result, undef);
+}
 
 1;