Подтвердить что ты не робот

Java 8 Stream с пакетной обработкой

У меня есть большой файл, содержащий список элементов.

Я хотел бы создать партию элементов, сделать HTTP-запрос с этой партией (все элементы нужны как параметры в HTTP-запросе). Я могу сделать это очень легко с цикла for, но как любовник Java 8, я хочу попробовать написать это с помощью платформы Java 8 Stream (и воспользоваться преимуществами ленивой обработки).

Пример:

List<String> batch = new ArrayList<>(BATCH_SIZE);
for (int i = 0; i < data.size(); i++) {
  batch.add(data.get(i));
  if (batch.size() == BATCH_SIZE) process(batch);
}

if (batch.size() > 0) process(batch);

Я хочу сделать что-то длинное lazyFileStream.group(500).map(processBatch).collect(toList())

Каким будет лучший способ сделать это?

4b9b3361

Ответ 1

Заметка! Это решение читает весь файл перед запуском forEach.

Вы можете сделать это с помощью библиотеки jOOλ, которая расширяет потоки Java 8 для однопоточных последовательных сценариев использования:

Seq.seq(lazyFileStream)              // Seq<String>
   .zipWithIndex()                   // Seq<Tuple2<String, Long>>
   .groupBy(tuple -> tuple.v2 / 500) // Map<Long, List<String>>
   .forEach((index, batch) -> {
       process(batch);
   });

За кулисами zipWithIndex() просто:

static <T> Seq<Tuple2<T, Long>> zipWithIndex(Stream<T> stream) {
    final Iterator<T> it = stream.iterator();

    class ZipWithIndex implements Iterator<Tuple2<T, Long>> {
        long index;

        @Override
        public boolean hasNext() {
            return it.hasNext();
        }

        @Override
        public Tuple2<T, Long> next() {
            return tuple(it.next(), index++);
        }
    }

    return seq(new ZipWithIndex());
}

... тогда как groupBy() - это удобство API для:

default <K> Map<K, List<T>> groupBy(Function<? super T, ? extends K> classifier) {
    return collect(Collectors.groupingBy(classifier));
}

(Отказ от ответственности: я работаю в компании за JOOλ)

Ответ 2

Для полноты, вот решение Guava.

Iterators.partition(stream.iterator(), batchSize).forEachRemaining(this::process);

В вопросе коллекция доступна, поэтому поток не нужен, и его можно записать как

Iterables.partition(data, batchSize).forEach(this::process);

Ответ 3

Возможна также чистая реализация Java-8:

int BATCH = 500;
IntStream.range(0, (data.size()+BATCH-1)/BATCH)
         .mapToObj(i -> data.subList(i*BATCH, Math.min(data.size(), (i+1)*BATCH)))
         .forEach(batch -> process(batch));

Обратите внимание, что в отличие от JOOl он может работать хорошо параллельно (при условии, что ваш data является списком произвольного доступа).

Ответ 4

Решение Pure Java 8:

Мы можем создать пользовательский сборщик, чтобы сделать это изящно, который обрабатывает batch size и Consumer для обработки каждой партии:

import java.util.ArrayList;
import java.util.Collections;
import java.util.List;
import java.util.Set;
import java.util.function.*;
import java.util.stream.Collector;

import static java.util.Objects.requireNonNull;


/**
 * Collects elements in the stream and calls the supplied batch processor
 * after the configured batch size is reached.
 *
 * In case of a parallel stream, the batch processor may be called with
 * elements less than the batch size.
 *
 * The elements are not kept in memory, and the final result will be an
 * empty list.
 *
 * @param <T> Type of the elements being collected
 */
class BatchCollector<T> implements Collector<T, List<T>, List<T>> {

    private final int batchSize;
    private final Consumer<List<T>> batchProcessor;


    /**
     * Constructs the batch collector
     *
     * @param batchSize the batch size after which the batchProcessor should be called
     * @param batchProcessor the batch processor which accepts batches of records to process
     */
    BatchCollector(int batchSize, Consumer<List<T>> batchProcessor) {
        batchProcessor = requireNonNull(batchProcessor);

        this.batchSize = batchSize;
        this.batchProcessor = batchProcessor;
    }

    public Supplier<List<T>> supplier() {
        return ArrayList::new;
    }

    public BiConsumer<List<T>, T> accumulator() {
        return (ts, t) -> {
            ts.add(t);
            if (ts.size() >= batchSize) {
                batchProcessor.accept(ts);
                ts.clear();
            }
        };
    }

    public BinaryOperator<List<T>> combiner() {
        return (ts, ots) -> {
            // process each parallel list without checking for batch size
            // avoids adding all elements of one to another
            // can be modified if a strict batching mode is required
            batchProcessor.accept(ts);
            batchProcessor.accept(ots);
            return Collections.emptyList();
        };
    }

    public Function<List<T>, List<T>> finisher() {
        return ts -> {
            batchProcessor.accept(ts);
            return Collections.emptyList();
        };
    }

    public Set<Characteristics> characteristics() {
        return Collections.emptySet();
    }
}

Дополнительно можно создать вспомогательный класс:

import java.util.List;
import java.util.function.Consumer;
import java.util.stream.Collector;

public class StreamUtils {

    /**
     * Creates a new batch collector
     * @param batchSize the batch size after which the batchProcessor should be called
     * @param batchProcessor the batch processor which accepts batches of records to process
     * @param <T> the type of elements being processed
     * @return a batch collector instance
     */
    public static <T> Collector<T, List<T>, List<T>> batchCollector(int batchSize, Consumer<List<T>> batchProcessor) {
        return new BatchCollector<T>(batchSize, batchProcessor);
    }
}

Пример использования:

List<Integer> input = Arrays.asList(1, 2, 3, 4, 5, 6, 7, 8, 9, 10);
List<Integer> output = new ArrayList<>();

int batchSize = 3;
Consumer<List<Integer>> batchProcessor = xs -> output.addAll(xs);

input.stream()
     .collect(StreamUtils.batchCollector(batchSize, batchProcessor));

Я также разместил свой код на GitHub, если кто-то хочет взглянуть:

Ссылка на Github

Ответ 5

Я написал специальный Spliterator для таких сценариев. Он будет заполнять списки заданного размера из входного потока. Преимущество такого подхода состоит в том, что он будет выполнять ленивую обработку и будет работать с другими функциями потока.

public static <T> Stream<List<T>> batches(Stream<T> stream, int batchSize) {
    return batchSize <= 0
        ? Stream.of(stream.collect(Collectors.toList()))
        : StreamSupport.stream(new BatchSpliterator<>(stream.spliterator(), batchSize), stream.isParallel());
}

private static class BatchSpliterator<E> implements Spliterator<List<E>> {

    private final Spliterator<E> base;
    private final int batchSize;

    public BatchSpliterator(Spliterator<E> base, int batchSize) {
        this.base = base;
        this.batchSize = batchSize;
    }

    @Override
    public boolean tryAdvance(Consumer<? super List<E>> action) {
        final List<E> batch = new ArrayList<>(batchSize);
        for (int i=0; i < batchSize && base.tryAdvance(batch::add); i++)
            ;
        if (batch.isEmpty())
            return false;
        action.accept(batch);
        return true;
    }

    @Override
    public Spliterator<List<E>> trySplit() {
        if (base.estimateSize() <= batchSize)
            return null;
        final Spliterator<E> splitBase = this.base.trySplit();
        return splitBase == null ? null
                : new BatchSpliterator<>(splitBase, batchSize);
    }

    @Override
    public long estimateSize() {
        final double baseSize = base.estimateSize();
        return baseSize == 0 ? 0
                : (long) Math.ceil(baseSize / (double) batchSize);
    }

    @Override
    public int characteristics() {
        return base.characteristics();
    }

}

Ответ 6

У нас была аналогичная проблема. Мы хотели взять поток, который был больше, чем системная память (итерация по всем объектам в базе данных) и рандомизировать порядок как можно лучше - мы думали, что было бы нормально буферировать 10 000 элементов и рандомизировать их.

Цель была функцией, которая принимала поток.

Из предложенных здесь решений существует, по-видимому, ряд вариантов:

  • Используйте различные дополнительные библиотеки, не содержащие java
  • Начните с чего-то, что не поток. список случайного доступа
  • Имейте поток, который можно легко разбить в spliterator

Наш инстинкт первоначально использовался для использования пользовательского коллекционера, но это означало отказ от потоковой передачи. Вышеупомянутое решение для коллектора очень хорошее, и мы почти использовали его.

Здесь решение, которое обманывает, используя тот факт, что Stream может предоставить вам Iterator, который вы можете использовать как escape-люк, чтобы позволить вам делать что-то лишнее, чтобы потоки не поддерживали. Iterator преобразуется обратно в поток, используя еще один бит колдовства Java 8 StreamSupport.

/**
 * An iterator which returns batches of items taken from another iterator
 */
public class BatchingIterator<T> implements Iterator<List<T>> {
    /**
     * Given a stream, convert it to a stream of batches no greater than the
     * batchSize.
     * @param originalStream to convert
     * @param batchSize maximum size of a batch
     * @param <T> type of items in the stream
     * @return a stream of batches taken sequentially from the original stream
     */
    public static <T> Stream<List<T>> batchedStreamOf(Stream<T> originalStream, int batchSize) {
        return asStream(new BatchingIterator<>(originalStream.iterator(), batchSize));
    }

    private static <T> Stream<T> asStream(Iterator<T> iterator) {
        return StreamSupport.stream(
            Spliterators.spliteratorUnknownSize(iterator,ORDERED),
            false);
    }

    private int batchSize;
    private List<T> currentBatch;
    private Iterator<T> sourceIterator;

    public BatchingIterator(Iterator<T> sourceIterator, int batchSize) {
        this.batchSize = batchSize;
        this.sourceIterator = sourceIterator;
    }

    @Override
    public boolean hasNext() {
        prepareNextBatch();
        return currentBatch!=null && !currentBatch.isEmpty();
    }

    @Override
    public List<T> next() {
        return currentBatch;
    }

    private void prepareNextBatch() {
        currentBatch = new ArrayList<>(batchSize);
        while (sourceIterator.hasNext() && currentBatch.size() < batchSize) {
            currentBatch.add(sourceIterator.next());
        }
    }
}

Простой пример использования этого будет выглядеть так:

@Test
public void getsBatches() {
    BatchingIterator.batchedStreamOf(Stream.of("A","B","C","D","E","F"), 3)
        .forEach(System.out::println);
}

Вышеприведенные отпечатки

[A, B, C]
[D, E, F]

В нашем случае мы хотели перетасовать партии, а затем сохранить их как поток - это выглядело так:

@Test
public void howScramblingCouldBeDone() {
    BatchingIterator.batchedStreamOf(Stream.of("A","B","C","D","E","F"), 3)
        // the lambda in the map expression sucks a bit because Collections.shuffle acts on the list, rather than returning a shuffled one
        .map(list -> {
            Collections.shuffle(list); return list; })
        .flatMap(List::stream)
        .forEach(System.out::println);
}

Это выводит что-то вроде (оно рандомизировано, так отличается каждый раз)

A
C
B
E
D
F

Секретный соус здесь состоит в том, что всегда есть поток, поэтому вы можете либо работать с потоком партий, либо делать что-то для каждой партии, а затем flatMap возвращаться к потоку. Еще лучше, все вышеперечисленное работает только в качестве окончательного forEach или collect или других завершающих выражений PULL данных через поток.

Оказывается, что Iterator - это особый тип завершающей операции над потоком и не вызывает запуск всего потока и попадания в память! Благодаря Java-парням за блестящий дизайн!

Ответ 7

Вы также можете использовать RxJava:

Observable.from(data).buffer(BATCH_SIZE).forEach((batch) -> process(batch));

или

Observable.from(lazyFileStream).buffer(500).map((batch) -> process(batch)).toList();

или

Observable.from(lazyFileStream).buffer(500).map(MyClass::process).toList();

Ответ 8

Вы также можете взглянуть на циклоп-реакцию, я автор этой библиотеки. Он реализует интерфейс jOOλ (и за счет расширения JDK 8 Streams), но в отличие от JDK 8 Parallel Streams он сфокусирован на асинхронных операциях (таких как потенциально блокировка вызовов асинхронного ввода-вывода). JDK Parallel Streams, напротив, фокусируется на параллелизме данных для операций с процессором. Он работает за счет управления агрегатами задач на основе будущего под капотом, но представляет стандартный расширенный Stream API для конечных пользователей.

Этот пример кода может помочь вам начать

LazyFutureStream.parallelCommonBuilder()
                .react(data)
                .grouped(BATCH_SIZE)                  
                .map(this::process)
                .run();

Здесь есть учебник по дозированию

И более общий учебник здесь

Чтобы использовать свой собственный пул потоков (который, вероятно, больше подходит для блокировки ввода-вывода), вы можете начать обработку с

     LazyReact reactor = new LazyReact(40);

     reactor.react(data)
            .grouped(BATCH_SIZE)                  
            .map(this::process)
            .run();

Ответ 9

Чистый пример Java 8, который также работает с параллельными потоками.

Как использовать:

Stream<Integer> integerStream = IntStream.range(0, 45).parallel().boxed();
CsStreamUtil.processInBatch(integerStream, 10, batch -> System.out.println("Batch: " + batch));

Объявление и реализация метода:

public static <ElementType> void processInBatch(Stream<ElementType> stream, int batchSize, Consumer<Collection<ElementType>> batchProcessor)
{
    List<ElementType> newBatch = new ArrayList<>(batchSize);

    stream.forEach(element -> {
        List<ElementType> fullBatch;

        synchronized (newBatch)
        {
            if (newBatch.size() < batchSize)
            {
                newBatch.add(element);
                return;
            }
            else
            {
                fullBatch = new ArrayList<>(newBatch);
                newBatch.clear();
                newBatch.add(element);
            }
        }

        batchProcessor.accept(fullBatch);
    });

    if (newBatch.size() > 0)
        batchProcessor.accept(new ArrayList<>(newBatch));
}

Ответ 10

это чистое решение Java, которое оценивается лениво.

public static <T> Stream<List<T>> partition(Stream<T> stream, int batchSize){
    List<List<T>> currentBatch = new ArrayList<List<T>>(); //just to make it mutable 
    currentBatch.add(new ArrayList<T>(batchSize));
    return Stream.concat(stream
      .sequential()                   
      .map(new Function<T, List<T>>(){
          public List<T> apply(T t){
              currentBatch.get(0).add(t);
              return currentBatch.get(0).size() == batchSize ? currentBatch.set(0,new ArrayList<>(batchSize)): null;
            }
      }), Stream.generate(()->currentBatch.get(0).isEmpty()?null:currentBatch.get(0))
                .limit(1)
    ).filter(Objects::nonNull);
}

Ответ 11

Простой пример с использованием Spliterator

    // read file into stream, try-with-resources
    try (Stream<String> stream = Files.lines(Paths.get(fileName))) {
        //skip header
        Spliterator<String> split = stream.skip(1).spliterator();
        Chunker<String> chunker = new Chunker<String>();
        while(true) {              
            boolean more = split.tryAdvance(chunker::doSomething);
            if (!more) {
                break;
            }
        }           
    } catch (IOException e) {
        e.printStackTrace();
    }
}

static class Chunker<T> {
    int ct = 0;
    public void doSomething(T line) {
        System.out.println(ct++ + " " + line.toString());
        if (ct % 100 == 0) {
            System.out.println("====================chunk=====================");               
        }           
    }       
}

Ответ Брюса более полный, но я искал что-то быстрое и грязное, чтобы обработать кучу файлов.

Ответ 12

Здесь другой подход, творчески использующий Stream::flatMap для преобразования потока элементов в поток наборов элементов. Вам нужен дозатор:

public class Batcher<E, C extends Collection<E>> implements Function<E, Stream<? extends C>> {

    private final Supplier<? extends C> batchFactory;
    private final int batchSize;
    private C batch;

    public Batcher(Supplier<? extends C> batchFactory, int batchSize) {
        this.batchFactory = batchFactory;
        this.batchSize = batchSize;
        this.batch = batchFactory.get();
    }

    @Override
    public Stream<? extends C> apply(E element) {
        batch.add(element);
        if (batch.size() >= batchSize) {
            Stream<C> stream = Stream.of(batch);
            batch = batchFactory.get();
            return stream;
        } else {
            return Stream.empty();
        }
    }

}

Что вы можете затем использовать:

IntStream.range(0, 100)
         .boxed()
         .flatMap(new Batcher<>(ArrayList::new, 10))
         .forEach(batch -> System.out.println("processing batch: " + batch));

Этот подход имеет три приятных свойства:

  1. Это сохраняет лень потока - это никогда не материализует все это в памяти, и может работать на бесконечных потоках
  2. Он создает поток, так что вы можете выполнять больше потоковых операций в пакетах перед любой терминальной операцией, которая вам нужна (в отличие от некоторых ответов, которые здесь принимают обратный вызов, исключая дополнительные операции потока)
  3. Он может быть использован inline в потоковом конвейере (в отличие от Hei, в противном случае очень хороший ответ)

Я не верю, что есть какой-то другой подход, который имеет все эти три свойства.

Вы можете сделать дозатор более эффективным, заменив фабрику IntFunction<C> и IntFunction<C> ее размер, но это работает только для некоторых видов коллекций.

Ответ 13

С Java 8 и com.google.common.collect.Lists вы можете сделать что-то вроде:

public class BatchProcessingUtil {
    public static <T,U> List<U> process(List<T> data, int batchSize, Function<List<T>, List<U>> processFunction) {
        List<List<T>> batches = Lists.partition(data, batchSize);
        return batches.stream()
                .map(processFunction) // Send each batch to the process function
                .flatMap(Collection::stream) // flat results to gather them in 1 stream
                .collect(Collectors.toList());
    }
}

Здесь T - тип элементов в списке ввода, а U - тип элементов в списке вывода.

И вы можете использовать это так:

List<String> userKeys = [... list of user keys]
List<Users> users = BatchProcessingUtil.process(
    userKeys,
    10, // Batch Size
    partialKeys -> service.getUsers(partialKeys)
);

Ответ 14

Вы можете использовать apache.commons:

ListUtils.partition(ListOfLines, 500).stream()
                .map(partition -> processBatch(partition)
                .collect(Collectors.toList());