java.util.stream.Stream 接口中的常用方法


流模型的操作很豐富,下面介紹一些常用的API。這些方法可以被分成兩種:

  1. 延遲方法

    返回值類型仍然是 Stream 接口自身類型的方法,因此支持鏈式調用。(除了終結方法外,其余方 法均為延遲方法。)

  2. 終結方法

    返回值類型不再是 Stream 接口自身類型的方法,因此不再支持類似 StringBuilder 那樣的鏈式調 用。在這里介紹的終結方法包括 count 和 forEach 方法。

逐一處理:forEach

雖然方法名字叫 forEach ,但是與for循環中的“for-each”昵稱不同。

void forEach(Consumer<? super T> action);

該方法接收一個 Consumer 接口函數,會將每一個流元素交給該函數進行處理。

java.util.function.Consumer<T>接口是一個消費型接口。
Consumer接口中包含抽象方法void accept(T t),意為消費一個指定泛型的數據。

基本使用:

import java.util.stream.Stream;

public class Demo06ForEach {

    public static void main(String[] args) {
        Stream<String> stream = Stream.of("Java", "C", "Python", "Hadoop", "Spark");
        stream.forEach(name-> System.out.println(name));
    }

}

這里調用的of()方法,方法簽名:

@SafeVarargs
public static<T> Stream<T> of(T... values) {
    return Arrays.stream(values);
}

過濾:filter

可以通過 filter 方法將一個流轉換成另一個子集流。方法簽名:

Stream<T> filter(Predicate<? super T> predicate);

該接口接收一個 Predicate 函數式接口參數(可以是一個Lambda或方法引用)作為篩選條件。

java.util.stream.Predicate 接口是一個函數式接口,其中唯一的抽象方法為:

boolean test(T t);

該方法將會產生一個boolean值結果,代表指定的條件是否滿足。如果結果為true,那么Stream流的 filter 方法將會留用元素;如果結果為false,那么 filter 方法將會舍棄元素。

基本使用

Stream流中的 filter 方法基本使用的代碼如:

import java.util.stream.Stream;

public class Demo07StreamFilter {
    public static void main(String[] args) {
        Stream<String> original = Stream.of("Java", "C", "Python", "Hadoop", "Spark");
        Stream<String> result = original.filter(s -> s.length() >= 5);
        result.forEach(System.out::println);
    }
}

運行程序,控制台輸出:

Python
Hadoop
Spark

這個例子中,通過Lambda表達式來指定了篩選的條件:字符串的長度要大於等於5。

映射:map

如果需要將流中的元素映射到另一個流中,可以使用 map 方法。方法簽名:

<R> Stream<R> map(Function<? super T, ? extends R> mapper);

該接口需要一個 Function 函數式接口參數,可以將當前流中的T類型數據轉換為另一種R類型的流。

java.util.stream.Function 接口是一個函數式接口,其中唯一的抽象方法為:

R apply(T t);

這可以將一種T類型轉換成為R類型,而這種轉換的動作,就稱為“映射”。

基本使用

Stream流中的 map 方法基本使用的代碼如:

import java.util.stream.Stream;

public class Demo08StreamMap {
    public static void main(String[] args) {
        Stream<String> original = Stream.of("100", "200", "300");
        Stream<Integer> result = original.map(str -> Integer.parseInt(str));
        result.forEach(System.out::println);
    }
}

運行程序,控制台輸出:

100
200
300

這段代碼中, map 方法的參數通過方法引用,將字符串類型轉換成為了int類型(並自動裝箱為 Integer 類對象)。然后調用Stream接口中的forEach方法,逐一輸出結果。

統計個數:count

正如舊集合 Collection 當中的 size 方法一樣,流提供 count 方法來數一數其中的元素個數:

long count();

該方法返回一個long值代表元素個數(不再像舊集合那樣是int值)。

基本使用

import java.util.stream.Stream;

public class Demo09StreamCount {
    public static void main(String[] args) {
        Stream<String> original = Stream.of("Java", "C", "Python", "Hadoop", "Spark");
        Stream<String> result = original.filter(s -> s.length() >= 5);
        System.out.println(result.count());
    }
}

運行程序,控制台輸出:

3

取用前幾個:limit

limit 方法可以對流進行截取,只取用前n個。方法簽名:

Stream<T> limit(long maxSize);

參數是一個long型,如果集合當前長度大於參數則進行截取;否則不進行操作。

基本使用

import java.util.stream.Stream;

public class Demo10StreamLimit {
    public static void main(String[] args) {
        Stream<String> original = Stream.of("Java", "C", "Python", "Hadoop", "Spark");
        Stream<String> result = original.limit(3);
        result.forEach(System.out::println);
    }
}

運行程序,控制台輸出:

Java
C
Python

跳過前幾個:skip

如果希望跳過前幾個元素,可以使用 skip 方法獲取一個截取之后的新流:

Stream<T> skip(long n);

如果流的當前長度大於n,則跳過前n個;否則將會得到一個長度為0的空流。

基本使用

import java.util.stream.Stream;

public class Demo11StreamSkip {
    public static void main(String[] args) {
        Stream<String> original = Stream.of("Java", "C", "Python", "Hadoop", "Spark");
        Stream<String> result = original.skip(3);
        result.forEach(System.out::println);
    }
}

運行程序,控制台輸出:

Hadoop
Spark

組合:concat

如果有兩個流,希望合並成為一個流,那么可以使用 Stream 接口的靜態方法 concat:

static <T> Stream<T> concat(Stream<? extends T> a, Stream<? extends T> b)
備注:這是一個靜態方法,與 java.lang.String 當中的 concat 方法是不同的。

基本使用

import java.util.stream.Stream;

public class Demo12StreamConcat {
    public static void main(String[] args) {
        Stream<String> original1 = Stream.of("Java", "C", "Python");
        Stream<String> original2 = Stream.of("Hadoop", "Spark");
        Stream<String> result = Stream.concat(original1, original2);
        result.forEach(System.out::println);
    }
}

運行程序,控制台輸出:

Java
C
Python
Hadoop
Spark

Stream 接口中的常用方法就介紹到這里,為了加深理解,可以看一下使用Stream方式完成的簡單練習


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM