diff --git a/datavec/datavec-api/src/main/java/org/datavec/api/formats/output/impl/CSVOutputFormat.java b/datavec/datavec-api/src/main/java/org/datavec/api/formats/output/impl/CSVOutputFormat.java
index 8f9420009..d8c06394e 100644
--- a/datavec/datavec-api/src/main/java/org/datavec/api/formats/output/impl/CSVOutputFormat.java
+++ b/datavec/datavec-api/src/main/java/org/datavec/api/formats/output/impl/CSVOutputFormat.java
@@ -23,9 +23,6 @@ import org.datavec.api.formats.output.OutputFormat;
import org.datavec.api.records.writer.RecordWriter;
import org.datavec.api.records.writer.impl.csv.CSVRecordWriter;
-import java.io.File;
-import java.io.FileNotFoundException;
-
/**
* Creates an @link{CSVRecordWriter}
*
diff --git a/datavec/datavec-api/src/main/java/org/datavec/api/formats/output/impl/LineOutputFormat.java b/datavec/datavec-api/src/main/java/org/datavec/api/formats/output/impl/LineOutputFormat.java
index 80c5956f7..c2d6dfa8e 100644
--- a/datavec/datavec-api/src/main/java/org/datavec/api/formats/output/impl/LineOutputFormat.java
+++ b/datavec/datavec-api/src/main/java/org/datavec/api/formats/output/impl/LineOutputFormat.java
@@ -23,9 +23,6 @@ import org.datavec.api.formats.output.OutputFormat;
import org.datavec.api.records.writer.RecordWriter;
import org.datavec.api.records.writer.impl.LineRecordWriter;
-import java.io.File;
-import java.io.FileNotFoundException;
-
/**
* Line output format
* @author Adam Gibson
diff --git a/datavec/datavec-api/src/main/java/org/datavec/api/formats/output/impl/SVMLightOutputFormat.java b/datavec/datavec-api/src/main/java/org/datavec/api/formats/output/impl/SVMLightOutputFormat.java
index 0691891a3..e737b72a0 100644
--- a/datavec/datavec-api/src/main/java/org/datavec/api/formats/output/impl/SVMLightOutputFormat.java
+++ b/datavec/datavec-api/src/main/java/org/datavec/api/formats/output/impl/SVMLightOutputFormat.java
@@ -24,8 +24,6 @@ import org.datavec.api.formats.output.OutputFormat;
import org.datavec.api.records.writer.RecordWriter;
import org.datavec.api.records.writer.impl.misc.SVMLightRecordWriter;
-import java.io.File;
-
/**
* Created by agibsonccc on 1/11/15.
*/
diff --git a/datavec/datavec-api/src/main/java/org/datavec/api/io/WritableUtils.java b/datavec/datavec-api/src/main/java/org/datavec/api/io/WritableUtils.java
index c39589cce..38cb222e5 100644
--- a/datavec/datavec-api/src/main/java/org/datavec/api/io/WritableUtils.java
+++ b/datavec/datavec-api/src/main/java/org/datavec/api/io/WritableUtils.java
@@ -22,6 +22,7 @@ import org.datavec.api.writable.Text;
import org.datavec.api.writable.Writable;
import java.io.*;
+import java.nio.charset.StandardCharsets;
import java.util.zip.GZIPInputStream;
import java.util.zip.GZIPOutputStream;
@@ -79,12 +80,12 @@ public final class WritableUtils {
byte[] bytes = readCompressedByteArray(in);
if (bytes == null)
return null;
- return new String(bytes, "UTF-8");
+ return new String(bytes, StandardCharsets.UTF_8);
}
public static int writeCompressedString(DataOutput out, String s) throws IOException {
- return writeCompressedByteArray(out, (s != null) ? s.getBytes("UTF-8") : null);
+ return writeCompressedByteArray(out, (s != null) ? s.getBytes(StandardCharsets.UTF_8) : null);
}
/*
@@ -96,7 +97,7 @@ public final class WritableUtils {
*/
public static void writeString(DataOutput out, String s) throws IOException {
if (s != null) {
- byte[] buffer = s.getBytes("UTF-8");
+ byte[] buffer = s.getBytes(StandardCharsets.UTF_8);
int len = buffer.length;
out.writeInt(len);
out.write(buffer, 0, len);
@@ -117,7 +118,7 @@ public final class WritableUtils {
return null;
byte[] buffer = new byte[length];
in.readFully(buffer); // could/should use readFully(buffer,0,length)?
- return new String(buffer, "UTF-8");
+ return new String(buffer, StandardCharsets.UTF_8);
}
diff --git a/datavec/datavec-api/src/main/java/org/datavec/api/io/labels/PathMultiLabelGenerator.java b/datavec/datavec-api/src/main/java/org/datavec/api/io/labels/PathMultiLabelGenerator.java
index 866793752..4b3bf41f3 100644
--- a/datavec/datavec-api/src/main/java/org/datavec/api/io/labels/PathMultiLabelGenerator.java
+++ b/datavec/datavec-api/src/main/java/org/datavec/api/io/labels/PathMultiLabelGenerator.java
@@ -19,7 +19,6 @@ package org.datavec.api.io.labels;
import org.datavec.api.writable.Writable;
import java.io.Serializable;
-import java.net.URI;
import java.util.List;
/**
diff --git a/datavec/datavec-api/src/main/java/org/datavec/api/records/reader/impl/ConcatenatingRecordReader.java b/datavec/datavec-api/src/main/java/org/datavec/api/records/reader/impl/ConcatenatingRecordReader.java
index 8de11d862..45a14d1f4 100644
--- a/datavec/datavec-api/src/main/java/org/datavec/api/records/reader/impl/ConcatenatingRecordReader.java
+++ b/datavec/datavec-api/src/main/java/org/datavec/api/records/reader/impl/ConcatenatingRecordReader.java
@@ -27,7 +27,6 @@ import org.datavec.api.writable.Writable;
import java.io.DataInputStream;
import java.io.IOException;
import java.net.URI;
-import java.util.ArrayList;
import java.util.List;
/**
diff --git a/datavec/datavec-api/src/main/java/org/datavec/api/records/reader/impl/jackson/JacksonLineRecordReader.java b/datavec/datavec-api/src/main/java/org/datavec/api/records/reader/impl/jackson/JacksonLineRecordReader.java
index 9afe953b7..4553b82e3 100644
--- a/datavec/datavec-api/src/main/java/org/datavec/api/records/reader/impl/jackson/JacksonLineRecordReader.java
+++ b/datavec/datavec-api/src/main/java/org/datavec/api/records/reader/impl/jackson/JacksonLineRecordReader.java
@@ -16,16 +16,11 @@
package org.datavec.api.records.reader.impl.jackson;
-import java.io.IOException;
-import java.util.ArrayList;
-import java.util.Arrays;
import java.util.List;
-import java.util.Map;
import org.datavec.api.records.reader.impl.LineRecordReader;
import org.datavec.api.writable.Text;
import org.datavec.api.writable.Writable;
-import org.nd4j.shade.jackson.core.type.TypeReference;
import org.nd4j.shade.jackson.databind.ObjectMapper;
/**
diff --git a/datavec/datavec-api/src/main/java/org/datavec/api/records/reader/impl/jackson/JacksonRecordReader.java b/datavec/datavec-api/src/main/java/org/datavec/api/records/reader/impl/jackson/JacksonRecordReader.java
index cdae52c4f..f2c281884 100644
--- a/datavec/datavec-api/src/main/java/org/datavec/api/records/reader/impl/jackson/JacksonRecordReader.java
+++ b/datavec/datavec-api/src/main/java/org/datavec/api/records/reader/impl/jackson/JacksonRecordReader.java
@@ -28,14 +28,12 @@ import org.datavec.api.records.metadata.RecordMetaDataURI;
import org.datavec.api.records.reader.BaseRecordReader;
import org.datavec.api.split.FileSplit;
import org.datavec.api.split.InputSplit;
-import org.datavec.api.writable.Text;
import org.datavec.api.writable.Writable;
import org.nd4j.shade.jackson.core.type.TypeReference;
import org.nd4j.shade.jackson.databind.ObjectMapper;
import java.io.*;
import java.net.URI;
-import java.nio.charset.Charset;
import java.nio.charset.StandardCharsets;
import java.util.*;
diff --git a/datavec/datavec-api/src/main/java/org/datavec/api/records/reader/impl/regex/RegexSequenceRecordReader.java b/datavec/datavec-api/src/main/java/org/datavec/api/records/reader/impl/regex/RegexSequenceRecordReader.java
index 8faa243c3..61552370b 100644
--- a/datavec/datavec-api/src/main/java/org/datavec/api/records/reader/impl/regex/RegexSequenceRecordReader.java
+++ b/datavec/datavec-api/src/main/java/org/datavec/api/records/reader/impl/regex/RegexSequenceRecordReader.java
@@ -34,6 +34,7 @@ import org.slf4j.LoggerFactory;
import java.io.*;
import java.net.URI;
import java.nio.charset.Charset;
+import java.nio.charset.StandardCharsets;
import java.util.ArrayList;
import java.util.Collections;
import java.util.List;
@@ -57,7 +58,7 @@ import java.util.regex.Pattern;
*/
public class RegexSequenceRecordReader extends FileRecordReader implements SequenceRecordReader {
public static final String SKIP_NUM_LINES = NAME_SPACE + ".skipnumlines";
- public static final Charset DEFAULT_CHARSET = Charset.forName("UTF-8");
+ public static final Charset DEFAULT_CHARSET = StandardCharsets.UTF_8;
public static final LineErrorHandling DEFAULT_ERROR_HANDLING = LineErrorHandling.FailOnInvalid;
/**Error handling mode: How should invalid lines (i.e., those that don't match the provided regex) be handled?
@@ -67,7 +68,7 @@ public class RegexSequenceRecordReader extends FileRecordReader implements Seque
*/
public enum LineErrorHandling {
FailOnInvalid, SkipInvalid, SkipInvalidWithWarning
- };
+ }
public static final Logger LOG = LoggerFactory.getLogger(RegexSequenceRecordReader.class);
diff --git a/datavec/datavec-api/src/main/java/org/datavec/api/records/reader/impl/transform/TransformProcessRecordReader.java b/datavec/datavec-api/src/main/java/org/datavec/api/records/reader/impl/transform/TransformProcessRecordReader.java
index 0a1eaec75..85c49bfe9 100644
--- a/datavec/datavec-api/src/main/java/org/datavec/api/records/reader/impl/transform/TransformProcessRecordReader.java
+++ b/datavec/datavec-api/src/main/java/org/datavec/api/records/reader/impl/transform/TransformProcessRecordReader.java
@@ -16,14 +16,12 @@
package org.datavec.api.records.reader.impl.transform;
-import lombok.AllArgsConstructor;
import org.datavec.api.conf.Configuration;
import org.datavec.api.records.Record;
import org.datavec.api.records.listener.RecordListener;
import org.datavec.api.records.metadata.RecordMetaData;
import org.datavec.api.records.reader.RecordReader;
import org.datavec.api.split.InputSplit;
-import org.datavec.api.transform.Transform;
import org.datavec.api.transform.TransformProcess;
import org.datavec.api.writable.Writable;
diff --git a/datavec/datavec-api/src/main/java/org/datavec/api/records/writer/impl/FileRecordWriter.java b/datavec/datavec-api/src/main/java/org/datavec/api/records/writer/impl/FileRecordWriter.java
index 08832ee7f..003db1c8d 100644
--- a/datavec/datavec-api/src/main/java/org/datavec/api/records/writer/impl/FileRecordWriter.java
+++ b/datavec/datavec-api/src/main/java/org/datavec/api/records/writer/impl/FileRecordWriter.java
@@ -25,6 +25,7 @@ import org.datavec.api.split.partition.Partitioner;
import java.io.DataOutputStream;
import java.io.IOException;
import java.nio.charset.Charset;
+import java.nio.charset.StandardCharsets;
/**
* Write to files.
@@ -38,7 +39,7 @@ import java.nio.charset.Charset;
*/
public abstract class FileRecordWriter implements RecordWriter {
- public static final Charset DEFAULT_CHARSET = Charset.forName("UTF-8");
+ public static final Charset DEFAULT_CHARSET = StandardCharsets.UTF_8;
protected DataOutputStream out;
public final static String NEW_LINE = "\n";
diff --git a/datavec/datavec-api/src/main/java/org/datavec/api/records/writer/impl/misc/LibSvmRecordWriter.java b/datavec/datavec-api/src/main/java/org/datavec/api/records/writer/impl/misc/LibSvmRecordWriter.java
index bbad28bbc..20d4204be 100644
--- a/datavec/datavec-api/src/main/java/org/datavec/api/records/writer/impl/misc/LibSvmRecordWriter.java
+++ b/datavec/datavec-api/src/main/java/org/datavec/api/records/writer/impl/misc/LibSvmRecordWriter.java
@@ -17,10 +17,6 @@
package org.datavec.api.records.writer.impl.misc;
import lombok.extern.slf4j.Slf4j;
-import org.datavec.api.conf.Configuration;
-
-import java.io.File;
-import java.io.FileNotFoundException;
/**
diff --git a/datavec/datavec-api/src/main/java/org/datavec/api/split/CollectionInputSplit.java b/datavec/datavec-api/src/main/java/org/datavec/api/split/CollectionInputSplit.java
index 0f2c7f3f8..2e669c0e2 100644
--- a/datavec/datavec-api/src/main/java/org/datavec/api/split/CollectionInputSplit.java
+++ b/datavec/datavec-api/src/main/java/org/datavec/api/split/CollectionInputSplit.java
@@ -21,7 +21,6 @@ import java.net.URI;
import java.util.ArrayList;
import java.util.Arrays;
import java.util.Collection;
-import java.util.LinkedList;
/**
* A simple InputSplit based on a collection of URIs
diff --git a/datavec/datavec-api/src/main/java/org/datavec/api/split/NumberedFileInputSplit.java b/datavec/datavec-api/src/main/java/org/datavec/api/split/NumberedFileInputSplit.java
index 5227a0cc3..cb0f6cab5 100644
--- a/datavec/datavec-api/src/main/java/org/datavec/api/split/NumberedFileInputSplit.java
+++ b/datavec/datavec-api/src/main/java/org/datavec/api/split/NumberedFileInputSplit.java
@@ -18,11 +18,9 @@ package org.datavec.api.split;
import lombok.extern.slf4j.Slf4j;
import org.datavec.api.util.files.UriFromPathIterator;
-import org.datavec.api.writable.WritableType;
import java.io.*;
import java.net.URI;
-import java.nio.file.Paths;
import java.util.Iterator;
import java.util.NoSuchElementException;
import java.util.regex.Matcher;
diff --git a/datavec/datavec-api/src/main/java/org/datavec/api/transform/analysis/DataAnalysis.java b/datavec/datavec-api/src/main/java/org/datavec/api/transform/analysis/DataAnalysis.java
index 467db70f0..1b9fe890d 100644
--- a/datavec/datavec-api/src/main/java/org/datavec/api/transform/analysis/DataAnalysis.java
+++ b/datavec/datavec-api/src/main/java/org/datavec/api/transform/analysis/DataAnalysis.java
@@ -26,7 +26,6 @@ import org.datavec.api.transform.schema.Schema;
import org.datavec.api.transform.serde.JsonMappers;
import org.datavec.api.transform.serde.JsonSerializer;
import org.datavec.api.transform.serde.YamlSerializer;
-import org.nd4j.shade.jackson.annotation.JsonSubTypes;
import org.nd4j.shade.jackson.annotation.JsonTypeInfo;
import org.nd4j.shade.jackson.databind.JsonNode;
import org.nd4j.shade.jackson.databind.ObjectMapper;
diff --git a/datavec/datavec-api/src/main/java/org/datavec/api/transform/analysis/counter/DoubleAnalysisCounter.java b/datavec/datavec-api/src/main/java/org/datavec/api/transform/analysis/counter/DoubleAnalysisCounter.java
index 396f42da0..9da317027 100644
--- a/datavec/datavec-api/src/main/java/org/datavec/api/transform/analysis/counter/DoubleAnalysisCounter.java
+++ b/datavec/datavec-api/src/main/java/org/datavec/api/transform/analysis/counter/DoubleAnalysisCounter.java
@@ -49,27 +49,27 @@ public class DoubleAnalysisCounter implements AnalysisCounter
*/
private TDigest digest = TDigest.createDigest(100);
- public LongAnalysisCounter() {};
+ public LongAnalysisCounter() {}
public long getMinValueSeen() {
return (long) counter.getMin();
- };
+ }
public long getMaxValueSeen() {
return (long) counter.getMax();
- };
+ }
public long getSum() {
return (long) counter.getSum();
- };
+ }
public long getCountTotal() {
return counter.getCount();
- };
+ }
public double getSampleStdev() {
return counter.getStddev(false);
@@ -100,7 +100,7 @@ public class LongAnalysisCounter implements AnalysisCounter
countPositive++;
} else {
countNegative++;
- } ;
+ }
digest.add((double) value);
counter.add((double) value);
diff --git a/datavec/datavec-api/src/main/java/org/datavec/api/transform/analysis/counter/StringAnalysisCounter.java b/datavec/datavec-api/src/main/java/org/datavec/api/transform/analysis/counter/StringAnalysisCounter.java
index e5d423955..7d6eabc66 100644
--- a/datavec/datavec-api/src/main/java/org/datavec/api/transform/analysis/counter/StringAnalysisCounter.java
+++ b/datavec/datavec-api/src/main/java/org/datavec/api/transform/analysis/counter/StringAnalysisCounter.java
@@ -35,27 +35,27 @@ public class StringAnalysisCounter implements AnalysisCounter ENCODER_FACTORY = new ThreadLocal() {
protected CharsetEncoder initialValue() {
- return Charset.forName("UTF-8").newEncoder().onMalformedInput(CodingErrorAction.REPORT)
+ return StandardCharsets.UTF_8.newEncoder().onMalformedInput(CodingErrorAction.REPORT)
.onUnmappableCharacter(CodingErrorAction.REPORT);
}
};
private static ThreadLocal DECODER_FACTORY = new ThreadLocal() {
protected CharsetDecoder initialValue() {
- return Charset.forName("UTF-8").newDecoder().onMalformedInput(CodingErrorAction.REPORT)
+ return StandardCharsets.UTF_8.newDecoder().onMalformedInput(CodingErrorAction.REPORT)
.onUnmappableCharacter(CodingErrorAction.REPORT);
}
};
diff --git a/datavec/datavec-api/src/main/java/org/datavec/api/writable/comparator/ReverseComparator.java b/datavec/datavec-api/src/main/java/org/datavec/api/writable/comparator/ReverseComparator.java
index 1f5ac6d09..0830e87d6 100644
--- a/datavec/datavec-api/src/main/java/org/datavec/api/writable/comparator/ReverseComparator.java
+++ b/datavec/datavec-api/src/main/java/org/datavec/api/writable/comparator/ReverseComparator.java
@@ -17,7 +17,6 @@
package org.datavec.api.writable.comparator;
import lombok.AllArgsConstructor;
-import org.datavec.api.writable.Writable;
import java.io.Serializable;
import java.util.Comparator;
diff --git a/datavec/datavec-api/src/test/java/org/datavec/api/records/writer/impl/SVMLightRecordWriterTest.java b/datavec/datavec-api/src/test/java/org/datavec/api/records/writer/impl/SVMLightRecordWriterTest.java
index b27af0cf1..a5ca0f0ba 100644
--- a/datavec/datavec-api/src/test/java/org/datavec/api/records/writer/impl/SVMLightRecordWriterTest.java
+++ b/datavec/datavec-api/src/test/java/org/datavec/api/records/writer/impl/SVMLightRecordWriterTest.java
@@ -23,7 +23,6 @@ import org.datavec.api.records.writer.impl.misc.SVMLightRecordWriter;
import org.datavec.api.split.FileSplit;
import org.datavec.api.split.partition.NumberOfRecordsPartitioner;
import org.datavec.api.writable.*;
-import org.datavec.api.writable.NDArrayWritable;
import org.junit.Test;
import org.nd4j.common.tests.BaseND4JTest;
import org.nd4j.linalg.api.ndarray.INDArray;
diff --git a/datavec/datavec-api/src/test/java/org/datavec/api/transform/ops/AggregableMultiOpTest.java b/datavec/datavec-api/src/test/java/org/datavec/api/transform/ops/AggregableMultiOpTest.java
index 92d7d8dbc..754228cc0 100644
--- a/datavec/datavec-api/src/test/java/org/datavec/api/transform/ops/AggregableMultiOpTest.java
+++ b/datavec/datavec-api/src/test/java/org/datavec/api/transform/ops/AggregableMultiOpTest.java
@@ -20,7 +20,6 @@ import org.datavec.api.writable.Writable;
import org.junit.Test;
import org.nd4j.common.tests.BaseND4JTest;
-import java.io.Serializable;
import java.util.*;
import static org.junit.Assert.assertTrue;
diff --git a/datavec/datavec-data/datavec-data-image/src/main/java/org/datavec/image/loader/BaseImageLoader.java b/datavec/datavec-data/datavec-data-image/src/main/java/org/datavec/image/loader/BaseImageLoader.java
index 0bfddeb32..95768d1b7 100644
--- a/datavec/datavec-data/datavec-data-image/src/main/java/org/datavec/image/loader/BaseImageLoader.java
+++ b/datavec/datavec-data/datavec-data-image/src/main/java/org/datavec/image/loader/BaseImageLoader.java
@@ -22,8 +22,6 @@ import org.datavec.image.data.Image;
import org.datavec.image.transform.ImageTransform;
import org.nd4j.linalg.api.ndarray.INDArray;
import org.nd4j.common.util.ArchiveUtils;
-import org.slf4j.Logger;
-import org.slf4j.LoggerFactory;
import java.io.File;
import java.io.IOException;
diff --git a/datavec/datavec-data/datavec-data-image/src/main/java/org/datavec/image/loader/CifarLoader.java b/datavec/datavec-data/datavec-data-image/src/main/java/org/datavec/image/loader/CifarLoader.java
index e513ebed3..3e2dd7f40 100644
--- a/datavec/datavec-data/datavec-data-image/src/main/java/org/datavec/image/loader/CifarLoader.java
+++ b/datavec/datavec-data/datavec-data-image/src/main/java/org/datavec/image/loader/CifarLoader.java
@@ -328,7 +328,7 @@ public class CifarLoader extends NativeImageLoader implements Serializable {
}
public Pair convertMat(byte[] byteFeature) {
- INDArray label = FeatureUtil.toOutcomeVector(byteFeature[0], NUM_LABELS);; // first value in the 3073 byte array
+ INDArray label = FeatureUtil.toOutcomeVector(byteFeature[0], NUM_LABELS);// first value in the 3073 byte array
Mat image = new Mat(HEIGHT, WIDTH, CV_8UC(CHANNELS)); // feature are 3072
ByteBuffer imageData = image.createBuffer();
diff --git a/datavec/datavec-data/datavec-data-image/src/main/java/org/datavec/image/transform/BoxImageTransform.java b/datavec/datavec-data/datavec-data-image/src/main/java/org/datavec/image/transform/BoxImageTransform.java
index d1a4c8d04..36340bb49 100644
--- a/datavec/datavec-data/datavec-data-image/src/main/java/org/datavec/image/transform/BoxImageTransform.java
+++ b/datavec/datavec-data/datavec-data-image/src/main/java/org/datavec/image/transform/BoxImageTransform.java
@@ -29,7 +29,6 @@ import org.nd4j.shade.jackson.annotation.JsonProperty;
import java.util.Random;
import org.bytedeco.opencv.opencv_core.*;
-import static org.bytedeco.opencv.global.opencv_core.*;
/**
* Boxes images to a given width and height without changing their aspect ratios,
diff --git a/datavec/datavec-data/datavec-data-image/src/main/java/org/datavec/image/transform/ColorConversionTransform.java b/datavec/datavec-data/datavec-data-image/src/main/java/org/datavec/image/transform/ColorConversionTransform.java
index 0c0d4a6c9..8b4836949 100644
--- a/datavec/datavec-data/datavec-data-image/src/main/java/org/datavec/image/transform/ColorConversionTransform.java
+++ b/datavec/datavec-data/datavec-data-image/src/main/java/org/datavec/image/transform/ColorConversionTransform.java
@@ -24,8 +24,7 @@ import org.nd4j.shade.jackson.annotation.JsonInclude;
import java.util.Random;
import org.bytedeco.opencv.opencv_core.*;
-import org.bytedeco.opencv.opencv_imgproc.*;
-import static org.bytedeco.opencv.global.opencv_core.*;
+
import static org.bytedeco.opencv.global.opencv_imgproc.*;
/**
diff --git a/datavec/datavec-data/datavec-data-image/src/main/java/org/datavec/image/transform/CropImageTransform.java b/datavec/datavec-data/datavec-data-image/src/main/java/org/datavec/image/transform/CropImageTransform.java
index 588f30376..bb333b810 100644
--- a/datavec/datavec-data/datavec-data-image/src/main/java/org/datavec/image/transform/CropImageTransform.java
+++ b/datavec/datavec-data/datavec-data-image/src/main/java/org/datavec/image/transform/CropImageTransform.java
@@ -25,7 +25,6 @@ import org.nd4j.shade.jackson.annotation.JsonProperty;
import java.util.Random;
import org.bytedeco.opencv.opencv_core.*;
-import static org.bytedeco.opencv.global.opencv_core.*;
/**
* Crops images deterministically or randomly.
diff --git a/datavec/datavec-data/datavec-data-image/src/main/java/org/datavec/image/transform/EqualizeHistTransform.java b/datavec/datavec-data/datavec-data-image/src/main/java/org/datavec/image/transform/EqualizeHistTransform.java
index 01cd9d03c..ce86dcb3b 100644
--- a/datavec/datavec-data/datavec-data-image/src/main/java/org/datavec/image/transform/EqualizeHistTransform.java
+++ b/datavec/datavec-data/datavec-data-image/src/main/java/org/datavec/image/transform/EqualizeHistTransform.java
@@ -25,7 +25,7 @@ import org.nd4j.shade.jackson.annotation.JsonInclude;
import java.util.Random;
import org.bytedeco.opencv.opencv_core.*;
-import org.bytedeco.opencv.opencv_imgproc.*;
+
import static org.bytedeco.opencv.global.opencv_core.*;
import static org.bytedeco.opencv.global.opencv_imgproc.*;
diff --git a/datavec/datavec-data/datavec-data-image/src/main/java/org/datavec/image/transform/LargestBlobCropTransform.java b/datavec/datavec-data/datavec-data-image/src/main/java/org/datavec/image/transform/LargestBlobCropTransform.java
index b86f86b72..48c0daae2 100644
--- a/datavec/datavec-data/datavec-data-image/src/main/java/org/datavec/image/transform/LargestBlobCropTransform.java
+++ b/datavec/datavec-data/datavec-data-image/src/main/java/org/datavec/image/transform/LargestBlobCropTransform.java
@@ -24,8 +24,7 @@ import org.nd4j.linalg.factory.Nd4j;
import java.util.Random;
import org.bytedeco.opencv.opencv_core.*;
-import org.bytedeco.opencv.opencv_imgproc.*;
-import static org.bytedeco.opencv.global.opencv_core.*;
+
import static org.bytedeco.opencv.global.opencv_imgproc.*;
/**
diff --git a/datavec/datavec-data/datavec-data-image/src/main/java/org/datavec/image/transform/MultiImageTransform.java b/datavec/datavec-data/datavec-data-image/src/main/java/org/datavec/image/transform/MultiImageTransform.java
index 31b599fe5..0311baab3 100644
--- a/datavec/datavec-data/datavec-data-image/src/main/java/org/datavec/image/transform/MultiImageTransform.java
+++ b/datavec/datavec-data/datavec-data-image/src/main/java/org/datavec/image/transform/MultiImageTransform.java
@@ -22,7 +22,6 @@ import org.datavec.image.data.ImageWritable;
import java.util.Random;
import org.bytedeco.opencv.opencv_core.*;
-import static org.bytedeco.opencv.global.opencv_core.*;
/**
* Transforms images deterministically or randomly with the help of an array of ImageTransform
diff --git a/datavec/datavec-data/datavec-data-image/src/main/java/org/datavec/image/transform/RandomCropTransform.java b/datavec/datavec-data/datavec-data-image/src/main/java/org/datavec/image/transform/RandomCropTransform.java
index 45d9de1ca..648d05efb 100644
--- a/datavec/datavec-data/datavec-data-image/src/main/java/org/datavec/image/transform/RandomCropTransform.java
+++ b/datavec/datavec-data/datavec-data-image/src/main/java/org/datavec/image/transform/RandomCropTransform.java
@@ -27,7 +27,6 @@ import org.nd4j.shade.jackson.annotation.JsonProperty;
import java.util.Random;
import org.bytedeco.opencv.opencv_core.*;
-import static org.bytedeco.opencv.global.opencv_core.*;
/**
* Randomly crops an image to a desired output size. Will determine if
diff --git a/datavec/datavec-data/datavec-data-image/src/main/java/org/datavec/image/transform/ResizeImageTransform.java b/datavec/datavec-data/datavec-data-image/src/main/java/org/datavec/image/transform/ResizeImageTransform.java
index 0db0a1401..7c3d7816e 100644
--- a/datavec/datavec-data/datavec-data-image/src/main/java/org/datavec/image/transform/ResizeImageTransform.java
+++ b/datavec/datavec-data/datavec-data-image/src/main/java/org/datavec/image/transform/ResizeImageTransform.java
@@ -25,8 +25,7 @@ import org.nd4j.shade.jackson.annotation.JsonProperty;
import java.util.Random;
import org.bytedeco.opencv.opencv_core.*;
-import org.bytedeco.opencv.opencv_imgproc.*;
-import static org.bytedeco.opencv.global.opencv_core.*;
+
import static org.bytedeco.opencv.global.opencv_imgproc.*;
/**
diff --git a/datavec/datavec-data/datavec-data-image/src/main/java/org/datavec/image/transform/RotateImageTransform.java b/datavec/datavec-data/datavec-data-image/src/main/java/org/datavec/image/transform/RotateImageTransform.java
index 617ef25c4..d9f47bd4c 100644
--- a/datavec/datavec-data/datavec-data-image/src/main/java/org/datavec/image/transform/RotateImageTransform.java
+++ b/datavec/datavec-data/datavec-data-image/src/main/java/org/datavec/image/transform/RotateImageTransform.java
@@ -31,7 +31,7 @@ import java.nio.FloatBuffer;
import java.util.Random;
import org.bytedeco.opencv.opencv_core.*;
-import org.bytedeco.opencv.opencv_imgproc.*;
+
import static org.bytedeco.opencv.global.opencv_core.*;
import static org.bytedeco.opencv.global.opencv_imgproc.*;
diff --git a/datavec/datavec-data/datavec-data-image/src/main/java/org/datavec/image/transform/ScaleImageTransform.java b/datavec/datavec-data/datavec-data-image/src/main/java/org/datavec/image/transform/ScaleImageTransform.java
index 0d8ff7160..a034106a1 100644
--- a/datavec/datavec-data/datavec-data-image/src/main/java/org/datavec/image/transform/ScaleImageTransform.java
+++ b/datavec/datavec-data/datavec-data-image/src/main/java/org/datavec/image/transform/ScaleImageTransform.java
@@ -25,8 +25,7 @@ import org.nd4j.shade.jackson.annotation.JsonProperty;
import java.util.Random;
import org.bytedeco.opencv.opencv_core.*;
-import org.bytedeco.opencv.opencv_imgproc.*;
-import static org.bytedeco.opencv.global.opencv_core.*;
+
import static org.bytedeco.opencv.global.opencv_imgproc.*;
/**
diff --git a/datavec/datavec-data/datavec-data-image/src/main/java/org/datavec/image/transform/WarpImageTransform.java b/datavec/datavec-data/datavec-data-image/src/main/java/org/datavec/image/transform/WarpImageTransform.java
index 1be066527..f6c1d9baa 100644
--- a/datavec/datavec-data/datavec-data-image/src/main/java/org/datavec/image/transform/WarpImageTransform.java
+++ b/datavec/datavec-data/datavec-data-image/src/main/java/org/datavec/image/transform/WarpImageTransform.java
@@ -31,7 +31,7 @@ import java.nio.FloatBuffer;
import java.util.Random;
import org.bytedeco.opencv.opencv_core.*;
-import org.bytedeco.opencv.opencv_imgproc.*;
+
import static org.bytedeco.opencv.global.opencv_core.*;
import static org.bytedeco.opencv.global.opencv_imgproc.*;
diff --git a/datavec/datavec-data/datavec-data-image/src/test/java/org/datavec/image/loader/LoaderTests.java b/datavec/datavec-data/datavec-data-image/src/test/java/org/datavec/image/loader/LoaderTests.java
index 7afdb7ac0..a6063666d 100644
--- a/datavec/datavec-data/datavec-data-image/src/test/java/org/datavec/image/loader/LoaderTests.java
+++ b/datavec/datavec-data/datavec-data-image/src/test/java/org/datavec/image/loader/LoaderTests.java
@@ -16,13 +16,8 @@
package org.datavec.image.loader;
-import org.apache.commons.io.FileUtils;
import org.apache.commons.io.FilenameUtils;
-import org.datavec.api.io.filters.BalancedPathFilter;
import org.datavec.api.records.reader.RecordReader;
-import org.datavec.api.split.FileSplit;
-import org.datavec.api.split.InputSplit;
-import org.datavec.image.recordreader.ImageRecordReader;
import org.junit.Ignore;
import org.junit.Test;
import org.nd4j.linalg.dataset.DataSet;
@@ -30,9 +25,6 @@ import org.nd4j.linalg.dataset.DataSet;
import java.io.File;
import java.io.FileInputStream;
import java.io.InputStream;
-import java.io.SequenceInputStream;
-import java.util.Collection;
-import java.util.Iterator;
import java.util.List;
import java.util.Random;
diff --git a/datavec/datavec-data/datavec-data-image/src/test/java/org/datavec/image/recordreader/TestImageRecordReader.java b/datavec/datavec-data/datavec-data-image/src/test/java/org/datavec/image/recordreader/TestImageRecordReader.java
index 26cd83f06..590f6fc72 100644
--- a/datavec/datavec-data/datavec-data-image/src/test/java/org/datavec/image/recordreader/TestImageRecordReader.java
+++ b/datavec/datavec-data/datavec-data-image/src/test/java/org/datavec/image/recordreader/TestImageRecordReader.java
@@ -35,7 +35,6 @@ import org.datavec.api.writable.batch.NDArrayRecordBatch;
import org.junit.Rule;
import org.junit.Test;
import org.junit.rules.TemporaryFolder;
-import org.nd4j.common.resources.Resources;
import org.nd4j.linalg.api.buffer.DataType;
import org.nd4j.linalg.api.ndarray.INDArray;
import org.nd4j.linalg.factory.Nd4j;
diff --git a/datavec/datavec-data/datavec-data-nlp/src/main/java/org/datavec/nlp/tokenization/tokenizerfactory/TokenizerFactory.java b/datavec/datavec-data/datavec-data-nlp/src/main/java/org/datavec/nlp/tokenization/tokenizerfactory/TokenizerFactory.java
index 6a123895b..610f0c759 100644
--- a/datavec/datavec-data/datavec-data-nlp/src/main/java/org/datavec/nlp/tokenization/tokenizerfactory/TokenizerFactory.java
+++ b/datavec/datavec-data/datavec-data-nlp/src/main/java/org/datavec/nlp/tokenization/tokenizerfactory/TokenizerFactory.java
@@ -20,7 +20,6 @@ package org.datavec.nlp.tokenization.tokenizerfactory;
import org.datavec.nlp.tokenization.tokenizer.TokenPreProcess;
import org.datavec.nlp.tokenization.tokenizer.Tokenizer;
-import org.nd4j.shade.jackson.annotation.JsonSubTypes;
import org.nd4j.shade.jackson.annotation.JsonTypeInfo;
import java.io.InputStream;
diff --git a/datavec/datavec-data/datavec-geo/src/test/java/org/datavec/api/transform/transform/TestGeoTransforms.java b/datavec/datavec-data/datavec-geo/src/test/java/org/datavec/api/transform/transform/TestGeoTransforms.java
index aa3e93494..ea52d9979 100644
--- a/datavec/datavec-data/datavec-geo/src/test/java/org/datavec/api/transform/transform/TestGeoTransforms.java
+++ b/datavec/datavec-data/datavec-geo/src/test/java/org/datavec/api/transform/transform/TestGeoTransforms.java
@@ -27,7 +27,6 @@ import org.datavec.api.writable.DoubleWritable;
import org.datavec.api.writable.Text;
import org.datavec.api.writable.Writable;
import org.junit.AfterClass;
-import org.junit.Before;
import org.junit.BeforeClass;
import org.junit.Test;
import org.nd4j.common.io.ClassPathResource;
diff --git a/datavec/datavec-excel/src/main/java/org/datavec/poi/excel/ExcelRecordReader.java b/datavec/datavec-excel/src/main/java/org/datavec/poi/excel/ExcelRecordReader.java
index 13184a9b1..bbb4c3240 100644
--- a/datavec/datavec-excel/src/main/java/org/datavec/poi/excel/ExcelRecordReader.java
+++ b/datavec/datavec-excel/src/main/java/org/datavec/poi/excel/ExcelRecordReader.java
@@ -20,8 +20,6 @@ import org.apache.poi.ss.usermodel.*;
import org.datavec.api.conf.Configuration;
import org.datavec.api.records.Record;
import org.datavec.api.records.metadata.RecordMetaDataIndex;
-import org.datavec.api.records.metadata.RecordMetaDataLine;
-import org.datavec.api.records.metadata.RecordMetaDataURI;
import org.datavec.api.records.reader.impl.FileRecordReader;
import org.datavec.api.split.InputSplit;
import org.datavec.api.writable.BooleanWritable;
@@ -29,7 +27,6 @@ import org.datavec.api.writable.DoubleWritable;
import org.datavec.api.writable.Text;
import org.datavec.api.writable.Writable;
-import java.io.File;
import java.io.IOException;
import java.io.InputStream;
import java.util.ArrayList;
diff --git a/datavec/datavec-local/src/main/java/org/datavec/local/transforms/AnalyzeLocal.java b/datavec/datavec-local/src/main/java/org/datavec/local/transforms/AnalyzeLocal.java
index 373289795..2234c83f3 100644
--- a/datavec/datavec-local/src/main/java/org/datavec/local/transforms/AnalyzeLocal.java
+++ b/datavec/datavec-local/src/main/java/org/datavec/local/transforms/AnalyzeLocal.java
@@ -25,7 +25,6 @@ import org.datavec.api.transform.analysis.DataVecAnalysisUtils;
import org.datavec.api.transform.analysis.columns.ColumnAnalysis;
import org.datavec.api.transform.analysis.histogram.HistogramCounter;
import org.datavec.api.transform.analysis.quality.QualityAnalysisAddFunction;
-import org.datavec.api.transform.analysis.quality.QualityAnalysisCombineFunction;
import org.datavec.api.transform.analysis.quality.QualityAnalysisState;
import org.datavec.api.transform.quality.DataQualityAnalysis;
import org.datavec.api.transform.quality.columns.ColumnQuality;
diff --git a/datavec/datavec-local/src/main/java/org/datavec/local/transforms/BaseFlatMapFunctionAdaptee.java b/datavec/datavec-local/src/main/java/org/datavec/local/transforms/BaseFlatMapFunctionAdaptee.java
index 7cdfded0d..469d11a5a 100644
--- a/datavec/datavec-local/src/main/java/org/datavec/local/transforms/BaseFlatMapFunctionAdaptee.java
+++ b/datavec/datavec-local/src/main/java/org/datavec/local/transforms/BaseFlatMapFunctionAdaptee.java
@@ -18,7 +18,6 @@ package org.datavec.local.transforms;
import org.datavec.local.transforms.functions.FlatMapFunctionAdapter;
-import org.nd4j.linalg.exception.ND4JIllegalStateException;
import java.util.List;
diff --git a/datavec/datavec-local/src/main/java/org/datavec/local/transforms/LocalTransformProcessRecordReader.java b/datavec/datavec-local/src/main/java/org/datavec/local/transforms/LocalTransformProcessRecordReader.java
index 551a6c480..a702a34d7 100644
--- a/datavec/datavec-local/src/main/java/org/datavec/local/transforms/LocalTransformProcessRecordReader.java
+++ b/datavec/datavec-local/src/main/java/org/datavec/local/transforms/LocalTransformProcessRecordReader.java
@@ -19,11 +19,6 @@ package org.datavec.local.transforms;
import org.datavec.api.records.reader.RecordReader;
import org.datavec.api.records.reader.impl.transform.TransformProcessRecordReader;
import org.datavec.api.transform.TransformProcess;
-import org.datavec.api.writable.Writable;
-
-import java.util.Arrays;
-import java.util.Collections;
-import java.util.List;
/**
* A wrapper around the {@link TransformProcessRecordReader}
diff --git a/datavec/datavec-python/src/main/java/org/datavec/python/PythonGIL.java b/datavec/datavec-python/src/main/java/org/datavec/python/PythonGIL.java
index d8afa2836..564fccdfe 100644
--- a/datavec/datavec-python/src/main/java/org/datavec/python/PythonGIL.java
+++ b/datavec/datavec-python/src/main/java/org/datavec/python/PythonGIL.java
@@ -21,8 +21,6 @@ import lombok.extern.slf4j.Slf4j;
import org.bytedeco.cpython.PyThreadState;
import static org.bytedeco.cpython.global.python.*;
-import static org.bytedeco.cpython.global.python.PyEval_RestoreThread;
-import static org.bytedeco.cpython.global.python.PyEval_SaveThread;
@Slf4j
diff --git a/datavec/datavec-python/src/main/java/org/datavec/python/PythonJob.java b/datavec/datavec-python/src/main/java/org/datavec/python/PythonJob.java
index c50c9bb9e..9e23e9506 100644
--- a/datavec/datavec-python/src/main/java/org/datavec/python/PythonJob.java
+++ b/datavec/datavec-python/src/main/java/org/datavec/python/PythonJob.java
@@ -22,8 +22,6 @@ import lombok.Data;
import lombok.NoArgsConstructor;
import javax.annotation.Nonnull;
-import java.util.HashMap;
-import java.util.Map;
@Data
diff --git a/datavec/datavec-python/src/main/java/org/datavec/python/PythonTransform.java b/datavec/datavec-python/src/main/java/org/datavec/python/PythonTransform.java
index a4b119b4c..d02de4411 100644
--- a/datavec/datavec-python/src/main/java/org/datavec/python/PythonTransform.java
+++ b/datavec/datavec-python/src/main/java/org/datavec/python/PythonTransform.java
@@ -26,7 +26,6 @@ import org.nd4j.common.base.Preconditions;
import org.nd4j.common.holder.ObjectMapperHolder;
import org.nd4j.linalg.api.ndarray.INDArray;
import org.nd4j.shade.jackson.core.JsonProcessingException;
-import org.nd4j.shade.jackson.annotation.JsonIgnoreProperties;
import java.util.ArrayList;
import java.util.List;
diff --git a/datavec/datavec-python/src/main/java/org/datavec/python/PythonVariables.java b/datavec/datavec-python/src/main/java/org/datavec/python/PythonVariables.java
index ade9bdfa0..cd058bc1a 100644
--- a/datavec/datavec-python/src/main/java/org/datavec/python/PythonVariables.java
+++ b/datavec/datavec-python/src/main/java/org/datavec/python/PythonVariables.java
@@ -16,16 +16,9 @@
package org.datavec.python;
-import lombok.Data;
import org.bytedeco.javacpp.BytePointer;
-import org.bytedeco.javacpp.Pointer;
-import org.json.JSONObject;
-import org.json.JSONArray;
import org.nd4j.linalg.api.ndarray.INDArray;
-import org.nd4j.nativeblas.NativeOpsHolder;
-import java.io.Serializable;
-import java.nio.ByteBuffer;
import java.util.*;
diff --git a/datavec/datavec-python/src/test/java/org/datavec/python/TestPythonDict.java b/datavec/datavec-python/src/test/java/org/datavec/python/TestPythonDict.java
index bc06269f1..270228946 100644
--- a/datavec/datavec-python/src/test/java/org/datavec/python/TestPythonDict.java
+++ b/datavec/datavec-python/src/test/java/org/datavec/python/TestPythonDict.java
@@ -18,18 +18,13 @@
package org.datavec.python;
-import lombok.var;
-import org.json.JSONArray;
import org.junit.Test;
-import org.nd4j.linalg.api.ndarray.INDArray;
import org.nd4j.linalg.factory.Nd4j;
-import java.util.ArrayList;
import java.util.Arrays;
import java.util.HashMap;
import java.util.Map;
-import static org.junit.Assert.assertArrayEquals;
import static org.junit.Assert.assertEquals;
@javax.annotation.concurrent.NotThreadSafe
diff --git a/datavec/datavec-python/src/test/java/org/datavec/python/TestPythonJob.java b/datavec/datavec-python/src/test/java/org/datavec/python/TestPythonJob.java
index bb79d2837..1a39f8d07 100644
--- a/datavec/datavec-python/src/test/java/org/datavec/python/TestPythonJob.java
+++ b/datavec/datavec-python/src/test/java/org/datavec/python/TestPythonJob.java
@@ -15,10 +15,7 @@
******************************************************************************/
package org.datavec.python;
-import org.junit.Assert;
import org.junit.Test;
-import org.nd4j.linalg.api.buffer.DataType;
-import org.nd4j.linalg.api.ndarray.INDArray;
import org.nd4j.linalg.factory.Nd4j;
import static org.junit.Assert.assertEquals;
diff --git a/datavec/datavec-python/src/test/java/org/datavec/python/TestPythonList.java b/datavec/datavec-python/src/test/java/org/datavec/python/TestPythonList.java
index 7362a5e49..e1c0e1bad 100644
--- a/datavec/datavec-python/src/test/java/org/datavec/python/TestPythonList.java
+++ b/datavec/datavec-python/src/test/java/org/datavec/python/TestPythonList.java
@@ -18,15 +18,11 @@
package org.datavec.python;
-import lombok.var;
-import org.json.JSONArray;
import org.junit.Test;
-import org.nd4j.linalg.api.ndarray.INDArray;
import org.nd4j.linalg.factory.Nd4j;
import java.util.*;
-import static org.junit.Assert.assertArrayEquals;
import static org.junit.Assert.assertEquals;
@javax.annotation.concurrent.NotThreadSafe
diff --git a/datavec/datavec-spark/src/main/java/org/datavec/spark/functions/pairdata/BytesPairWritable.java b/datavec/datavec-spark/src/main/java/org/datavec/spark/functions/pairdata/BytesPairWritable.java
index 5f2a43b53..776009b36 100644
--- a/datavec/datavec-spark/src/main/java/org/datavec/spark/functions/pairdata/BytesPairWritable.java
+++ b/datavec/datavec-spark/src/main/java/org/datavec/spark/functions/pairdata/BytesPairWritable.java
@@ -21,6 +21,7 @@ import java.io.DataOutput;
import java.io.IOException;
import java.io.Serializable;
import java.nio.charset.Charset;
+import java.nio.charset.StandardCharsets;
/**A Hadoop writable class for a pair of byte arrays, plus the original URIs (as Strings) of the files they came from
* @author Alex Black
@@ -44,8 +45,8 @@ public class BytesPairWritable implements Serializable, org.apache.hadoop.io.Wri
public void write(DataOutput dataOutput) throws IOException {
int length1 = (first != null ? first.length : 0);
int length2 = (second != null ? second.length : 0);
- byte[] s1Bytes = (uriFirst != null ? uriFirst.getBytes(Charset.forName("UTF-8")) : null);
- byte[] s2Bytes = (uriSecond != null ? uriSecond.getBytes(Charset.forName("UTF-8")) : null);
+ byte[] s1Bytes = (uriFirst != null ? uriFirst.getBytes(StandardCharsets.UTF_8) : null);
+ byte[] s2Bytes = (uriSecond != null ? uriSecond.getBytes(StandardCharsets.UTF_8) : null);
int s1Len = (s1Bytes != null ? s1Bytes.length : 0);
int s2Len = (s2Bytes != null ? s2Bytes.length : 0);
dataOutput.writeInt(length1);
@@ -79,12 +80,12 @@ public class BytesPairWritable implements Serializable, org.apache.hadoop.io.Wri
if (s1Len > 0) {
byte[] s1Bytes = new byte[s1Len];
dataInput.readFully(s1Bytes);
- uriFirst = new String(s1Bytes, Charset.forName("UTF-8"));
+ uriFirst = new String(s1Bytes, StandardCharsets.UTF_8);
}
if (s2Len > 0) {
byte[] s2Bytes = new byte[s2Len];
dataInput.readFully(s2Bytes);
- uriSecond = new String(s2Bytes, Charset.forName("UTF-8"));
+ uriSecond = new String(s2Bytes, StandardCharsets.UTF_8);
}
}
diff --git a/datavec/datavec-spark/src/main/java/org/datavec/spark/transform/join/ExtractKeysFunction.java b/datavec/datavec-spark/src/main/java/org/datavec/spark/transform/join/ExtractKeysFunction.java
index d1fe30a23..29b3c897d 100644
--- a/datavec/datavec-spark/src/main/java/org/datavec/spark/transform/join/ExtractKeysFunction.java
+++ b/datavec/datavec-spark/src/main/java/org/datavec/spark/transform/join/ExtractKeysFunction.java
@@ -18,7 +18,6 @@ package org.datavec.spark.transform.join;
import lombok.AllArgsConstructor;
import org.apache.spark.api.java.function.PairFunction;
-import org.datavec.api.transform.schema.Schema;
import org.datavec.api.writable.Writable;
import scala.Tuple2;
diff --git a/datavec/datavec-spark/src/main/java/org/datavec/spark/transform/utils/SparkUtils.java b/datavec/datavec-spark/src/main/java/org/datavec/spark/transform/utils/SparkUtils.java
index 2a97b85d3..f8a640b22 100644
--- a/datavec/datavec-spark/src/main/java/org/datavec/spark/transform/utils/SparkUtils.java
+++ b/datavec/datavec-spark/src/main/java/org/datavec/spark/transform/utils/SparkUtils.java
@@ -33,6 +33,7 @@ import org.datavec.api.transform.ui.HtmlAnalysis;
import org.datavec.api.writable.*;
import java.io.*;
+import java.nio.charset.StandardCharsets;
import java.util.ArrayList;
import java.util.Arrays;
import java.util.Collections;
@@ -96,7 +97,7 @@ public class SparkUtils {
public static void writeStringToFile(String path, String toWrite, Configuration hadoopConfig) throws IOException {
FileSystem fileSystem = FileSystem.get(hadoopConfig);
try (BufferedOutputStream bos = new BufferedOutputStream(fileSystem.create(new Path(path)))) {
- bos.write(toWrite.getBytes("UTF-8"));
+ bos.write(toWrite.getBytes(StandardCharsets.UTF_8));
}
}
@@ -130,7 +131,7 @@ public class SparkUtils {
FileSystem fileSystem = FileSystem.get(hadoopConfig);
try (BufferedInputStream bis = new BufferedInputStream(fileSystem.open(new Path(path)))) {
byte[] asBytes = IOUtils.toByteArray(bis);
- return new String(asBytes, "UTF-8");
+ return new String(asBytes, StandardCharsets.UTF_8);
}
}
diff --git a/datavec/datavec-spark/src/test/java/org/datavec/spark/functions/TestWritablesToNDArrayFunction.java b/datavec/datavec-spark/src/test/java/org/datavec/spark/functions/TestWritablesToNDArrayFunction.java
index 7f6115003..8e68e9c8f 100644
--- a/datavec/datavec-spark/src/test/java/org/datavec/spark/functions/TestWritablesToNDArrayFunction.java
+++ b/datavec/datavec-spark/src/test/java/org/datavec/spark/functions/TestWritablesToNDArrayFunction.java
@@ -17,7 +17,6 @@
package org.datavec.spark.functions;
import org.datavec.api.writable.*;
-import org.datavec.spark.transform.misc.SequenceWritablesToStringFunction;
import org.datavec.spark.transform.misc.WritablesToNDArrayFunction;
import org.junit.Test;
import org.nd4j.linalg.api.buffer.DataType;
@@ -25,7 +24,6 @@ import org.nd4j.linalg.api.ndarray.INDArray;
import org.nd4j.linalg.factory.Nd4j;
import java.util.ArrayList;
-import java.util.Arrays;
import java.util.List;
import static org.junit.Assert.assertEquals;
diff --git a/datavec/datavec-spark/src/test/java/org/datavec/spark/functions/TestWritablesToStringFunctions.java b/datavec/datavec-spark/src/test/java/org/datavec/spark/functions/TestWritablesToStringFunctions.java
index 97c3363cc..8a4086596 100644
--- a/datavec/datavec-spark/src/test/java/org/datavec/spark/functions/TestWritablesToStringFunctions.java
+++ b/datavec/datavec-spark/src/test/java/org/datavec/spark/functions/TestWritablesToStringFunctions.java
@@ -17,7 +17,6 @@
package org.datavec.spark.functions;
import org.apache.spark.api.java.JavaPairRDD;
-import org.apache.spark.api.java.JavaRDD;
import org.apache.spark.api.java.JavaSparkContext;
import org.apache.spark.api.java.function.PairFunction;
import org.datavec.api.writable.DoubleWritable;