diff --git a/datavec/datavec-api/src/main/java/org/datavec/api/formats/output/impl/CSVOutputFormat.java b/datavec/datavec-api/src/main/java/org/datavec/api/formats/output/impl/CSVOutputFormat.java index 8f9420009..d8c06394e 100644 --- a/datavec/datavec-api/src/main/java/org/datavec/api/formats/output/impl/CSVOutputFormat.java +++ b/datavec/datavec-api/src/main/java/org/datavec/api/formats/output/impl/CSVOutputFormat.java @@ -23,9 +23,6 @@ import org.datavec.api.formats.output.OutputFormat; import org.datavec.api.records.writer.RecordWriter; import org.datavec.api.records.writer.impl.csv.CSVRecordWriter; -import java.io.File; -import java.io.FileNotFoundException; - /** * Creates an @link{CSVRecordWriter} * diff --git a/datavec/datavec-api/src/main/java/org/datavec/api/formats/output/impl/LineOutputFormat.java b/datavec/datavec-api/src/main/java/org/datavec/api/formats/output/impl/LineOutputFormat.java index 80c5956f7..c2d6dfa8e 100644 --- a/datavec/datavec-api/src/main/java/org/datavec/api/formats/output/impl/LineOutputFormat.java +++ b/datavec/datavec-api/src/main/java/org/datavec/api/formats/output/impl/LineOutputFormat.java @@ -23,9 +23,6 @@ import org.datavec.api.formats.output.OutputFormat; import org.datavec.api.records.writer.RecordWriter; import org.datavec.api.records.writer.impl.LineRecordWriter; -import java.io.File; -import java.io.FileNotFoundException; - /** * Line output format * @author Adam Gibson diff --git a/datavec/datavec-api/src/main/java/org/datavec/api/formats/output/impl/SVMLightOutputFormat.java b/datavec/datavec-api/src/main/java/org/datavec/api/formats/output/impl/SVMLightOutputFormat.java index 0691891a3..e737b72a0 100644 --- a/datavec/datavec-api/src/main/java/org/datavec/api/formats/output/impl/SVMLightOutputFormat.java +++ b/datavec/datavec-api/src/main/java/org/datavec/api/formats/output/impl/SVMLightOutputFormat.java @@ -24,8 +24,6 @@ import org.datavec.api.formats.output.OutputFormat; import org.datavec.api.records.writer.RecordWriter; import org.datavec.api.records.writer.impl.misc.SVMLightRecordWriter; -import java.io.File; - /** * Created by agibsonccc on 1/11/15. */ diff --git a/datavec/datavec-api/src/main/java/org/datavec/api/io/WritableUtils.java b/datavec/datavec-api/src/main/java/org/datavec/api/io/WritableUtils.java index c39589cce..38cb222e5 100644 --- a/datavec/datavec-api/src/main/java/org/datavec/api/io/WritableUtils.java +++ b/datavec/datavec-api/src/main/java/org/datavec/api/io/WritableUtils.java @@ -22,6 +22,7 @@ import org.datavec.api.writable.Text; import org.datavec.api.writable.Writable; import java.io.*; +import java.nio.charset.StandardCharsets; import java.util.zip.GZIPInputStream; import java.util.zip.GZIPOutputStream; @@ -79,12 +80,12 @@ public final class WritableUtils { byte[] bytes = readCompressedByteArray(in); if (bytes == null) return null; - return new String(bytes, "UTF-8"); + return new String(bytes, StandardCharsets.UTF_8); } public static int writeCompressedString(DataOutput out, String s) throws IOException { - return writeCompressedByteArray(out, (s != null) ? s.getBytes("UTF-8") : null); + return writeCompressedByteArray(out, (s != null) ? s.getBytes(StandardCharsets.UTF_8) : null); } /* @@ -96,7 +97,7 @@ public final class WritableUtils { */ public static void writeString(DataOutput out, String s) throws IOException { if (s != null) { - byte[] buffer = s.getBytes("UTF-8"); + byte[] buffer = s.getBytes(StandardCharsets.UTF_8); int len = buffer.length; out.writeInt(len); out.write(buffer, 0, len); @@ -117,7 +118,7 @@ public final class WritableUtils { return null; byte[] buffer = new byte[length]; in.readFully(buffer); // could/should use readFully(buffer,0,length)? - return new String(buffer, "UTF-8"); + return new String(buffer, StandardCharsets.UTF_8); } diff --git a/datavec/datavec-api/src/main/java/org/datavec/api/io/labels/PathMultiLabelGenerator.java b/datavec/datavec-api/src/main/java/org/datavec/api/io/labels/PathMultiLabelGenerator.java index 866793752..4b3bf41f3 100644 --- a/datavec/datavec-api/src/main/java/org/datavec/api/io/labels/PathMultiLabelGenerator.java +++ b/datavec/datavec-api/src/main/java/org/datavec/api/io/labels/PathMultiLabelGenerator.java @@ -19,7 +19,6 @@ package org.datavec.api.io.labels; import org.datavec.api.writable.Writable; import java.io.Serializable; -import java.net.URI; import java.util.List; /** diff --git a/datavec/datavec-api/src/main/java/org/datavec/api/records/reader/impl/ConcatenatingRecordReader.java b/datavec/datavec-api/src/main/java/org/datavec/api/records/reader/impl/ConcatenatingRecordReader.java index 8de11d862..45a14d1f4 100644 --- a/datavec/datavec-api/src/main/java/org/datavec/api/records/reader/impl/ConcatenatingRecordReader.java +++ b/datavec/datavec-api/src/main/java/org/datavec/api/records/reader/impl/ConcatenatingRecordReader.java @@ -27,7 +27,6 @@ import org.datavec.api.writable.Writable; import java.io.DataInputStream; import java.io.IOException; import java.net.URI; -import java.util.ArrayList; import java.util.List; /** diff --git a/datavec/datavec-api/src/main/java/org/datavec/api/records/reader/impl/jackson/JacksonLineRecordReader.java b/datavec/datavec-api/src/main/java/org/datavec/api/records/reader/impl/jackson/JacksonLineRecordReader.java index 9afe953b7..4553b82e3 100644 --- a/datavec/datavec-api/src/main/java/org/datavec/api/records/reader/impl/jackson/JacksonLineRecordReader.java +++ b/datavec/datavec-api/src/main/java/org/datavec/api/records/reader/impl/jackson/JacksonLineRecordReader.java @@ -16,16 +16,11 @@ package org.datavec.api.records.reader.impl.jackson; -import java.io.IOException; -import java.util.ArrayList; -import java.util.Arrays; import java.util.List; -import java.util.Map; import org.datavec.api.records.reader.impl.LineRecordReader; import org.datavec.api.writable.Text; import org.datavec.api.writable.Writable; -import org.nd4j.shade.jackson.core.type.TypeReference; import org.nd4j.shade.jackson.databind.ObjectMapper; /** diff --git a/datavec/datavec-api/src/main/java/org/datavec/api/records/reader/impl/jackson/JacksonRecordReader.java b/datavec/datavec-api/src/main/java/org/datavec/api/records/reader/impl/jackson/JacksonRecordReader.java index cdae52c4f..f2c281884 100644 --- a/datavec/datavec-api/src/main/java/org/datavec/api/records/reader/impl/jackson/JacksonRecordReader.java +++ b/datavec/datavec-api/src/main/java/org/datavec/api/records/reader/impl/jackson/JacksonRecordReader.java @@ -28,14 +28,12 @@ import org.datavec.api.records.metadata.RecordMetaDataURI; import org.datavec.api.records.reader.BaseRecordReader; import org.datavec.api.split.FileSplit; import org.datavec.api.split.InputSplit; -import org.datavec.api.writable.Text; import org.datavec.api.writable.Writable; import org.nd4j.shade.jackson.core.type.TypeReference; import org.nd4j.shade.jackson.databind.ObjectMapper; import java.io.*; import java.net.URI; -import java.nio.charset.Charset; import java.nio.charset.StandardCharsets; import java.util.*; diff --git a/datavec/datavec-api/src/main/java/org/datavec/api/records/reader/impl/regex/RegexSequenceRecordReader.java b/datavec/datavec-api/src/main/java/org/datavec/api/records/reader/impl/regex/RegexSequenceRecordReader.java index 8faa243c3..61552370b 100644 --- a/datavec/datavec-api/src/main/java/org/datavec/api/records/reader/impl/regex/RegexSequenceRecordReader.java +++ b/datavec/datavec-api/src/main/java/org/datavec/api/records/reader/impl/regex/RegexSequenceRecordReader.java @@ -34,6 +34,7 @@ import org.slf4j.LoggerFactory; import java.io.*; import java.net.URI; import java.nio.charset.Charset; +import java.nio.charset.StandardCharsets; import java.util.ArrayList; import java.util.Collections; import java.util.List; @@ -57,7 +58,7 @@ import java.util.regex.Pattern; */ public class RegexSequenceRecordReader extends FileRecordReader implements SequenceRecordReader { public static final String SKIP_NUM_LINES = NAME_SPACE + ".skipnumlines"; - public static final Charset DEFAULT_CHARSET = Charset.forName("UTF-8"); + public static final Charset DEFAULT_CHARSET = StandardCharsets.UTF_8; public static final LineErrorHandling DEFAULT_ERROR_HANDLING = LineErrorHandling.FailOnInvalid; /**Error handling mode: How should invalid lines (i.e., those that don't match the provided regex) be handled?
@@ -67,7 +68,7 @@ public class RegexSequenceRecordReader extends FileRecordReader implements Seque */ public enum LineErrorHandling { FailOnInvalid, SkipInvalid, SkipInvalidWithWarning - }; + } public static final Logger LOG = LoggerFactory.getLogger(RegexSequenceRecordReader.class); diff --git a/datavec/datavec-api/src/main/java/org/datavec/api/records/reader/impl/transform/TransformProcessRecordReader.java b/datavec/datavec-api/src/main/java/org/datavec/api/records/reader/impl/transform/TransformProcessRecordReader.java index 0a1eaec75..85c49bfe9 100644 --- a/datavec/datavec-api/src/main/java/org/datavec/api/records/reader/impl/transform/TransformProcessRecordReader.java +++ b/datavec/datavec-api/src/main/java/org/datavec/api/records/reader/impl/transform/TransformProcessRecordReader.java @@ -16,14 +16,12 @@ package org.datavec.api.records.reader.impl.transform; -import lombok.AllArgsConstructor; import org.datavec.api.conf.Configuration; import org.datavec.api.records.Record; import org.datavec.api.records.listener.RecordListener; import org.datavec.api.records.metadata.RecordMetaData; import org.datavec.api.records.reader.RecordReader; import org.datavec.api.split.InputSplit; -import org.datavec.api.transform.Transform; import org.datavec.api.transform.TransformProcess; import org.datavec.api.writable.Writable; diff --git a/datavec/datavec-api/src/main/java/org/datavec/api/records/writer/impl/FileRecordWriter.java b/datavec/datavec-api/src/main/java/org/datavec/api/records/writer/impl/FileRecordWriter.java index 08832ee7f..003db1c8d 100644 --- a/datavec/datavec-api/src/main/java/org/datavec/api/records/writer/impl/FileRecordWriter.java +++ b/datavec/datavec-api/src/main/java/org/datavec/api/records/writer/impl/FileRecordWriter.java @@ -25,6 +25,7 @@ import org.datavec.api.split.partition.Partitioner; import java.io.DataOutputStream; import java.io.IOException; import java.nio.charset.Charset; +import java.nio.charset.StandardCharsets; /** * Write to files. @@ -38,7 +39,7 @@ import java.nio.charset.Charset; */ public abstract class FileRecordWriter implements RecordWriter { - public static final Charset DEFAULT_CHARSET = Charset.forName("UTF-8"); + public static final Charset DEFAULT_CHARSET = StandardCharsets.UTF_8; protected DataOutputStream out; public final static String NEW_LINE = "\n"; diff --git a/datavec/datavec-api/src/main/java/org/datavec/api/records/writer/impl/misc/LibSvmRecordWriter.java b/datavec/datavec-api/src/main/java/org/datavec/api/records/writer/impl/misc/LibSvmRecordWriter.java index bbad28bbc..20d4204be 100644 --- a/datavec/datavec-api/src/main/java/org/datavec/api/records/writer/impl/misc/LibSvmRecordWriter.java +++ b/datavec/datavec-api/src/main/java/org/datavec/api/records/writer/impl/misc/LibSvmRecordWriter.java @@ -17,10 +17,6 @@ package org.datavec.api.records.writer.impl.misc; import lombok.extern.slf4j.Slf4j; -import org.datavec.api.conf.Configuration; - -import java.io.File; -import java.io.FileNotFoundException; /** diff --git a/datavec/datavec-api/src/main/java/org/datavec/api/split/CollectionInputSplit.java b/datavec/datavec-api/src/main/java/org/datavec/api/split/CollectionInputSplit.java index 0f2c7f3f8..2e669c0e2 100644 --- a/datavec/datavec-api/src/main/java/org/datavec/api/split/CollectionInputSplit.java +++ b/datavec/datavec-api/src/main/java/org/datavec/api/split/CollectionInputSplit.java @@ -21,7 +21,6 @@ import java.net.URI; import java.util.ArrayList; import java.util.Arrays; import java.util.Collection; -import java.util.LinkedList; /** * A simple InputSplit based on a collection of URIs diff --git a/datavec/datavec-api/src/main/java/org/datavec/api/split/NumberedFileInputSplit.java b/datavec/datavec-api/src/main/java/org/datavec/api/split/NumberedFileInputSplit.java index 5227a0cc3..cb0f6cab5 100644 --- a/datavec/datavec-api/src/main/java/org/datavec/api/split/NumberedFileInputSplit.java +++ b/datavec/datavec-api/src/main/java/org/datavec/api/split/NumberedFileInputSplit.java @@ -18,11 +18,9 @@ package org.datavec.api.split; import lombok.extern.slf4j.Slf4j; import org.datavec.api.util.files.UriFromPathIterator; -import org.datavec.api.writable.WritableType; import java.io.*; import java.net.URI; -import java.nio.file.Paths; import java.util.Iterator; import java.util.NoSuchElementException; import java.util.regex.Matcher; diff --git a/datavec/datavec-api/src/main/java/org/datavec/api/transform/analysis/DataAnalysis.java b/datavec/datavec-api/src/main/java/org/datavec/api/transform/analysis/DataAnalysis.java index 467db70f0..1b9fe890d 100644 --- a/datavec/datavec-api/src/main/java/org/datavec/api/transform/analysis/DataAnalysis.java +++ b/datavec/datavec-api/src/main/java/org/datavec/api/transform/analysis/DataAnalysis.java @@ -26,7 +26,6 @@ import org.datavec.api.transform.schema.Schema; import org.datavec.api.transform.serde.JsonMappers; import org.datavec.api.transform.serde.JsonSerializer; import org.datavec.api.transform.serde.YamlSerializer; -import org.nd4j.shade.jackson.annotation.JsonSubTypes; import org.nd4j.shade.jackson.annotation.JsonTypeInfo; import org.nd4j.shade.jackson.databind.JsonNode; import org.nd4j.shade.jackson.databind.ObjectMapper; diff --git a/datavec/datavec-api/src/main/java/org/datavec/api/transform/analysis/counter/DoubleAnalysisCounter.java b/datavec/datavec-api/src/main/java/org/datavec/api/transform/analysis/counter/DoubleAnalysisCounter.java index 396f42da0..9da317027 100644 --- a/datavec/datavec-api/src/main/java/org/datavec/api/transform/analysis/counter/DoubleAnalysisCounter.java +++ b/datavec/datavec-api/src/main/java/org/datavec/api/transform/analysis/counter/DoubleAnalysisCounter.java @@ -49,27 +49,27 @@ public class DoubleAnalysisCounter implements AnalysisCounter */ private TDigest digest = TDigest.createDigest(100); - public LongAnalysisCounter() {}; + public LongAnalysisCounter() {} public long getMinValueSeen() { return (long) counter.getMin(); - }; + } public long getMaxValueSeen() { return (long) counter.getMax(); - }; + } public long getSum() { return (long) counter.getSum(); - }; + } public long getCountTotal() { return counter.getCount(); - }; + } public double getSampleStdev() { return counter.getStddev(false); @@ -100,7 +100,7 @@ public class LongAnalysisCounter implements AnalysisCounter countPositive++; } else { countNegative++; - } ; + } digest.add((double) value); counter.add((double) value); diff --git a/datavec/datavec-api/src/main/java/org/datavec/api/transform/analysis/counter/StringAnalysisCounter.java b/datavec/datavec-api/src/main/java/org/datavec/api/transform/analysis/counter/StringAnalysisCounter.java index e5d423955..7d6eabc66 100644 --- a/datavec/datavec-api/src/main/java/org/datavec/api/transform/analysis/counter/StringAnalysisCounter.java +++ b/datavec/datavec-api/src/main/java/org/datavec/api/transform/analysis/counter/StringAnalysisCounter.java @@ -35,27 +35,27 @@ public class StringAnalysisCounter implements AnalysisCounter ENCODER_FACTORY = new ThreadLocal() { protected CharsetEncoder initialValue() { - return Charset.forName("UTF-8").newEncoder().onMalformedInput(CodingErrorAction.REPORT) + return StandardCharsets.UTF_8.newEncoder().onMalformedInput(CodingErrorAction.REPORT) .onUnmappableCharacter(CodingErrorAction.REPORT); } }; private static ThreadLocal DECODER_FACTORY = new ThreadLocal() { protected CharsetDecoder initialValue() { - return Charset.forName("UTF-8").newDecoder().onMalformedInput(CodingErrorAction.REPORT) + return StandardCharsets.UTF_8.newDecoder().onMalformedInput(CodingErrorAction.REPORT) .onUnmappableCharacter(CodingErrorAction.REPORT); } }; diff --git a/datavec/datavec-api/src/main/java/org/datavec/api/writable/comparator/ReverseComparator.java b/datavec/datavec-api/src/main/java/org/datavec/api/writable/comparator/ReverseComparator.java index 1f5ac6d09..0830e87d6 100644 --- a/datavec/datavec-api/src/main/java/org/datavec/api/writable/comparator/ReverseComparator.java +++ b/datavec/datavec-api/src/main/java/org/datavec/api/writable/comparator/ReverseComparator.java @@ -17,7 +17,6 @@ package org.datavec.api.writable.comparator; import lombok.AllArgsConstructor; -import org.datavec.api.writable.Writable; import java.io.Serializable; import java.util.Comparator; diff --git a/datavec/datavec-api/src/test/java/org/datavec/api/records/writer/impl/SVMLightRecordWriterTest.java b/datavec/datavec-api/src/test/java/org/datavec/api/records/writer/impl/SVMLightRecordWriterTest.java index b27af0cf1..a5ca0f0ba 100644 --- a/datavec/datavec-api/src/test/java/org/datavec/api/records/writer/impl/SVMLightRecordWriterTest.java +++ b/datavec/datavec-api/src/test/java/org/datavec/api/records/writer/impl/SVMLightRecordWriterTest.java @@ -23,7 +23,6 @@ import org.datavec.api.records.writer.impl.misc.SVMLightRecordWriter; import org.datavec.api.split.FileSplit; import org.datavec.api.split.partition.NumberOfRecordsPartitioner; import org.datavec.api.writable.*; -import org.datavec.api.writable.NDArrayWritable; import org.junit.Test; import org.nd4j.common.tests.BaseND4JTest; import org.nd4j.linalg.api.ndarray.INDArray; diff --git a/datavec/datavec-api/src/test/java/org/datavec/api/transform/ops/AggregableMultiOpTest.java b/datavec/datavec-api/src/test/java/org/datavec/api/transform/ops/AggregableMultiOpTest.java index 92d7d8dbc..754228cc0 100644 --- a/datavec/datavec-api/src/test/java/org/datavec/api/transform/ops/AggregableMultiOpTest.java +++ b/datavec/datavec-api/src/test/java/org/datavec/api/transform/ops/AggregableMultiOpTest.java @@ -20,7 +20,6 @@ import org.datavec.api.writable.Writable; import org.junit.Test; import org.nd4j.common.tests.BaseND4JTest; -import java.io.Serializable; import java.util.*; import static org.junit.Assert.assertTrue; diff --git a/datavec/datavec-data/datavec-data-image/src/main/java/org/datavec/image/loader/BaseImageLoader.java b/datavec/datavec-data/datavec-data-image/src/main/java/org/datavec/image/loader/BaseImageLoader.java index 0bfddeb32..95768d1b7 100644 --- a/datavec/datavec-data/datavec-data-image/src/main/java/org/datavec/image/loader/BaseImageLoader.java +++ b/datavec/datavec-data/datavec-data-image/src/main/java/org/datavec/image/loader/BaseImageLoader.java @@ -22,8 +22,6 @@ import org.datavec.image.data.Image; import org.datavec.image.transform.ImageTransform; import org.nd4j.linalg.api.ndarray.INDArray; import org.nd4j.common.util.ArchiveUtils; -import org.slf4j.Logger; -import org.slf4j.LoggerFactory; import java.io.File; import java.io.IOException; diff --git a/datavec/datavec-data/datavec-data-image/src/main/java/org/datavec/image/loader/CifarLoader.java b/datavec/datavec-data/datavec-data-image/src/main/java/org/datavec/image/loader/CifarLoader.java index e513ebed3..3e2dd7f40 100644 --- a/datavec/datavec-data/datavec-data-image/src/main/java/org/datavec/image/loader/CifarLoader.java +++ b/datavec/datavec-data/datavec-data-image/src/main/java/org/datavec/image/loader/CifarLoader.java @@ -328,7 +328,7 @@ public class CifarLoader extends NativeImageLoader implements Serializable { } public Pair convertMat(byte[] byteFeature) { - INDArray label = FeatureUtil.toOutcomeVector(byteFeature[0], NUM_LABELS);; // first value in the 3073 byte array + INDArray label = FeatureUtil.toOutcomeVector(byteFeature[0], NUM_LABELS);// first value in the 3073 byte array Mat image = new Mat(HEIGHT, WIDTH, CV_8UC(CHANNELS)); // feature are 3072 ByteBuffer imageData = image.createBuffer(); diff --git a/datavec/datavec-data/datavec-data-image/src/main/java/org/datavec/image/transform/BoxImageTransform.java b/datavec/datavec-data/datavec-data-image/src/main/java/org/datavec/image/transform/BoxImageTransform.java index d1a4c8d04..36340bb49 100644 --- a/datavec/datavec-data/datavec-data-image/src/main/java/org/datavec/image/transform/BoxImageTransform.java +++ b/datavec/datavec-data/datavec-data-image/src/main/java/org/datavec/image/transform/BoxImageTransform.java @@ -29,7 +29,6 @@ import org.nd4j.shade.jackson.annotation.JsonProperty; import java.util.Random; import org.bytedeco.opencv.opencv_core.*; -import static org.bytedeco.opencv.global.opencv_core.*; /** * Boxes images to a given width and height without changing their aspect ratios, diff --git a/datavec/datavec-data/datavec-data-image/src/main/java/org/datavec/image/transform/ColorConversionTransform.java b/datavec/datavec-data/datavec-data-image/src/main/java/org/datavec/image/transform/ColorConversionTransform.java index 0c0d4a6c9..8b4836949 100644 --- a/datavec/datavec-data/datavec-data-image/src/main/java/org/datavec/image/transform/ColorConversionTransform.java +++ b/datavec/datavec-data/datavec-data-image/src/main/java/org/datavec/image/transform/ColorConversionTransform.java @@ -24,8 +24,7 @@ import org.nd4j.shade.jackson.annotation.JsonInclude; import java.util.Random; import org.bytedeco.opencv.opencv_core.*; -import org.bytedeco.opencv.opencv_imgproc.*; -import static org.bytedeco.opencv.global.opencv_core.*; + import static org.bytedeco.opencv.global.opencv_imgproc.*; /** diff --git a/datavec/datavec-data/datavec-data-image/src/main/java/org/datavec/image/transform/CropImageTransform.java b/datavec/datavec-data/datavec-data-image/src/main/java/org/datavec/image/transform/CropImageTransform.java index 588f30376..bb333b810 100644 --- a/datavec/datavec-data/datavec-data-image/src/main/java/org/datavec/image/transform/CropImageTransform.java +++ b/datavec/datavec-data/datavec-data-image/src/main/java/org/datavec/image/transform/CropImageTransform.java @@ -25,7 +25,6 @@ import org.nd4j.shade.jackson.annotation.JsonProperty; import java.util.Random; import org.bytedeco.opencv.opencv_core.*; -import static org.bytedeco.opencv.global.opencv_core.*; /** * Crops images deterministically or randomly. diff --git a/datavec/datavec-data/datavec-data-image/src/main/java/org/datavec/image/transform/EqualizeHistTransform.java b/datavec/datavec-data/datavec-data-image/src/main/java/org/datavec/image/transform/EqualizeHistTransform.java index 01cd9d03c..ce86dcb3b 100644 --- a/datavec/datavec-data/datavec-data-image/src/main/java/org/datavec/image/transform/EqualizeHistTransform.java +++ b/datavec/datavec-data/datavec-data-image/src/main/java/org/datavec/image/transform/EqualizeHistTransform.java @@ -25,7 +25,7 @@ import org.nd4j.shade.jackson.annotation.JsonInclude; import java.util.Random; import org.bytedeco.opencv.opencv_core.*; -import org.bytedeco.opencv.opencv_imgproc.*; + import static org.bytedeco.opencv.global.opencv_core.*; import static org.bytedeco.opencv.global.opencv_imgproc.*; diff --git a/datavec/datavec-data/datavec-data-image/src/main/java/org/datavec/image/transform/LargestBlobCropTransform.java b/datavec/datavec-data/datavec-data-image/src/main/java/org/datavec/image/transform/LargestBlobCropTransform.java index b86f86b72..48c0daae2 100644 --- a/datavec/datavec-data/datavec-data-image/src/main/java/org/datavec/image/transform/LargestBlobCropTransform.java +++ b/datavec/datavec-data/datavec-data-image/src/main/java/org/datavec/image/transform/LargestBlobCropTransform.java @@ -24,8 +24,7 @@ import org.nd4j.linalg.factory.Nd4j; import java.util.Random; import org.bytedeco.opencv.opencv_core.*; -import org.bytedeco.opencv.opencv_imgproc.*; -import static org.bytedeco.opencv.global.opencv_core.*; + import static org.bytedeco.opencv.global.opencv_imgproc.*; /** diff --git a/datavec/datavec-data/datavec-data-image/src/main/java/org/datavec/image/transform/MultiImageTransform.java b/datavec/datavec-data/datavec-data-image/src/main/java/org/datavec/image/transform/MultiImageTransform.java index 31b599fe5..0311baab3 100644 --- a/datavec/datavec-data/datavec-data-image/src/main/java/org/datavec/image/transform/MultiImageTransform.java +++ b/datavec/datavec-data/datavec-data-image/src/main/java/org/datavec/image/transform/MultiImageTransform.java @@ -22,7 +22,6 @@ import org.datavec.image.data.ImageWritable; import java.util.Random; import org.bytedeco.opencv.opencv_core.*; -import static org.bytedeco.opencv.global.opencv_core.*; /** * Transforms images deterministically or randomly with the help of an array of ImageTransform diff --git a/datavec/datavec-data/datavec-data-image/src/main/java/org/datavec/image/transform/RandomCropTransform.java b/datavec/datavec-data/datavec-data-image/src/main/java/org/datavec/image/transform/RandomCropTransform.java index 45d9de1ca..648d05efb 100644 --- a/datavec/datavec-data/datavec-data-image/src/main/java/org/datavec/image/transform/RandomCropTransform.java +++ b/datavec/datavec-data/datavec-data-image/src/main/java/org/datavec/image/transform/RandomCropTransform.java @@ -27,7 +27,6 @@ import org.nd4j.shade.jackson.annotation.JsonProperty; import java.util.Random; import org.bytedeco.opencv.opencv_core.*; -import static org.bytedeco.opencv.global.opencv_core.*; /** * Randomly crops an image to a desired output size. Will determine if diff --git a/datavec/datavec-data/datavec-data-image/src/main/java/org/datavec/image/transform/ResizeImageTransform.java b/datavec/datavec-data/datavec-data-image/src/main/java/org/datavec/image/transform/ResizeImageTransform.java index 0db0a1401..7c3d7816e 100644 --- a/datavec/datavec-data/datavec-data-image/src/main/java/org/datavec/image/transform/ResizeImageTransform.java +++ b/datavec/datavec-data/datavec-data-image/src/main/java/org/datavec/image/transform/ResizeImageTransform.java @@ -25,8 +25,7 @@ import org.nd4j.shade.jackson.annotation.JsonProperty; import java.util.Random; import org.bytedeco.opencv.opencv_core.*; -import org.bytedeco.opencv.opencv_imgproc.*; -import static org.bytedeco.opencv.global.opencv_core.*; + import static org.bytedeco.opencv.global.opencv_imgproc.*; /** diff --git a/datavec/datavec-data/datavec-data-image/src/main/java/org/datavec/image/transform/RotateImageTransform.java b/datavec/datavec-data/datavec-data-image/src/main/java/org/datavec/image/transform/RotateImageTransform.java index 617ef25c4..d9f47bd4c 100644 --- a/datavec/datavec-data/datavec-data-image/src/main/java/org/datavec/image/transform/RotateImageTransform.java +++ b/datavec/datavec-data/datavec-data-image/src/main/java/org/datavec/image/transform/RotateImageTransform.java @@ -31,7 +31,7 @@ import java.nio.FloatBuffer; import java.util.Random; import org.bytedeco.opencv.opencv_core.*; -import org.bytedeco.opencv.opencv_imgproc.*; + import static org.bytedeco.opencv.global.opencv_core.*; import static org.bytedeco.opencv.global.opencv_imgproc.*; diff --git a/datavec/datavec-data/datavec-data-image/src/main/java/org/datavec/image/transform/ScaleImageTransform.java b/datavec/datavec-data/datavec-data-image/src/main/java/org/datavec/image/transform/ScaleImageTransform.java index 0d8ff7160..a034106a1 100644 --- a/datavec/datavec-data/datavec-data-image/src/main/java/org/datavec/image/transform/ScaleImageTransform.java +++ b/datavec/datavec-data/datavec-data-image/src/main/java/org/datavec/image/transform/ScaleImageTransform.java @@ -25,8 +25,7 @@ import org.nd4j.shade.jackson.annotation.JsonProperty; import java.util.Random; import org.bytedeco.opencv.opencv_core.*; -import org.bytedeco.opencv.opencv_imgproc.*; -import static org.bytedeco.opencv.global.opencv_core.*; + import static org.bytedeco.opencv.global.opencv_imgproc.*; /** diff --git a/datavec/datavec-data/datavec-data-image/src/main/java/org/datavec/image/transform/WarpImageTransform.java b/datavec/datavec-data/datavec-data-image/src/main/java/org/datavec/image/transform/WarpImageTransform.java index 1be066527..f6c1d9baa 100644 --- a/datavec/datavec-data/datavec-data-image/src/main/java/org/datavec/image/transform/WarpImageTransform.java +++ b/datavec/datavec-data/datavec-data-image/src/main/java/org/datavec/image/transform/WarpImageTransform.java @@ -31,7 +31,7 @@ import java.nio.FloatBuffer; import java.util.Random; import org.bytedeco.opencv.opencv_core.*; -import org.bytedeco.opencv.opencv_imgproc.*; + import static org.bytedeco.opencv.global.opencv_core.*; import static org.bytedeco.opencv.global.opencv_imgproc.*; diff --git a/datavec/datavec-data/datavec-data-image/src/test/java/org/datavec/image/loader/LoaderTests.java b/datavec/datavec-data/datavec-data-image/src/test/java/org/datavec/image/loader/LoaderTests.java index 7afdb7ac0..a6063666d 100644 --- a/datavec/datavec-data/datavec-data-image/src/test/java/org/datavec/image/loader/LoaderTests.java +++ b/datavec/datavec-data/datavec-data-image/src/test/java/org/datavec/image/loader/LoaderTests.java @@ -16,13 +16,8 @@ package org.datavec.image.loader; -import org.apache.commons.io.FileUtils; import org.apache.commons.io.FilenameUtils; -import org.datavec.api.io.filters.BalancedPathFilter; import org.datavec.api.records.reader.RecordReader; -import org.datavec.api.split.FileSplit; -import org.datavec.api.split.InputSplit; -import org.datavec.image.recordreader.ImageRecordReader; import org.junit.Ignore; import org.junit.Test; import org.nd4j.linalg.dataset.DataSet; @@ -30,9 +25,6 @@ import org.nd4j.linalg.dataset.DataSet; import java.io.File; import java.io.FileInputStream; import java.io.InputStream; -import java.io.SequenceInputStream; -import java.util.Collection; -import java.util.Iterator; import java.util.List; import java.util.Random; diff --git a/datavec/datavec-data/datavec-data-image/src/test/java/org/datavec/image/recordreader/TestImageRecordReader.java b/datavec/datavec-data/datavec-data-image/src/test/java/org/datavec/image/recordreader/TestImageRecordReader.java index 26cd83f06..590f6fc72 100644 --- a/datavec/datavec-data/datavec-data-image/src/test/java/org/datavec/image/recordreader/TestImageRecordReader.java +++ b/datavec/datavec-data/datavec-data-image/src/test/java/org/datavec/image/recordreader/TestImageRecordReader.java @@ -35,7 +35,6 @@ import org.datavec.api.writable.batch.NDArrayRecordBatch; import org.junit.Rule; import org.junit.Test; import org.junit.rules.TemporaryFolder; -import org.nd4j.common.resources.Resources; import org.nd4j.linalg.api.buffer.DataType; import org.nd4j.linalg.api.ndarray.INDArray; import org.nd4j.linalg.factory.Nd4j; diff --git a/datavec/datavec-data/datavec-data-nlp/src/main/java/org/datavec/nlp/tokenization/tokenizerfactory/TokenizerFactory.java b/datavec/datavec-data/datavec-data-nlp/src/main/java/org/datavec/nlp/tokenization/tokenizerfactory/TokenizerFactory.java index 6a123895b..610f0c759 100644 --- a/datavec/datavec-data/datavec-data-nlp/src/main/java/org/datavec/nlp/tokenization/tokenizerfactory/TokenizerFactory.java +++ b/datavec/datavec-data/datavec-data-nlp/src/main/java/org/datavec/nlp/tokenization/tokenizerfactory/TokenizerFactory.java @@ -20,7 +20,6 @@ package org.datavec.nlp.tokenization.tokenizerfactory; import org.datavec.nlp.tokenization.tokenizer.TokenPreProcess; import org.datavec.nlp.tokenization.tokenizer.Tokenizer; -import org.nd4j.shade.jackson.annotation.JsonSubTypes; import org.nd4j.shade.jackson.annotation.JsonTypeInfo; import java.io.InputStream; diff --git a/datavec/datavec-data/datavec-geo/src/test/java/org/datavec/api/transform/transform/TestGeoTransforms.java b/datavec/datavec-data/datavec-geo/src/test/java/org/datavec/api/transform/transform/TestGeoTransforms.java index aa3e93494..ea52d9979 100644 --- a/datavec/datavec-data/datavec-geo/src/test/java/org/datavec/api/transform/transform/TestGeoTransforms.java +++ b/datavec/datavec-data/datavec-geo/src/test/java/org/datavec/api/transform/transform/TestGeoTransforms.java @@ -27,7 +27,6 @@ import org.datavec.api.writable.DoubleWritable; import org.datavec.api.writable.Text; import org.datavec.api.writable.Writable; import org.junit.AfterClass; -import org.junit.Before; import org.junit.BeforeClass; import org.junit.Test; import org.nd4j.common.io.ClassPathResource; diff --git a/datavec/datavec-excel/src/main/java/org/datavec/poi/excel/ExcelRecordReader.java b/datavec/datavec-excel/src/main/java/org/datavec/poi/excel/ExcelRecordReader.java index 13184a9b1..bbb4c3240 100644 --- a/datavec/datavec-excel/src/main/java/org/datavec/poi/excel/ExcelRecordReader.java +++ b/datavec/datavec-excel/src/main/java/org/datavec/poi/excel/ExcelRecordReader.java @@ -20,8 +20,6 @@ import org.apache.poi.ss.usermodel.*; import org.datavec.api.conf.Configuration; import org.datavec.api.records.Record; import org.datavec.api.records.metadata.RecordMetaDataIndex; -import org.datavec.api.records.metadata.RecordMetaDataLine; -import org.datavec.api.records.metadata.RecordMetaDataURI; import org.datavec.api.records.reader.impl.FileRecordReader; import org.datavec.api.split.InputSplit; import org.datavec.api.writable.BooleanWritable; @@ -29,7 +27,6 @@ import org.datavec.api.writable.DoubleWritable; import org.datavec.api.writable.Text; import org.datavec.api.writable.Writable; -import java.io.File; import java.io.IOException; import java.io.InputStream; import java.util.ArrayList; diff --git a/datavec/datavec-local/src/main/java/org/datavec/local/transforms/AnalyzeLocal.java b/datavec/datavec-local/src/main/java/org/datavec/local/transforms/AnalyzeLocal.java index 373289795..2234c83f3 100644 --- a/datavec/datavec-local/src/main/java/org/datavec/local/transforms/AnalyzeLocal.java +++ b/datavec/datavec-local/src/main/java/org/datavec/local/transforms/AnalyzeLocal.java @@ -25,7 +25,6 @@ import org.datavec.api.transform.analysis.DataVecAnalysisUtils; import org.datavec.api.transform.analysis.columns.ColumnAnalysis; import org.datavec.api.transform.analysis.histogram.HistogramCounter; import org.datavec.api.transform.analysis.quality.QualityAnalysisAddFunction; -import org.datavec.api.transform.analysis.quality.QualityAnalysisCombineFunction; import org.datavec.api.transform.analysis.quality.QualityAnalysisState; import org.datavec.api.transform.quality.DataQualityAnalysis; import org.datavec.api.transform.quality.columns.ColumnQuality; diff --git a/datavec/datavec-local/src/main/java/org/datavec/local/transforms/BaseFlatMapFunctionAdaptee.java b/datavec/datavec-local/src/main/java/org/datavec/local/transforms/BaseFlatMapFunctionAdaptee.java index 7cdfded0d..469d11a5a 100644 --- a/datavec/datavec-local/src/main/java/org/datavec/local/transforms/BaseFlatMapFunctionAdaptee.java +++ b/datavec/datavec-local/src/main/java/org/datavec/local/transforms/BaseFlatMapFunctionAdaptee.java @@ -18,7 +18,6 @@ package org.datavec.local.transforms; import org.datavec.local.transforms.functions.FlatMapFunctionAdapter; -import org.nd4j.linalg.exception.ND4JIllegalStateException; import java.util.List; diff --git a/datavec/datavec-local/src/main/java/org/datavec/local/transforms/LocalTransformProcessRecordReader.java b/datavec/datavec-local/src/main/java/org/datavec/local/transforms/LocalTransformProcessRecordReader.java index 551a6c480..a702a34d7 100644 --- a/datavec/datavec-local/src/main/java/org/datavec/local/transforms/LocalTransformProcessRecordReader.java +++ b/datavec/datavec-local/src/main/java/org/datavec/local/transforms/LocalTransformProcessRecordReader.java @@ -19,11 +19,6 @@ package org.datavec.local.transforms; import org.datavec.api.records.reader.RecordReader; import org.datavec.api.records.reader.impl.transform.TransformProcessRecordReader; import org.datavec.api.transform.TransformProcess; -import org.datavec.api.writable.Writable; - -import java.util.Arrays; -import java.util.Collections; -import java.util.List; /** * A wrapper around the {@link TransformProcessRecordReader} diff --git a/datavec/datavec-python/src/main/java/org/datavec/python/PythonGIL.java b/datavec/datavec-python/src/main/java/org/datavec/python/PythonGIL.java index d8afa2836..564fccdfe 100644 --- a/datavec/datavec-python/src/main/java/org/datavec/python/PythonGIL.java +++ b/datavec/datavec-python/src/main/java/org/datavec/python/PythonGIL.java @@ -21,8 +21,6 @@ import lombok.extern.slf4j.Slf4j; import org.bytedeco.cpython.PyThreadState; import static org.bytedeco.cpython.global.python.*; -import static org.bytedeco.cpython.global.python.PyEval_RestoreThread; -import static org.bytedeco.cpython.global.python.PyEval_SaveThread; @Slf4j diff --git a/datavec/datavec-python/src/main/java/org/datavec/python/PythonJob.java b/datavec/datavec-python/src/main/java/org/datavec/python/PythonJob.java index c50c9bb9e..9e23e9506 100644 --- a/datavec/datavec-python/src/main/java/org/datavec/python/PythonJob.java +++ b/datavec/datavec-python/src/main/java/org/datavec/python/PythonJob.java @@ -22,8 +22,6 @@ import lombok.Data; import lombok.NoArgsConstructor; import javax.annotation.Nonnull; -import java.util.HashMap; -import java.util.Map; @Data diff --git a/datavec/datavec-python/src/main/java/org/datavec/python/PythonTransform.java b/datavec/datavec-python/src/main/java/org/datavec/python/PythonTransform.java index a4b119b4c..d02de4411 100644 --- a/datavec/datavec-python/src/main/java/org/datavec/python/PythonTransform.java +++ b/datavec/datavec-python/src/main/java/org/datavec/python/PythonTransform.java @@ -26,7 +26,6 @@ import org.nd4j.common.base.Preconditions; import org.nd4j.common.holder.ObjectMapperHolder; import org.nd4j.linalg.api.ndarray.INDArray; import org.nd4j.shade.jackson.core.JsonProcessingException; -import org.nd4j.shade.jackson.annotation.JsonIgnoreProperties; import java.util.ArrayList; import java.util.List; diff --git a/datavec/datavec-python/src/main/java/org/datavec/python/PythonVariables.java b/datavec/datavec-python/src/main/java/org/datavec/python/PythonVariables.java index ade9bdfa0..cd058bc1a 100644 --- a/datavec/datavec-python/src/main/java/org/datavec/python/PythonVariables.java +++ b/datavec/datavec-python/src/main/java/org/datavec/python/PythonVariables.java @@ -16,16 +16,9 @@ package org.datavec.python; -import lombok.Data; import org.bytedeco.javacpp.BytePointer; -import org.bytedeco.javacpp.Pointer; -import org.json.JSONObject; -import org.json.JSONArray; import org.nd4j.linalg.api.ndarray.INDArray; -import org.nd4j.nativeblas.NativeOpsHolder; -import java.io.Serializable; -import java.nio.ByteBuffer; import java.util.*; diff --git a/datavec/datavec-python/src/test/java/org/datavec/python/TestPythonDict.java b/datavec/datavec-python/src/test/java/org/datavec/python/TestPythonDict.java index bc06269f1..270228946 100644 --- a/datavec/datavec-python/src/test/java/org/datavec/python/TestPythonDict.java +++ b/datavec/datavec-python/src/test/java/org/datavec/python/TestPythonDict.java @@ -18,18 +18,13 @@ package org.datavec.python; -import lombok.var; -import org.json.JSONArray; import org.junit.Test; -import org.nd4j.linalg.api.ndarray.INDArray; import org.nd4j.linalg.factory.Nd4j; -import java.util.ArrayList; import java.util.Arrays; import java.util.HashMap; import java.util.Map; -import static org.junit.Assert.assertArrayEquals; import static org.junit.Assert.assertEquals; @javax.annotation.concurrent.NotThreadSafe diff --git a/datavec/datavec-python/src/test/java/org/datavec/python/TestPythonJob.java b/datavec/datavec-python/src/test/java/org/datavec/python/TestPythonJob.java index bb79d2837..1a39f8d07 100644 --- a/datavec/datavec-python/src/test/java/org/datavec/python/TestPythonJob.java +++ b/datavec/datavec-python/src/test/java/org/datavec/python/TestPythonJob.java @@ -15,10 +15,7 @@ ******************************************************************************/ package org.datavec.python; -import org.junit.Assert; import org.junit.Test; -import org.nd4j.linalg.api.buffer.DataType; -import org.nd4j.linalg.api.ndarray.INDArray; import org.nd4j.linalg.factory.Nd4j; import static org.junit.Assert.assertEquals; diff --git a/datavec/datavec-python/src/test/java/org/datavec/python/TestPythonList.java b/datavec/datavec-python/src/test/java/org/datavec/python/TestPythonList.java index 7362a5e49..e1c0e1bad 100644 --- a/datavec/datavec-python/src/test/java/org/datavec/python/TestPythonList.java +++ b/datavec/datavec-python/src/test/java/org/datavec/python/TestPythonList.java @@ -18,15 +18,11 @@ package org.datavec.python; -import lombok.var; -import org.json.JSONArray; import org.junit.Test; -import org.nd4j.linalg.api.ndarray.INDArray; import org.nd4j.linalg.factory.Nd4j; import java.util.*; -import static org.junit.Assert.assertArrayEquals; import static org.junit.Assert.assertEquals; @javax.annotation.concurrent.NotThreadSafe diff --git a/datavec/datavec-spark/src/main/java/org/datavec/spark/functions/pairdata/BytesPairWritable.java b/datavec/datavec-spark/src/main/java/org/datavec/spark/functions/pairdata/BytesPairWritable.java index 5f2a43b53..776009b36 100644 --- a/datavec/datavec-spark/src/main/java/org/datavec/spark/functions/pairdata/BytesPairWritable.java +++ b/datavec/datavec-spark/src/main/java/org/datavec/spark/functions/pairdata/BytesPairWritable.java @@ -21,6 +21,7 @@ import java.io.DataOutput; import java.io.IOException; import java.io.Serializable; import java.nio.charset.Charset; +import java.nio.charset.StandardCharsets; /**A Hadoop writable class for a pair of byte arrays, plus the original URIs (as Strings) of the files they came from * @author Alex Black @@ -44,8 +45,8 @@ public class BytesPairWritable implements Serializable, org.apache.hadoop.io.Wri public void write(DataOutput dataOutput) throws IOException { int length1 = (first != null ? first.length : 0); int length2 = (second != null ? second.length : 0); - byte[] s1Bytes = (uriFirst != null ? uriFirst.getBytes(Charset.forName("UTF-8")) : null); - byte[] s2Bytes = (uriSecond != null ? uriSecond.getBytes(Charset.forName("UTF-8")) : null); + byte[] s1Bytes = (uriFirst != null ? uriFirst.getBytes(StandardCharsets.UTF_8) : null); + byte[] s2Bytes = (uriSecond != null ? uriSecond.getBytes(StandardCharsets.UTF_8) : null); int s1Len = (s1Bytes != null ? s1Bytes.length : 0); int s2Len = (s2Bytes != null ? s2Bytes.length : 0); dataOutput.writeInt(length1); @@ -79,12 +80,12 @@ public class BytesPairWritable implements Serializable, org.apache.hadoop.io.Wri if (s1Len > 0) { byte[] s1Bytes = new byte[s1Len]; dataInput.readFully(s1Bytes); - uriFirst = new String(s1Bytes, Charset.forName("UTF-8")); + uriFirst = new String(s1Bytes, StandardCharsets.UTF_8); } if (s2Len > 0) { byte[] s2Bytes = new byte[s2Len]; dataInput.readFully(s2Bytes); - uriSecond = new String(s2Bytes, Charset.forName("UTF-8")); + uriSecond = new String(s2Bytes, StandardCharsets.UTF_8); } } diff --git a/datavec/datavec-spark/src/main/java/org/datavec/spark/transform/join/ExtractKeysFunction.java b/datavec/datavec-spark/src/main/java/org/datavec/spark/transform/join/ExtractKeysFunction.java index d1fe30a23..29b3c897d 100644 --- a/datavec/datavec-spark/src/main/java/org/datavec/spark/transform/join/ExtractKeysFunction.java +++ b/datavec/datavec-spark/src/main/java/org/datavec/spark/transform/join/ExtractKeysFunction.java @@ -18,7 +18,6 @@ package org.datavec.spark.transform.join; import lombok.AllArgsConstructor; import org.apache.spark.api.java.function.PairFunction; -import org.datavec.api.transform.schema.Schema; import org.datavec.api.writable.Writable; import scala.Tuple2; diff --git a/datavec/datavec-spark/src/main/java/org/datavec/spark/transform/utils/SparkUtils.java b/datavec/datavec-spark/src/main/java/org/datavec/spark/transform/utils/SparkUtils.java index 2a97b85d3..f8a640b22 100644 --- a/datavec/datavec-spark/src/main/java/org/datavec/spark/transform/utils/SparkUtils.java +++ b/datavec/datavec-spark/src/main/java/org/datavec/spark/transform/utils/SparkUtils.java @@ -33,6 +33,7 @@ import org.datavec.api.transform.ui.HtmlAnalysis; import org.datavec.api.writable.*; import java.io.*; +import java.nio.charset.StandardCharsets; import java.util.ArrayList; import java.util.Arrays; import java.util.Collections; @@ -96,7 +97,7 @@ public class SparkUtils { public static void writeStringToFile(String path, String toWrite, Configuration hadoopConfig) throws IOException { FileSystem fileSystem = FileSystem.get(hadoopConfig); try (BufferedOutputStream bos = new BufferedOutputStream(fileSystem.create(new Path(path)))) { - bos.write(toWrite.getBytes("UTF-8")); + bos.write(toWrite.getBytes(StandardCharsets.UTF_8)); } } @@ -130,7 +131,7 @@ public class SparkUtils { FileSystem fileSystem = FileSystem.get(hadoopConfig); try (BufferedInputStream bis = new BufferedInputStream(fileSystem.open(new Path(path)))) { byte[] asBytes = IOUtils.toByteArray(bis); - return new String(asBytes, "UTF-8"); + return new String(asBytes, StandardCharsets.UTF_8); } } diff --git a/datavec/datavec-spark/src/test/java/org/datavec/spark/functions/TestWritablesToNDArrayFunction.java b/datavec/datavec-spark/src/test/java/org/datavec/spark/functions/TestWritablesToNDArrayFunction.java index 7f6115003..8e68e9c8f 100644 --- a/datavec/datavec-spark/src/test/java/org/datavec/spark/functions/TestWritablesToNDArrayFunction.java +++ b/datavec/datavec-spark/src/test/java/org/datavec/spark/functions/TestWritablesToNDArrayFunction.java @@ -17,7 +17,6 @@ package org.datavec.spark.functions; import org.datavec.api.writable.*; -import org.datavec.spark.transform.misc.SequenceWritablesToStringFunction; import org.datavec.spark.transform.misc.WritablesToNDArrayFunction; import org.junit.Test; import org.nd4j.linalg.api.buffer.DataType; @@ -25,7 +24,6 @@ import org.nd4j.linalg.api.ndarray.INDArray; import org.nd4j.linalg.factory.Nd4j; import java.util.ArrayList; -import java.util.Arrays; import java.util.List; import static org.junit.Assert.assertEquals; diff --git a/datavec/datavec-spark/src/test/java/org/datavec/spark/functions/TestWritablesToStringFunctions.java b/datavec/datavec-spark/src/test/java/org/datavec/spark/functions/TestWritablesToStringFunctions.java index 97c3363cc..8a4086596 100644 --- a/datavec/datavec-spark/src/test/java/org/datavec/spark/functions/TestWritablesToStringFunctions.java +++ b/datavec/datavec-spark/src/test/java/org/datavec/spark/functions/TestWritablesToStringFunctions.java @@ -17,7 +17,6 @@ package org.datavec.spark.functions; import org.apache.spark.api.java.JavaPairRDD; -import org.apache.spark.api.java.JavaRDD; import org.apache.spark.api.java.JavaSparkContext; import org.apache.spark.api.java.function.PairFunction; import org.datavec.api.writable.DoubleWritable;