cann/sip FFT逆短时傅里叶变换
Istft【免费下载链接】sip本项目是CANN提供的一款高效、可靠的高性能信号处理算子加速库基于华为Ascend AI处理器专门为信号处理领域而设计。项目地址: https://gitcode.com/cann/sip产品支持情况产品是否支持Atlas 200I/500 A2 推理产品×Atlas 推理系列产品×Atlas 训练系列产品×Atlas A3 训练系列产品/Atlas A3 推理系列产品√Atlas A2 训练系列产品/Atlas A2 推理系列产品√Ascend 950PR/Ascend 950DT×功能说明接口功能asdFftIstftMakePlan初始化该句柄对应的istft配置。asdFftExecIstft执行逆短时傅里叶变换。计算公式istft函数用于进行逆短时傅里叶变换它的目标是将stft得到的频域数据转换回时域信号是stft的逆运算。短时距傅里叶变换是可逆的也就是说原本的信号可以借由反短时距傅里叶变换将短时距傅里叶变换后的信号还原。其中最广为接受的反短时距傅里叶变换方法是重叠-相加之卷积法。其中傅里叶变换Fourier transform是一种线性积分变换用于信号在时域和频域之间的变换在物理学和工程学中有许多应用。对应给定长度为N的信号DFT表达式如下将系数矩阵(NN)和时域信号(N1)看作两个Tensor在NPU上直接使用矩阵乘可完成DFT。但时间复杂度太高因此需要快速傅里叶变换。其基本原理是利用三角函数在复数域的旋转对称性将序列拆分成子序列通过蝶形运算以降低计算的复杂度而重叠-相加之卷积法( Overlap-add method ) 是一种区块卷积 ( block convolution, sectioned convolution )可以有效的计算一个很长的信号 x[n]和一个FIR滤波器h[n]的离散卷积。其中h[m]在 [1, M]之外为零。函数原型AspbStatus asdFftIstftMakePlan( asdFftHandle handle, const aclTensor * input, const int64_t nFft, const int64_t hopLengthOpt, const int64_t winLengthOpt, const bool center, const bool normalized, const bool onesidedOpt, const int64_t lengthOpt, const bool returnComplex)AspbStatus asdFftExecIstft( asdFftHandle handle, const aclTensor * input, const aclTensor * windowOpt, const aclTensor * output)asdFftIstftMakePlan参数说明参数名输入/输出描述handleasdFftHandle输入算子的句柄需要手动申请创建asdFftHandle对象。inputaclTensor *输入对应公式中的x。数据格式支持ND格式预期与stft输出相同。数据类型仅支持COMPLEX64。shape为(B, N, T)B是批处理维度。N是频率样本的数量当onesidedOpt为true时 为 (nFft // 2) 1当onesidedOpt为false时为nFft。T是帧的数量对于中心填充的STFT取值为“1 lengthOpt // hopLengthOpt”其他场景取值为 “1 (lengthOpt - nFft) // hopLengthOpt”。nFftint64_t输入傅里叶变换的大小hopLengthOptint64_t输入相邻滑动窗口帧之间的距离0 hopLengthOpt nFft。winLengthOptint64_t输入窗口帧长度winLengthOpt nFft。centerbool输入表示是否对input的两侧进行了填充默认等于true当前版本只支持true。normalizedbool输入表示STFT是否已标准化默认等于false当前版本只支持false。onesidedOptbool输入表示STFT是否为onesided默认等于false当前版本只支持false。lengthOptint64_t输入信号将被修剪的量即原始信号长度当前版本不支持该参数默认为0。returnComplexbool输入输出是否应为复数默认为True当前版本只支持True。返回值返回状态码具体参见SiP返回码。asdFftExecIstft参数说明参数名输入/输出描述handleasdFftHandle输入算子的句柄需要手动申请创建asdFftHandle对象。inputaclTensor *输入对应公式中的x。数据格式支持ND格式预期与stft输出相同。数据类型仅支持COMPLEX64。shape为(B, N, T)B是批处理维度。N 是频率样本的数量对于 onesided为true 输入为 (n_fft // 2) 1否则为 n_fft。T是帧的数量对于中心填充的stft为 1 length // hop_length否则为 1 (length - n_fft) // hop_length。windowOptaclTensor *输入对应公式中的w。数据格式支持ND。数据类型仅支持FLOAT。shape为[win_length]。outputaclTensor *输出数据格式支持ND。数据类型仅支持COMPLEX64。shape为B, length。返回值返回状态码具体参见SiP返回码。约束说明istft均不支持本地更新即不允许输入tensor和输出tensor是同一个tensor。为了使istft能够正确地重构信号n_fft、hop_length、win_length、window、center和normalized这些参数必须与之前进行stft变换时使用的参数保持一致。输入的元素不支持inf、-inf和nan如果输入中包含这些值, 那么结果为未定义。asdFftIstftMakePlannFft需保证不超过1500且分解质因数后不包含超过199的质因子。当前功能实现所限nFft大于等于32768且为2的幂的时候会修改输入数据需提前做好备份。hopLengthOpt 1500。输入的元素不支持inf、-inf和nan如果输入中包含这些值, 那么结果为未定义。asdFftExecIstft windowOpt tensor数值不能有接近零的最小值否则结果未定义。调用示例示例代码如下该样例旨在提供快速上手、开发和调试算子的最小化实现其核心目标是使用最精简的代码展示算子的核心功能而非提供生产级的安全保障。不推荐用户直接将示例代码作为业务代码若用户将示例代码应用在自身的真实业务场景中且发生了安全问题则需用户自行承担。#include iostream #include vector #include asdsip.h #include acl/acl.h #include aclnn/acl_meta.h using namespace AsdSip; #define CHECK_RET(cond, return_expr) \ do { \ if (!(cond)) { \ return_expr; \ } \ } while (0) #define LOG_PRINT(message, ...) \ do { \ printf(message, ##__VA_ARGS__); \ } while (0) #define ASD_STATUS_CHECK(err) \ do { \ AsdSip::AspbStatus err_ (err); \ if (err_ ! AsdSip::ErrorType::ACL_SUCCESS) { \ std::cout Execute failed. std::endl; \ exit(-1); \ } \ } while (0) int64_t GetShapeSize(const std::vectorint64_t shape) { int64_t shapeSize 1; for (auto i : shape) { shapeSize * i; } return shapeSize; } int Init(int32_t deviceId, aclrtStream *stream) { // 固定写法AscendCL初始化 auto ret aclInit(nullptr); CHECK_RET(ret ::ACL_SUCCESS, LOG_PRINT(aclInit failed. ERROR: %d\n, ret); return ret); ret aclrtSetDevice(deviceId); CHECK_RET(ret ::ACL_SUCCESS, LOG_PRINT(aclrtSetDevice failed. ERROR: %d\n, ret); return ret); ret aclrtCreateStream(stream); CHECK_RET(ret ::ACL_SUCCESS, LOG_PRINT(aclrtCreateStream failed. ERROR: %d\n, ret); return ret); return 0; } template typename T int CreateAclTensor(const std::vectorT hostData, const std::vectorint64_t shape, void **deviceAddr, aclDataType dataType, aclTensor **tensor) { auto size GetShapeSize(shape) * sizeof(T); // 调用aclrtMalloc申请device侧内存 auto ret aclrtMalloc(deviceAddr, size, ACL_MEM_MALLOC_HUGE_FIRST); CHECK_RET(ret ::ACL_SUCCESS, LOG_PRINT(aclrtMalloc failed. ERROR: %d\n, ret); return ret); // 调用aclrtMemcpy将host侧数据复制到device侧内存上 ret aclrtMemcpy(*deviceAddr, size, hostData.data(), size, ACL_MEMCPY_HOST_TO_DEVICE); CHECK_RET(ret ::ACL_SUCCESS, LOG_PRINT(aclrtMemcpy failed. ERROR: %d\n, ret); return ret); // 计算连续tensor的strides std::vectorint64_t strides(shape.size(), 1); for (int64_t i shape.size() - 2; i 0; i--) { strides[i] shape[i 1] * strides[i 1]; } // 调用aclCreateTensor接口创建aclTensor *tensor aclCreateTensor(shape.data(), shape.size(), dataType, strides.data(), 0, aclFormat::ACL_FORMAT_ND, shape.data(), shape.size(), *deviceAddr); return 0; } int main() { int32_t deviceId 0; aclrtStream stream; auto ret Init(deviceId, stream); CHECK_RET(ret ::ACL_SUCCESS, LOG_PRINT(Init acl failed. ERROR: %d\n, ret); return ret); // 创造tensor的Host侧数据 int64_t channel 10, nFrames 20, nFft 16, hopLen 4, winLen 16; int64_t outLen nFft hopLen * (nFrames - 1) - nFft / 2 - nFft / 2; bool returnComplex true; bool center true, normalized false, onesidedOpt false; const int64_t tensorInSize channel * nFrames * nFft; const int64_t tensorWinSize winLen; const int64_t tensorOutSize channel * outLen; std::vectorint64_t selfShape {channel, nFft, nFrames}; std::vectorint64_t winShape {winLen}; std::vectorint64_t outShape {channel, outLen}; std::vectorstd::complexfloat inputHostData(tensorInSize, std::complexfloat(0, 0)); for (int i 0; i tensorInSize; i) { inputHostData[i] std::complexfloat(i * 200.0f / tensorInSize - 100, i * 100.0f / tensorInSize - 50); } std::vectorfloat winHostData(tensorWinSize, 0.0f); for (int i 0; i tensorWinSize; i) { winHostData[i] 1.0f / winLen * i ; } std::vectorstd::complexfloat outHostData(tensorOutSize, std::complexfloat(0, 0)); void *inputDeviceAddr nullptr; void *winDeviceAddr nullptr; void *outDeviceAddr nullptr; aclTensor *input nullptr; aclTensor *win nullptr; aclTensor *out nullptr; ret CreateAclTensor(inputHostData, selfShape, inputDeviceAddr, aclDataType::ACL_COMPLEX64, input); CHECK_RET(ret ::ACL_SUCCESS, return ret); ret CreateAclTensor(winHostData, winShape, winDeviceAddr, aclDataType::ACL_FLOAT, win); CHECK_RET(ret ::ACL_SUCCESS, return ret); ret CreateAclTensor(outHostData, outShape, outDeviceAddr, aclDataType::ACL_COMPLEX64, out); CHECK_RET(ret ::ACL_SUCCESS, return ret); asdFftHandle handle; asdFftCreate(handle); asdFftIstftMakePlan(handle, input, nFft, hopLen, winLen, center, normalized, onesidedOpt, 0, returnComplex); size_t work_size; asdFftGetWorkspaceSize(handle, work_size); void *workspaceAddr nullptr; if (work_size 0) { ret aclrtMalloc(workspaceAddr, static_castint64_t(work_size), ACL_MEM_MALLOC_HUGE_FIRST); CHECK_RET(ret ::ACL_SUCCESS, LOG_PRINT(allocate workspace failed. ERROR: %d\n, ret); return ret); } asdFftSetWorkspace(handle, (uint8_t *)workspaceAddr); asdFftSetStream(handle, stream); ASD_STATUS_CHECK(asdFftExecIstft(handle, input, win, out)); ret aclrtSynchronizeStream(stream); CHECK_RET(ret ::ACL_SUCCESS, LOG_PRINT(aclrtSynchronizeStream failed. ERROR: %d\n, ret); return ret); asdFftDestroy(handle); auto size GetShapeSize(outShape); std::vectorstd::complexfloat outData(size, 0); ret aclrtMemcpy(outData.data(), outData.size() * sizeof(outData[0]), outDeviceAddr, size * sizeof(outData[0]), ACL_MEMCPY_DEVICE_TO_HOST); // 打印输出tensor值中前16个 for (int64_t i 0; i 16; i) { std::cout static_caststd::complexfloat(outData[i]) \t; } std::cout \nend result std::endl; std::cout Execute successfully. std::endl; aclDestroyTensor(input); aclDestroyTensor(win); aclDestroyTensor(out); aclrtFree(inputDeviceAddr); aclrtFree(winDeviceAddr); aclrtFree(outDeviceAddr); if (work_size 0) { aclrtFree(workspaceAddr); } aclrtDestroyStream(stream); aclrtResetDevice(deviceId); aclFinalize(); return 0; }【免费下载链接】sip本项目是CANN提供的一款高效、可靠的高性能信号处理算子加速库基于华为Ascend AI处理器专门为信号处理领域而设计。项目地址: https://gitcode.com/cann/sip创作声明:本文部分内容由AI辅助生成(AIGC),仅供参考