冒泡排序、插入排序、选择排序这三种算法的时间复杂度都为 \(O(n^2)\),只适合小规模的数据。今天,我们来认识两种时间复杂度为 \(O(nlogn)\) 的排序算法——归并排序(Merge Sort)和快速排序(Quick Sort),他们都用到了分治思想,非常巧妙。
归并排序使用的是分治思想,分治也即是分而治之,将一个大问题分解为小的子问题来解决。分治算法一般都是用递归来实现的。分治是一种解决问题的处理思想,递归是一种编程技巧。
递推公式:
merge_sort(p…r) = merge(merge_sort(p…q), merge_sort(q+1…r))
终止条件:
p >= r 不用再继续分解
// O(n(logn))
void Merge_Sort(float data[], int left, int right, float sorted_data[])
{
if(left < right)
{
int mid = (left + right) / 2;
Merge_Sort(data, left, mid, sorted_data);
Merge_Sort(data, mid+1, right, sorted_data);
Merge_Array(data, left, mid, right, sorted_data);
}
}
void Merge_Array(float data[], int left, int mid, int right, float temp[])
{
int i = left, j = mid + 1;
int k = 0;
// 从子数组的头开始比较
while(i <= mid && j <= right)
{
if (data[i] <= data[j])
{
temp[k++] = data[i++];
}
else
{
temp[k++] = data[j++];
}
}
// 判断哪个子数组还有元素,并拷贝到 temp 后面
while(i <= mid)
{
temp[k++] = data[i++];
}
while(j <= right)
{
temp[k++] = data[j++];
}
// 将 temp 中的数据拷贝到原数组对应位置
for(i = 0; i < k; i++)
{
data[left+i] = temp[i];
}
}
/*哨兵简化*/
void Merge_Array(float data[], int left, int mid, int right, float temp[])
{
int max_num = INT_MAX;
int len = right - left + 1;
int data_left = new int[mid-left+2];
int data_right = new int[right-mid+1];
int i = 0, j = 0, k = 0;
// 复制左半部分元素,放置哨兵在末尾
for(int k = left; k <= mid; k++)
{
data_left[k-left] = data[k];
}
data_left[k-left] = max_num;
// 复制右半部分元素,放置哨兵在末尾
for(int k = mid + 1; k <= right; k++)
{
data_right[k-mid-1] = data[k];
}
data_right[k-mid-1] = max_num;
for (int k = 0; k < len; k++)
{
if (data_left[i] <= data_right[j])
{
data[k+left] = data_left[i++];
}
else
{
data[k+left] = data_right[j++];
}
}
}
归并排序是一个稳定的排序算法,在进行子数组合并的时候,我们可以设置当元素大小相等时,先将前半部分的数据放入临时数组,这样就可以保证相等元素在排序后依然保持原来的顺序。
如果我们对 \(n\) 个元素进行归并排序所需要的时间是 \(T(n)\),那分解成两个子数组排序的时间都是 \(T(\frac{n}{2})\),而合并两个子数组的时间复杂度为 \(O(n)\)。所以,归并排序的时间复杂度计算公式为:
\[ T(1) = C \]
\[T(n) = 2*T(\frac{n}{2}) + n, n>1\]
n = 1 时,只需要常量级的执行时间,所以表示为 C。
\[T(n) = 2*T(\frac{n}{2}) + n \]
\[ = 2*[2*T(\frac{n}{4}) + \frac{n}{2}] + n = 4*T(\frac{n}{4}) + 2*n \]
\[ = 4*[2*T(\frac{n}{8}) + \frac{n}{4}] + 2*n = 8*T(\frac{n}{8}) + 3*n \]
\[ ......\]
\[ = 2^k * T(\frac{n}{2^k}) + k * n\]
\[ ......\]
当 \(\frac{n}{2^k} = 1\)时, \(k = log_2n\),代入上式得:
\[ T(n) = n * C + nlog_2n\]
用大 O 标记法来表示,归并排序的时间复杂度为 \(O(nlogn)\)。
从我们的分析可以看出,归并排序的执行效率与原始数据的有序程度无关,其时间复杂度是非常稳定的,不管是最好情况、最坏情况,还是平均情况,时间复杂度都是 \(O(nlogn)\)。
归并排序有一个缺点,那就是它不是原地排序算法。在进行子数组合并的时候,我们需要临时申请一个数组来暂时存放排好序的数据。因为这个临时空间是可以重复利用的,因此归并排序的空间复杂度为 \(O(n)\),最多需要存放 \(n\) 个数据。
递推公式:
quick_sort(p…r) = quick_sort(p…q-1) + quick_sort(q+1, r)
终止条件:
p >= r
快速排序的分区过程如下所示,从左到右依次遍历数组,如遇到小于 pivot 的元素,则进行数据交换 ,否则继续往前进行,最后再放置 pivot。
// O(n(logn))
void Quick_Sort(float data[], int left, int right)
{
if (left < right)
{
int i = left, j = left;
int pivot = data[right];
for (j = left; j < right; j++)
{
if (data[j] < pivot)
{
int temp = data[i];
data[i] = data[j];
data[j] = temp;
i++;
}
}
data[j] = data[i];
data[i] = pivot;
Quick_Sort(data, left, i-1);
Quick_Sort(data, i+1, right);
}
}
// O(n(logn))
void Quick_Sort(float data[], int left, int right)
{
if (left < right)
{
int i = left, j = right;
int pivot = data[j];
while(i < j)
{
while(i < j && data[i] <= pivot) // 从左往右找到第一个比 pivot 大的数
{
i++;
}
if(i < j)
{
data[j--] = data[i];
}
while(i < j && data[j] >= pivot) // 从右往左找到第一个比 pivot 小的数
{
j--;
}
if(i < j)
{
data[i++] = data[j];
}
}
data[i] = pivot; // i=j
Quick_Sort(data, left, i-1);
Quick_Sort(data, i+1, right);
}
}
如果快速排序每次都将数据分成相等的两部分,则快排的时间复杂度和归并排序相同,也是 \(O(nlogn)\),但这种情况是很难实现的。如果数据原来已经是有序的,则每次的分区都是不均等的,我们需要进行 n 次分区才能完成整个排序,此时快排的时间复杂度就退化成了 \(O(n^2)\)。
平均时间复杂度的求解也可以通过递归树来分析,这个问题留待我们以后再解决。我们现在只需要知道,在大部分情况下,快速排序的时间复杂度都可以做到 \(O(nlogn)\),只有在极端情况下,才会退化成 \(O(n^2)\)。
快速排序是一个原地排序算法,是一个不稳定的排序算法,因为其在数据交换过程中可能会改变相等元素的原始位置。
获取更多精彩,请关注「seniusen」!
原文:https://www.cnblogs.com/seniusen/p/11979807.html